thedarklord

Inscrit depuis le le 24/02/2009 à 17:18
783 messages publiés
Envoyer un message privé
"La question essentielle n’est pas d’utiliser du logiciel libre, mais qu’on respecte la possibilité pour les autres d’utiliser du logiciel libre."
Richard Stallman

yoda@dagobah:/~$ $DO || ! $DO; try
bash: try: command not found
Derniers messages de thedarklord :
Et quand la télé ne marchera plus, on devra jeter le meuble aussi ?


Tu rigoles peut-être mais en fait cette remarque est extrêmement pertinente:
- Déjà Ikea reflète notre société de conso: cheap mais merdique, surtout comparé aux meubles de nos (arrières)grand-parents faits par des menuisiers, qui peuvent enterrer plusieurs générations.
- La philosophie on jette tout, même si une grande partie marche encore/est en bon état prévaut dans l'électronique mais aussi dans bien des domaines (exemple: les chaussures... qui va chez le cordonnier?), parce que moins cher que de réparer.
- Quand on compile les fonctions (ici: meuble + TV), on est bien obligé de jeter quand l'une des fonctions ne marche plus. Comme quoi le KISS de UNIX peut aussi s'appliquer au matériel, avec comme avantage un meilleur recyclage. J'ai toujours trouvé les iMac complètement cons: ma carte mère pète, je change la dalle LCD aussi voyons!!!

Combien de temps cela durera-t-il? Probablement tant qu'il y aura des ouvriers à exploiter à quelques dollars de l'heure et tant que l'énergie sera payée à un prix probablement inférieur de plusieurs magnitudes à sa valeur réelle.

Continuons donc de vivre à crédit (c'est à la mode en se moment), en polluant comme des porcs... la facture de la dépollution (sol, mer, air, ciel,...) qui deviendra indispensable pour des questions sanitaires, et de l'énergie devenue trop rare donc chère sera pour nos enfants et leurs enfants...
@bob312465: le noyau Mach est un noyau justement, donc pas grand chose à voir avec l'interface graphique (aqua)... Et OSX utilise le noyau XNU:

XNU is the computer operating system kernel that Apple Inc. acquired and developed for use in the Mac OS X operating system and released as free and open source software as part of the Darwin operating system. XNU is an acronym for X is Not Unix.[1]

Originally developed by NeXT for the NeXTSTEP operating system, XNU was a hybrid kernel combining version 2.5 of the Mach kernel developed at Carnegie Mellon University with components from 4.3BSD and an object-oriented API for writing drivers called Driver Kit.

After Apple acquired NeXT, the Mach component was upgraded to 3.0, the BSD components were upgraded with code from the FreeBSD project and the Driver Kit was replaced with a C++ API for writing drivers called I/O Kit.


source: https://secure.wikim...dia/en/wiki/XNU

Donc ce qui se rapproche le plus d'OSX, c'est quand la famille de UNICES:
https://secure.wikim...History_of_OS_X
Gnuzer, le 21/03/2012 - 21:36

[...]
Le problème est que sur des sites comme Youtube ou Vimeo, les vidéos sont enrobées dans des grosses bouses en javascript qui en empêchent le téléchargement normal. Au lieu de s'arracher les cheveux sur la question de supporter les formats fermés ou pas, peut-être devrait-on commencer par inciter les développeurs à faire des sites corrects ?

+1000
D'ailleurs, quand on veut automatiser la récupération d'un media audio ou video, au lieu d'un bête wget dans un script bash, on est obligé d'écrire un bot spécifique à un site juste pour désosser sa saleté de page web wrappée dans des montagnes de javascript.
@ccomp
J'ai pas dit que c'est difficile, j'ai dit que ça necessite le meme effort qu'une compil sous gentoo, puisque portage s'inspire du système de ports de BSD.
http://fr.wikipedia....ortage_(Gentoo)
Donc si reproche à gentoo il y aurait à ce sujet (ex: apport d'une compil pas toujours évident par rapport à un binaire), quasi meme reproche il y aurait par rapport aux ports de FreeBSD.
A moins de deployer un système identique sur un parc de machines homogènes, la compil et la config ultra fine apporte assez peu (mise à part l'apprentissage du système, ce qui est excellent). Voir les nombreux comparitifs, par exemple entre des debian pures binaires et des debian 100% par les sources (oui avec debian on peut tout faire ;-)
resultat: le gain est pas faramineux.
Donc quand c'est pas critique (comme avec des ressources hyper limitées) c'est souvent contre-productif (en temps).
De plus, la compil pour le desktop privé, c'est pas bon écologiquement parlant.
@ccomp:
pour moi, debian à le rapport stabilité/faciltié de maintenance le plus efficace.
Comme tu l'as dis, les compils à rallonge (gentoo, et j'ajouterais les ports de FreeBSD) ont tendances à etre hors jeu qd on veut être rapidemment très efficace. Je trouve le gain faible par rapport à la surchage de travail (temps = couts). FreeBSD en release, avec les binaires uniquement, c'est pas mal. Mais plus simple et efficace que debian c'est difficile (bon je suis pas un RHEL/Suse specialiste).
Mais comme tu dis, Debian c'est du linux.... ah non, y'a Debian/kFreeBSD ;-). Le bonheur quoi !!! (qd ce sera un poil plus validé en prod ;-)
@ccomp
oui, mais dans cet article, il ne disait pas forcément que c'était quelque chose de complètement négatif, plutôt inevitable. Il pense toujours que les adeptes du Hurd ont fumé la moquette par exemple.
Et je parle même pas de tous les reproches que peux lui faire de raadt (qui n'a pas forcément complètement raison, cela dit)
zepretender, le 02/03/2012 - 15:47
[...]
Finalement, les plus à plaindre sont les geeks qui vont encore avoir l'occasion de cracher sur Microsoft... Ils le font depuis plus de 20 ans...

Bien essayé, on est trolldi après-midi finalement...
ccomp, le 02/03/2012 - 15:52

Pas d'accord : Debian reste stable.

C'est certain, Debian, c'EST stable.
(OK elle est facile mais j'ai pas pu m'empecher)
ccomp, le 02/03/2012 - 15:39

Kheltdire, le 02/03/2012 - 15:34
(Encore mieux que le troll, le mépris. Un topic 100 windows qui dévie complétement sur linux/ubuntu )

Et oui j'avais oublié BSD, toutes mes excuses...
Faut vraiment que je test a l'occasion =)


Si tu veux dévier sur BSD, c'est le meilleur moyen.
Tiens, je te montre :
Si tu testes BSD, tu seras surpris, à la fois par la performance et le respect de l'esprit UNIX. Bien mieux que ce (BIPPPPPP!!!!) de GNU/Linux...

je plussoie
Mais c'est peut-etre parce qu'il y plus de variantes de linux que de BSD, donc potentiellement plus de distros spécifiques à des besoins éloignés de ceux addressés par les UNICES d'origines. Parce que si tu prend slack ou gentoo, t'es franchement très proche des fondements UNIX.
Ou alors si on parle que du kernel, je laisserais le débat à Linus Torvalds
versus Theo de Raadt ;-)
EDIT:reformulation
ccomp, le 02/03/2012 - 15:18

thedarklord, le 02/03/2012 - 15:14

ccomp, le 02/03/2012 - 15:03

http://www.pcinpact....ement-unity.htm
Tu le vois le coude, là ?


C'est les même graphes que mon lien. Perso je trouve pas cela significatif. A la limite, y'a une accélération de la baisse qui fait penser qu'Unity n'a pas aidé. Y a bien un franc coude de mint, mais c'est avant l'introduction d'Unity.
Bref, on peut juste dire que la direction d'Ubuntu/canonical (surtout comparé à son "concurrent" direct, mint) est dans la mauvaise direction (perte de part) et que c'est pas Unity qui va sauver les meubles, au contraire.
Mais de la à rendre Unity responsable, faut pas exagérer ;-)


le coude apparaît en 2011.
et c'est le lien tracé entre 2010 et 2011 qui te donne l'impression que la hausse commence en 2010.

la pente moyenne de la courbe d'Ubuntu, si on exclue 08-09, est à peine moins négative que 11-now. C'est la légère accélération que je mentionne ci-dessus, j'appelle pas ça un coude franc qui permet de déduire si c'est une vraie tendance ou une fluctuation statistique. Et même si c'est le cas, c'est pas un coude assez évident pour pointer Unity du doigt comme responsable fondamental. Ubuntu semble (selon ses utilisateurs) faire des mauvais choix, au moins depuis 2005. Et dernièrement particulirèrement par rapport à la croissance de Mint. Voilà.
Pour la courbe de Mint, je suis d'accord que la 1ere valeur "haute" c'est 2011. Cela dit les utlisateur n'ont pas changé tous en même temps, pile le jour des sorties de Ubuntu ou de Mint, qui n'ont pas lieu en même temps en plus. De plus ça ne semble pas etre particulièrement au dépend d'ubuntu, si on regarde la pente de sa courbe, comme dit plus haut.
Alors que debian et fedora se neutralise, c'est peut-etre un nouvel apport d'utilisateur linux depuis windows. mais ça ne dit pas de quoi à quoi les utilisateurs changent.
Pas de preuve donc que les utilisateurs fuient Ubuntu pour Mint, encore moins que unity en serait la cause.
ccomp, le 02/03/2012 - 15:03

http://www.pcinpact....ement-unity.htm
Tu le vois le coude, là ?

C'est les même graphes que mon lien. Perso je trouve pas cela significatif. A la limite, y'a une accélération de la baisse qui fait penser qu'Unity n'a pas aidé. Y a bien un franc coude de mint, mais c'est avant l'introduction d'Unity.
Bref, on peut juste dire que la direction d'Ubuntu/canonical (surtout comparé à son "concurrent" direct, mint) est dans la mauvaise direction (perte de part) et que c'est pas Unity qui va sauver les meubles, au contraire.
Mais de la à rendre Unity responsable, faut pas exagérer ;-)
ccomp, le 02/03/2012 - 14:51

oui je connais distrowatch, mais je veux dire une stat qui montrerait clairement la responsabilité d'Unity dans l'histoire. C'est pas parce q'on dit que c'est la faute d'Unity que c'est le cas. Dans mon lien, malgré ce que dit le bloggueur les courbes qu'il présente montre une érosion des parts d'ubuntu (et relativement une croissance de Mint) qui date de bien avant l'introduction d'Unity. Y'a même pas un coude vers la 11.04
ccomp, le 02/03/2012 - 14:20

ccomp, le 02/03/2012 - 14:04



@TheDarkLord : Au contraire, ceux qui décrient Unity vont plus loin... en se tournant vers Linux Mint, une distribution avec l'interface classique...

Possible. T'aurais des liens qui donneraient une estimation quand au nombre d'utilisateurs qu'auraient perdu Ubuntu/canonical au profit d'autres distribs depuis l'introduction d'Unity (qui cela dit s'enlève facilement comme n'importe quel paquet, et se remplace par le bureau qu'on aime bien.)
Ca m'interesse parce que mon 1er contact avec Unity, c'était y'a quelque jours en installant 12.04 sur un toshiba ac100, pour remplacer android. L'image d'install d'ubuntu est pas du tout adaptée à cette machine, mais c'est la plus distro mature/stable pour l'ac100. Donc j'ai tout viré pour openbox, mais la qualité d'Unitty n'est pas en cause.
Par contre, je me suis demandé si l'utilisateur standard d'Ubuntu (qui aime qd même les GUI sinon il aurait debian ;-) et plutôt renforcé dans son choix, ou aurait tendance à aller voir ailleurs.
Comme on peut pas avoir une vraie idée en se basant sur les réactions enflammées des forums, je me demandais s'il y avait des stats quelques part.
J'avais vu des trucs comme le lien ci dessous, mais bon, malgré le titre, on a pas l'impression qu'Unity est pour grand chose dans la perte de part de marché (si tant est qu'il y en ait vraiment). Idem, Mint avait une bonne croissance déjà avant cette histoire.
http://royal.pingdom...rface-to-blame/
@oddant: héhé, mais je suis pas tout à fait d'accord. Bon mes références sont un peu biaisées ces dernières années: j'ai jamais utilisé vista (d'autres se chargent de le descendre à ma place) et 7 seulement au boulot pour me connecter avec putty sur un calculateur Linux, encore que je trouve les panneaux de config bordeliques à souhait).
- 98 était BAD. Beaucoup trop de bluescreens.
- ME n'était pas bad, il était INUTILISABLE, même 1 seconde après une fraiche install terminée.
- il manque 2k ou NT 4.0: perso les plus aboutit pour leurs époques: GOOD
- XP: la home est une merde, la pro est une 2k avec une interface au couleur playskool qui bouffe plus de RAM. Mais moins de bluescreen que 98, donc verdict: BOF

@ccomp: Faut pas généraliser. Ceux qui décrient unity vont en général plus loin que ce que tu décrit. Unity peut répondre à certain besoins: si le concept est intéressant, ça veut pas dire que la réalisation est OK, en tout cas pour le moment. Donc beaucoup d'utilisateurs sont pas convaincus (dont moi, mais bon j'utilise debian et openbox alors)... pour le moment, mais ça peut changer.
Ou pas.
EDIT:
mots manquants rajoutés
Darklord, plus le capteur est grand, plus il y a du bruit.

Non, plus la DENSITE de cellules d'un capteur est grande plus il y a de bruit. Pour une meme surface (donnée par l'optique) un 8 Mpx a des cellules CMOS plus grandes qu'un 41Mpx, donc une densité plus basse, donc moins de bruit.
De même, à quantié égale pixels, un capteur plus grand (en surface) est moins dense, donc moins bruité.

Si les motivations de ces sociétés sont encore floues

Sérieux, c'est flou pour vous? Allez un indice au bas de l'écran: pognon


Le capteur du 808 PureView comprend bien 41 millions de pixels. Le téléphone utilise ensuite des algorithmes d'interpolation (utiliser 5 pixels physiques pour en créer un logique, au contraire de l'extrapolation qui consiste à "inventer" un pixel non existant) pour générer des photos 8Mpixels très détaillées et avec un bruit numérique réduit.

Source : livre blanc de Nokia sur la question --< http://nokia.ly/yoBx7o

Cela s'appelle de l'oversampling. Une fois numérisé, on peut appliquer un downsampling vers divers tailles (en pixels) d'images, et en utilisant un bon filtre low-pass pour l'interpolation (genre Lanczos j'imagine) bi-directionnel/zero-phase (de type filtfilt, pour ceux qui connaissent MATLAB ;-). Le bruit (assumé +/- gaussien) va naturellement être atténué avec le filtre. (C'est la même idée que les APN qui prennent rapidement plusieurs photos de 14 bits pour avoir virtuellement 16 bits de précision. Sauf qu'on remplace la moyenne temporelle par une moyenne spatiale dans ce cas.)
De plus, on peut aussi appliquer des filtrage non linéaire de débruitage, en même temps qu'on applique l'algo de démosaique.

C'est pas vraiment révolutionnaire. Je pense que le capteur 41Mpx et la partie interpolation coute moins cher qu'un capteur de 8 Mpx mais moins "bruyant".
Plus gros est le capteur, moins il y a de bruit de toute façon, mais apparemment Nokia doit arriver à un SNR équivalent pour moins cher. Autrement dit, un capteur de 41 Mpx médiocre + un bon oversampling arrive à un prix plus bas qu'un bon 8Mpx pour une qualité similaire.

EDIT: reformulation
L'argument de la vitesse est un mythe véhiculé notamment par OpenDNS:
http://www.bortzmeye...rapide-dns.html

quand à la "vitesse" ainsi que les motivations de google, et points noirs de son service:
http://www.bortzmeye...google-dns.html

Et pourquoi faut éviter d'utiliser OpenDNS:
http://www.bortzmeye...-non-merci.html
Neuro, le 20/10/2011 - 12:56

T' en fait pas superadmin la section Linux va totalement changer(vas voir le forum privé. C' est le grand foutoir par ici.


C'est peut-être une bonne chose, parce que jusqu'à présent, je crois pas que le premier réflexe du linuxien francophone, débutant ou avertit, quand il chercher une soluce à un problème, c'est de regarder dans le forum "coin linux" de numérama...
C'est sans volonté de critiquer bêtement, mais soyons honnête, rien que si on se limite à ubuntu, puisque c'est à peux près la distro qui occupent 99% des topics ici, ben autant aller direct sur ubuntu-fr.
En résumé, j'ai jamais trop compris la pertinence de ce "coin linux", alors qu'un coup de google vous amène vers tout un tas de blogs qui adressent des problèmes du plus trivial au plus spécifique.
Google ne m'a jamais envoyé ici...

Corollaire: je pense que la plupart de ceux qui contribuent avec des tutos et/ou des réponses (en tout cas moi, c'est ce que je fais) le font dans ces forums/blogs là.
Numerama sur les réseaux sociaux