Un fabricant de photocopieuses, un journal spécialisé, une boutique d'ordinateurs, un outsider libriste déchu et quelques vendeurs de calculatrices : c'est à tout ce beau monde qu'on doit l'informatique personnelle et l'industrie de la tech telle qu'on la connaît.
Au commencement était IBM.
Plus de 80 % du marché de l’informatique lui revenait. L’imagination y fantasmait une intelligence artificielle ou une grande entité centralisée, tel HAL 9000 dans 2001, l’Odyssée de l’espace (1968) ou l’ordinateur chargé de déclencher des représailles nucléaires dans Docteur Folamour (1963). Et puis, à la périphérie de l’empire de Big Blue, l’idée d’un ordinateur personnel — voire d’un home computer, « ordinateur domestique » — commença à émerger.
Une des premières occurrences du terme « ordinateur personnel » se trouve dans un article du New York Times de 1962 intitulé « Les ordinateurs de poche pourraient remplacer les listes de course », où le physicien cocréateur du calculateur ENIAC, John Mauchly, affirme qu’« il n’y a pas de raison de supposer que le garçon ou la fille moyens ne pourront pas être maîtres d’un ordinateur personnel ».
Moins que la technologie, c’est son implémentation qui définit la notion de personal computer. Le Xerox Alto était trop cher pour être vendu à cause de limitations techniques, mais c’est surtout sa vision de l’interface graphique qui a résonné dans l’histoire. Voici donc ceux qui ont façonné l’ordinateur personnel et sa vision de l’informatique, des années 60 jusqu’à la conception de l’IBM PC, qui signe le début de la fin pour l’hégémonie d’IBM et l’avènement de l’industrie moderne de la tech.
1968 : HP 9100A, la calculatrice programmable

Hewlett-Packard, première entreprise de la tech née dans ce qui va s’appeler la Silicon Valley, fabrique alors depuis trente ans de l’électronique dont des calculatrices. La 9100A est la première calculatrice scientifique moderne, capable de calculer des fonctions trigonométriques et exponentielles ; elle peut également enregistrer des « programmes », c’est-à-dire des fonctions et algorithmes mathématiques. Elle est influencée par la calculatrice italienne Olivetti Programma 101, sortie en 1965 et marketée comme un desktop computer (après tout, le verbe to compute signifie juste « calculer »).
HP voulait également décrire la 9100A comme un « ordinateur de bureau » (desktop computer) ; mais comme le remarque Hewlett, « si nous l’avions appelé ordinateur, il aurait été rejeté par les gourous informatiques de nos clients, car il ne ressemble pas à un IBM. Nous avons donc décidé de l’appeler calculatrice, et toutes ces absurdités se sont envolées ». Avec un regard moderne néanmoins, les capacités de la 9100A ne dépassent guère celles d’une calculatrice Casio de lycée, et ne permettent par exemple pas d’effectuer du traitement de texte ou du tableur. Seulement des maths.
- En bref : une calculatrice scientifique niveau lycée. Après tout, un ordinateur n’est qu’une machine à calculer…
1968 : NLS, The Mother of All Demos

Resté à jamais à l’état de prototype embarqué sur des calculateurs mainframe, le oN-Line System (NLS) n’est pas un appareil, mais un système logiciel : une sorte de Google Drive, Docs et Presentation centralisés et pilotés à la souris sur une interface graphique. À une époque où Intel est à peine né, c’est tout bonnement révolutionnaire, ce qui conduit un journaliste à surnommer la démonstration du NLS en 1968 « The Mother of All Demos ». Issu de la tradition de recherche post-1945 à la IBM, le NLS est trop en avance pour son temps et s’avère difficile à utiliser ; mais il inspirera beaucoup de monde dans la Silicon Valley, dont Xerox (voir ci-dessous).
La souris informatique, schématisée dès 1965 d’après des concepts de type trackball datant de la Seconde Guerre mondiale, est pour la première fois utilisée dans la mother of all demos sous la forme d’un prototype à un bouton. Au cours des années 70, la souris « standard » se dotera très vite de trois boutons et commencera à être utilisée comme telle dans des jeux vidéo du début des années 80, puis sous une variante à un bouton dans le Macintosh de 1984.
- En bref : la première vision concrète des potentialités d’un ordinateur personnel.
1971 : Kenbak-1, naissance en silence

Le Computer History Museum de Mountain View le considère comme le premier de tous les ordinateurs personnels ; et pourtant, il n’a fait aucune vague. Né dans une startup éphémère de la main d’un certain John Blankenbaker, le Kenbak-1 n’a même pas de microprocesseur — ceux-ci n’existent pas encore. À la place se trouve un assemblage de circuits intégrés exécutant environ 1000 instructions par seconde, soit l’équivalent d’une cadence de 1 kHz ( !). Quant à la mémoire vive, elle ne dépasse pas 256 bits.
Commandé avec des interrupteurs, le Kenbak-1 ne dispose que de diodes en guise d’affichage. Le prix de lancement est de 750 dollars (3 720 euros). Seules 40 machines ont été construites, et seules 14 ont survécu jusqu’à nos jours. En 2015, une d’entre elles a été vendue aux enchères pour plus de 25 000 euros.
- En bref : le pionnier oublié qui n’a pas exercé d’influence sur l’industrie.
1973 : Xerox Alto, le bijou tech à interface graphique

« Un livre amélioré, actif (comme l’enfant) plutôt que passif […] avec le pouvoir de fascination de la télévision, mais contrôlable par l’enfant plutôt que par les chaînes ». Quand le célèbre informaticien Alan Kay publie en 1972 un article nommé « Un ordinateur personnel pour enfants de tous âges », l’appareil portatif à visée éducative qu’il imagine semble venir de trente ans dans le futur : une tablette non tactile dotée d’un clavier et connectée à Internet, tel un BlackBerry géant de la fin des années 2000.
Beaucoup trop en avance sur son temps, le DynaBook — c’est son nom — reste sans surprise à l’état de spéculation philosophique. Mais le centre de recherche où travaille Alan Kay, Xerox PARC, s’en inspire pour créer une sorte de « DynaBook intérimaire » : un mini-ordinateur à interface graphique WYSIWYG (what you see is what you get), pilotable par une souris à trois boutons et reprenant les grandes fonctionnalités du système NLS.
Avec ses caractéristiques de titan, l’Alto est trop coûteux pour être vendu
Reconnaissable à son écran vertical et ayant le gabarit d’une grosse table de chevet, Le Xerox Alto un chaînon manquant entre les ordinateurs mainframe, grosses armoires auxquelles sont reliés plusieurs terminaux individuels, et les futurs micro-ordinateurs personnels que l’on pose devant soi sur une table. Il dispose d’entre 96 et 512 ko de mémoire vive, d’une CPU cadencée à 5,8 MHz et peut accueillir une cartouche mémoire de 2,5 Mo — des caractéristiques de titan pour l’époque.
Seuls 2000 exemplaires sont « distribués » au cours de la décennie, car aucun n’est mis sur le marché. Le Computer History Museum estime que si cela avait été le cas, l’Alto aurait dû être vendu à un prix de plus de 10 000 dollars de l’époque, soit 50 000 euros d’aujourd’hui. Malgré son coût mirobolant, les innovations de l’Alto inspireront l’industrie pour toute une décennie. En 1979, des visites à Xerox seront organisées pour les ingénieurs d’Apple, qui s’inspireront de l’interface graphique de l’Alto pour les futurs Apple Lisa et Macintosh.
- En bref : le prototype user-friendly et ultra-sophistiqué porté par la vision d’Alan Kay, avec dix ans d’avance sur son temps. N’était pas commercialisable.
1973 : Micral, micro-cocorico

Le premier micro-ordinateur commercial du monde est français ! Le Micral N renferme en effet un CPU Intel 8008 cadencé à 500 kHz, le premier microprocesseur de l’histoire, et se trouve être un ordinateur entièrement monté et non en kit. Son concepteur est la firme R2E (« Réalisation d’Études Électroniques), qui voulait créer une machine pour l’INRA destinée à mesurer l’évapotranspiration des plantes cultivées.
L’appareil ne coûte que 8 500 francs (1 500 euros), ce qui en fait une bonne alternative aux mini-ordinateurs pour les contrôles de processus ou les péages routiers — dans le monde de l’entreprise et du service public, donc. Lisant originellement ses programmes sur des cartes perforées, le Micral est doté d’un lecteur de disquettes à l’occasion d’une commande du Commissariat à l’Énergie Atomique. Toutes versions confondues, 90 000 exemplaires de Micral sont écoulés jusqu’au rachat de R2E en 1981.
- En bref : le premier micro-ordinateur, utilisé dans les instituts et le service public en France.
1974 : Altair 8800, le kit en une de la presse
Doit-on la révolution de l’ordinateur personnel à une rédaction de journalistes tech ? Si l’Altair 8800 vient d’un petit fabricant de radios nommée MITS, sa conception a en effet été aiguillée par une revue spécialisée, Popular Electronics, qui pour contrer un magazine concurrent voulait mettre en une de son édition de janvier 1975 un ordinateur complet à l’allure professionnelle.
Le nom « Altair » est décidé par les rédacteurs de Popular Electronics, proposé selon la légende par la fille de l’un d’entre eux qui regardait un épisode de Star Trek se déroulant autour de l’étoile Altaïr. La machine est basée sur un processeur Intel 8080 cadencé à 2 MHz et dispose de 256 octets à 64 ko de mémoire. Vendue à 439 dollars (1 700 euros) en kit ou 621 dollars (2 400 euros) assemblée pour la version de base, son succès prend MITS par surprise. Alors que la firme ne s’attendait à écouler que quelques centaines de modèles, 5000 exemplaires se vendent dans l’année.

L’Altair est à l’origine difficile à programmer et à utiliser. Début 1975, le patron de MITS reçoit une mystérieuse lettre d’une startup nommée Traf-O-Data qui lui propose de lui vendre sa version du langage de programmation BASIC (le langage dont chaque utilisateur parlait à son ordinateur à l’époque des interfaces textuelles). Mais en appelant la firme, il tombe chez un particulier qui ne connaît rien à l’informatique.
Derrière Traf-O-Data se trouvent en fait deux étudiants en informatique de Boston, Paul Allen et Bill Gates, qui n’avaient pas de BASIC dans les cartons, mais étaient simplement fascinés par l’Altair après avoir eu Popular Electronics entre les mains. Après trente jours de folie à développer leur BASIC, Allen saute dans un avion pour Albuquerque et effectue une démonstration concluante. Gates le rejoint pour former la startup « Micro-soft ». L’ordinateur en kit inspire également l’autre côté des États-Unis, parmi les premiers émois open source de la Silicon Valley.
- En bref : l’étincelle qui a allumé la mèche de l’industrie de l’informatique personnelle.

1976 : Apple I, de la sorcellerie chez les hackeurs

L’imagination populaire associe souvent les débuts de l’informatique à des hackeurs rebelles adeptes de substances illicites. Dans les années 70, la vallée abrite en vérité deux camps opposés : les grandes boîtes capitalistes aux ingénieurs diplômés, comme Intel ou HP, et la contre-culture hippie qui voit l’informatique comme un artifice oppresseur. Si dès 1971 le pionnier vidéoludique Atari se dote d’une culture assez anticonformiste, la première vraie synthèse apparaît en 1975 avec le fameux Homebrew Computer Club.
Dix ans avant que Richard Stallman ne pose les bases du mouvement du logiciel libre, la culture de cette association a déjà tout d’une forme de librisme, prônant la gratuité contre la propriété intellectuelle. Parmi eux se trouve un ingénieur d’HP nommé Steve Wozniak. Fasciné par l’Altair 8800, celui qu’on surnomme the wizard imagine un ordinateur doté d’un clavier et d’un écran, contrairement aux machines de l’époque fonctionnant avec des interrupteurs et LEDs.
Wozniak distribue en open source (comme on le dirait aujourd’hui) les plans de son invention aux membres du Homebrew, souvent très intéressés, mais qui ne trouvent pas le temps ou les moyens de construire l’ordinateur en entier. Pour leur faciliter la tâche, son meilleur ami Steve Jobs propose de fabriquer puis de leur vendre des circuits imprimés vierges. Ainsi naît une petite entreprise, nommée Apple Computer faute de meilleure idée. La machine de Wozniak attire l’attention de la boutique d’informatique Byte Shop, qui vient d’ouvrir à Mountain View et cherche des produits intéressants. Peu intéressé par des pièces détachées, le magasin de Paul Terrell exige 50 ordinateurs montés suivant les plans du wizard.
Fabriqué à la main en mobilisant famille et amis dans une maison Jobs transformée en usine, le Apple I contient un processeur MOS 6502 cadencé à 1 MHz et 4 ko de RAM extensibles à 48 ko. Son prix de 666,66 dollars (2 400 euros) force les deux Steve à s’excuser auprès de chrétiens offensés en disant qu’ils ignoraient que c’était le nombre de la Bête. Il est écoulé à 200 exemplaires, dont une soixantaine existent à ce jour ; le plus cher a été vendu aux enchères en 2017 pour 815 000 dollars. Vendu sans écran ni alimentation, le Apple I est peu attrayant pour le consommateur lambda et reste par beaucoup d’aspects un simple prototype.
- En bref : la première machine commerciale qui ressemble vaguement à un ordinateur personnel tel qu’on se l’imagine.
1977 : Commodore PET et la « Trinité », l’émergence commerciale
La commercialisation de l’informatique personnelle se met proprement en branle en l’an 1977 avec trois ordinateurs surnommés la « Trinité », quoiqu’en fait seul deux sont massivement vendus cette année-là : le Commodore PET et le TRS-80.
En septembre 1976, Jobs et Wozniak essayent (déjà !) de vendre Apple au fabricant de calculatrices Commodore, qui refuse en voyant le prix. Commodore s’attelle alors à créer son propre ordinateur personnel en interne, se donnant six mois pour pouvoir le sortir avant le CES de janvier 1977. La firme achète des licences du BASIC de Microsoft, mais décide de ne pas les payer avant la sortie des PET — qui se trouve malencontreusement retardée jusqu’en octobre. La chaloupe Microsoft manque de couler, et n’est sauvée que par un contrat que lui passe Apple.
Le Commodore PET embarque un processeur MOS 6502 cadencé à 1 MHz et 4 ko de mémoire vive extensibles à 96 ko, et est vendu à partir de 495 dollars (1 660 euros). C’est ainsi que Commodore signe son entrée dans l’informatique personnelle, domaine que la firme traverse avec brio grâce à la sortie en 1982 du Commodore 64, l’ordinateur le plus vendu de tous les temps. C’est à l’époque la marque d’ordinateur personnel la plus répandue en Europe.

De son côté, Tandy Radio Shack est une entreprise étonnante. Tandy est à la base spécialisé sur les biens en cuir, jusqu’au rachat en 1962 de Radio Shack, une vieille chaîne de magasins d’électronique en difficulté financière. Après la sortie de l’Altair 8800, Radio Shack s’intéresse à la fabrication d’un ordinateur similaire, mais entièrement monté. L’anecdote raconte qu’un prototype doté d’un programme de comptabilité avait été présenté au PDG du groupe. Monsieur Tandy y aurait rentré son salaire ; mais le chiffre s’avérant trop élevé pour être supporté, la pauvre machine aurait promptement planté.
Le TRS-80 renferme à l’origine 4 ko de RAM augmentable à 48 ko ainsi qu’un processeur Zilog Z80 cadencé à 1,774 MHz, pour un prix de lancement de 600 dollars (2 020 euros). La ligne TRS-80 dispose dès 1979 de la bibliothèque software la plus fournie du marché et reste la série d’ordinateurs la plus vendue jusqu’en 1982, engendrant un certain nombre de clones comme le fera IBM après lui.
Étonnamment, ce n’est ni Tandy ni Commodore qui attirera IBM dans le secteur et déclenchera les « guerres du PC » des années 80. Le fauteur de trouble est le troisième membre de la Trinité, beaucoup plus modeste en ventes, mais qui a précédé les deux autres dans le lancement de son produit. La raison de son succès va vous étonner.
- En bref : premiers ordinateurs personnels à structurer le marché, le PET et le TRS-80 arrivent un peu tard pour prétendre être les « premiers » tout court.

1977-1979 : Apple II, le triomphe de l’architecture ouverte
Sorti en juin 1977 et prenant ainsi de vitesse le reste de la Trinité, l’Apple II est une version améliorée de son prédécesseur. Même processeur dans le ventre (MOS 6502 cadencé à 1 MHz), même RAM aussi (4 ko extensibles à 48 ko) ; mais en plus d’être tout-en-un, l’Apple II a un écran couleur, d’où l’emblématique logo arc-en-ciel. Il comporte également un joystick primitif et Pong installé, anticipation du jeu vidéo comme vecteur d’achat dans l’informatique personnelle.
Apple était plus open que les autres, ce qui va durablement influencer le secteur
Sans la force de marketing d’un Radio Shack ou d’un Commodore, l’ordinateur fruité se distribue lentement à 1 293 dollars (4 330 euros) l’unité. Jusqu’au jour où un tiers lui développe VisiCalc, le premier logiciel de tableur en 1979, considéré comme le killer app non seulement d’Apple, mais peut-être de toute l’industrie : le programme à lui seul justifie l’achat de la machine.
La raison du succès d’Apple peut sembler difficile à croire aujourd’hui, mais elle tient en deux mots : architecture ouverte. Les grandes firmes de l’époque sortent des systèmes verrouillés contre les périphériques et logiciels tiers, par exemple en ne publiant pas les spécifications nécessaires à leur fabrication, ou alors en limitant le nombre de ports externes ou l’accessibilité aux entrailles de la machine.

Au contraire, un des principaux arguments commerciaux de l’Apple II est sa capacité à être bidouillé, amélioré et reprogrammé (la publicité ci-dessus encourageant même l’échange de logiciels entre particuliers). Si cela nous paraît aller de soi au XXIe siècle, c’est en grande partie grâce à l’influence de la firme de Wozniak. Pour s’en rendre compte, il suffit de comparer la facilité d’installation d’un Linux sur PC avec la prise de tête du passage à LineageOS sur smartphone.
Malgré l’importance de l’Apple II dans le lancement de l’informatique personnelle, Apple se présente aujourd’hui comme ayant simplement « révolutionné » une industrie pré-existante avec le Macintosh de 1984, produit novateur, mais qui annonça une longue liste d’échecs commerciaux et mit, comme on le sait, Steve Jobs à la porte. Cette humilité peu typique est peut-être d’ordre politique, Jobs voulant faire oublier le librisme de Wozniak. Ou, soucieux de préserver son image de rebelle, Apple voudrait-il éviter passer pour un establishment de la tech ?
- En bref : la première machine commerciale qui ressemble vraiment à un ordinateur personnel tel qu’on se l’imagine. Retombées notables sur la direction de l’industrie.

1981 : IBM PC, l’empire contre-attaque
IBM, c’est une entreprise née de temps immémoriaux, presque déifiée, devenue une des multinationales les plus puissantes du monde. Elle a presque tout inventé en informatique, du disque dur à la RAM, et garde jalousement sa propriété intellectuelle dans des systèmes ultra-verrouillés. Son mantra est « THINK », son code vestimentaire bleu-gris est aussi strict que son culte du secret et ses employés composent des chansons à sa gloire (sic). Vous l’aurez compris : c’est tout le contraire d’Apple.
Déjà bien en retard dans la course, IBM estime que sa propre culture austère le ralentirait de plusieurs années dans la conception d’un ordinateur personnel. L’empire bleu pense d’abord racheter Atari, puis confie plutôt les préparatifs à un groupe d’ingénieurs maison, les Dirty Dozen. Un mois plus tard, ceux-ci reviennent avec un business plan marqué par l’influence open de la pomme : architecture ouverte et composants non propriétaires, réparables par n’importe quel vendeur d’électronique (quelle horreur !). Convaincus qu’il n’y a pas d’autre option, les décideurs de Big Blue donnent le feu vert au « projet Chess », qui accouche de l’IBM PC en douze mois, un record pour la firme.

Avec 16 à 256 ko de mémoire vive, un processeur Intel 8088 cadencé à 4,77 MHz et un langage BASIC acheté à Microsoft — c’est ça, être open — l’IBM PC est, en configuration de base est lancé à 1 565 dollars (3 540 euros), un prix délibérément calibré pour concurrencer Apple et les autres. 100 000 unités se vendent dans l’année suivant le lancement, et le succès du vénérable Big Blue balaye le marché. Très vite apparaissent des clones d’IBM, les « PC-compatibles » créés par ingéniérie inverse et profitant des mêmes logiciels grâce à l’ouverture du système.
Les guerres du PC sont déclarées. Commodore, Texas Instruments et Atari se lancent dans une guerre des prix partiellement responsable du crash des jeux vidéo de 1983. IBM est grignoté par les clones que son ouverture a encouragés. Apple traverse des crises politiques avec le Macintosh et se barricade en système fermé. Et Microsoft, enfin, s’érige en nouvel empire de la tech sur les ruines laissées par Big Blue. Bienvenue à bord.
- En bref : le PC originel, qui servit de base à tous les PC d’aujourd’hui.
Commentaires
Mais qui a inventé l’ordinateur personnel ? Du HP 9100A à l’IBM PC, voyage à l’aube de la tech moderne
Jolie rétrospective, qui nous permet de sourire à l’évocation d’un Apple « plus ouvert » que la concurrence
Merci pour ce dossier, juste une petite « correction » dans votre conclusion « la guerre des PC est déclaré ». Atari ne faisait pas encore du PC mais dans la console de jeu. Et si je ne dis pas de bêtise, le dit crash n’est pas seulement du à une guerre des prix (du hardware) mais surtout à une inondation du marché par des jeux toujours plus pourris et bâclés à des prix qui n’étaient pas eux, forcément, très bon marché.Phénomène qui inspirera Nintendo et son « Seal of Quality » quelques années plus tard.
Scicopatos:
C’est les « PC » Atari et Commodore étaient considérés comme des consoles, alors que tout était possible sur ces machines. L’Amiga reste pour moi la machine de référence mythique !
Je reste aussi un immense fan de l’Amiga (le seul, l’unique, le 500 bien sur), mais en l’occurrence, dans la chronologie évoquée, en 1983, Atari ne faisait encore que de la console (comme la 2600), le 520 ST ne sortira que plus tard, en 1985, après le fameux « crash du jeu video » Par contre, effectivement, le Commodore 64 est sorti juste avant le crash, en 1982.
Scicopatos:
Ahhhh la nostalgie joue à fond aussi avec cette machine mythique.Tes meilleurs souvenirs de jeu c’est quoi (ton top 10) ?
Alalala dur dur de répondre, mais je vais tenter le coup, surement dans le désordre
Flashback (le jeu qui m’a rendu dingue des jeux video)
Dune (l’autre jeu qui m’a rendu dingue….)
Syndicate (l’autre….ok j’arrête ^^)
Another World
Rick Dangerous
Genesia (qui « ressort » sur PC !!!! en accès anticipé sur Steam, un peu cher pour l’instant)
Shadow of the Beast
Speedball 2 Brutal Deluxe
Lemmings
Defender of the Crown
Cannon Fodder
Great courts 2
Prince of Persia
Panza kick boxing
Bon je m’arrête la mais j’en oublie surement un tas !
Très difficile de les départager, en effet.Pour ma part:- Shadow of the Beast- It Came frome the Desert- Flashback- Another World- Fire Power- Xenon 2- Rick Dangerous- Stunt Car Racer- Explora – FA 18 Interceptor- Robot Cop (fallait buter des punks, le flingue faisait un bruit magnifique)- Eye of the Beholder
Par contre, j’ai rejoué à certains de ces jeux il y a quelques années avec l’émulateur Amiga UAE, et j’ai été assez déçu, même si l’effet nostalgique joue à fond :).
Eye of the Beholder ! Je l’avais oublié celui-là. J’ai fait la même chose que toi, grosse erreur. Un rick dangerous a trèèèèès mal vieilli, Flashback j’en parle même pas, cette inertie…
Et les jeux étaient finalement très courts: rarement plus de 3 heures.Seuls leur difficulté et les nombreux dialogues permettaient de prolonger la vie d’un jeu. C’était aussi le bon côté de ces jeux: il fallait être précis pour passer certains niveaux, accepter de mourir 1000 fois. Et puis les jeux à dialogues, j’adorais, ça me faisait penser au livres dont vous êtes le héro.
Précis un peu maso aussi pour finir un Prince of Persia, un Flashback, ou pire, un Another World
Je les ai tous fini ceux-là ^^
Je vois qu’on est entre gens de bon goût
Bues brothers (fini), rick dangerous 2 (jamais fini, déjà cité par @Romain), C&C (le 1er et son pack de missions supplémentaires), The Lost Vickings, Dune 2, les Warcraft, Pinfball dream (de Dolphin il me semble, il y en avait eu 2 je crois), Xénon 2 (également cité par @anon28043557)C’était une belle époque, où tu priais pour que ta carte son, achetée au prix de son poids en or, soit compatible avec le jeu Et que je me suis fait engueulé par mes parents à jouer au lieu de dormir, de profiter du soleil, etc.Par contre j’ai raté Eye of the beholder J’ai pu récupérer The Lost Vickings et tous les C&C, mis gratuitement à dispo par leurs studios
Je me suis senti jeune 5′, merci !! (Et maintenant je comprend mieux les tweets sur le TRS80 …)
Mais au fait : Qui a inventé l’ordinateur personnel ?
Le TSR 80, le premier ordinateur qui m’a fait découvrir le « développement » informatique vers 12 ans. Mais c’était une machine de récup, les PC d’IBM étaient j’imagine bien trop chers
numerama:
Trois énormités en une phrase, il fallait le faire quand-même. Je te suggère, Victoria, de revoir la copie.
Voilà ce que Stallman pense du mouvement open source :
https://www.gnu.org/philosophy/open-source-misses-the-point.fr.html
Voilà ce que Stallman pense de la gratuité :
https://www.gnu.org/philosophy/selling.fr.html
Voilà ce que Stallman pense de l’appellation « propriété intellectuelle » :
https://www.gnu.org/philosophy/not-ipr.fr.html
Sinon, vous pouvez aussi dire que Jésus a posé les bases de l’Islam, ça apaisera l’ambiance aussi bien.
Je chipote : 8500Fr, moins de 1300€.
C’est amusant de voir une pub Apple « how to buy a computer » quand tu vois leur pub digne d’un troll ignare « c’est quoi un ordinateur ? »
Excellente rétrospective, excellente idée toutes ces petites anecdotes
Bon, maintenant que je me suis lâché sur ce que je considère comme l’essentiel, au tour du reste de l’article.
numerama:
Non, jusqu’à 64 Ko.
fr.wikipedia.org
Altair 8800
L’Altair 8800 du constructeur américain MITS (en) est un micro-ordinateur basé sur le microprocesseur Intel 8080 et vendu en kit électronique à quelques milliers d’exemplaires pour les particuliers en 1975. Il est considéré comme l’un des premiers micro-ordinateurs vendus aux particuliers. Les premiers micro-ordinateurs ont été commercialisés deux ans plus tôt : le Micral de la société française R2E et le MCM/70 de l’entreprise canadienne Micro Computer Machines[note 1]. Il aura bientôt pour conc…
numerama:
Pfff… c’est le magicien Woz. Ou « The Wonderful Wizard of Woz« . Il a mérité ce surnom car il était capable de faire beaucoup avec peu de circuits.
en.wikipedia.org
Steve Wozniak
Stephen Gary Wozniak (/ˈwɒzniæk/; born on August 11, 1950),:18 also nicknamed « The Woz », is an American inventor, electronics engineer, programmer, philanthropist, and technology entrepreneur who co-founded Apple Inc. He is known as a pioneer of the personal computer revolution of the 1970s and 1980s, along with Apple co-founder Steve Jobs. Wozniak single-handedly developed the 1976 Apple I, which was the computer that launched Apple. He primarily designed the 1977 Apple II, known as one of the f…
numerama:
Dans les années 70 ? « En open source » ne veut pas dire grand-chose. Rappelons également que le mouvement dit « open source » est né en 1998 et personne, je dis bien PERSONNE n’utilisait cette appelation avant cette année.
fr.wikipedia.org
Open source
La désignation open source, ou « code source ouvert », s’applique aux logiciels (et s’étend maintenant aux œuvres de l’esprit) dont la licence respecte des critères précisément établis par l’Open Source Initiative, c’est-à-dire les possibilités de libre redistribution, d’accès au code source et de création de travaux dérivés. Mis à la disposition du grand public, ce code source est généralement le résultat d’une collaboration entre programmeurs. Le mouvement open source s’est constitué en 1998 so…
numerama:
Et vous mettez ça en gras ?!
Le Lisa est sorti en 1983 AVEC une interface graphique.
en.wikipedia.org
Apple Lisa
The Apple Lisa is a desktop computer developed by Apple, released on January 19, 1983. It was one of the first personal computers to offer a graphical user interface (GUI) in a machine aimed at individual business users. Development of the Lisa began in 1978, and it underwent many changes during the development period before shipping at the very high price of US$9,995 with a 5 MB hard drive. The high price, relatively low performance and unreliable « Twiggy » floppy disks led to poor sales, with In…
L’Atari ST est sorti en juin 1985 AVEC une interface graphique.
en.wikipedia.org
Atari ST
The Atari ST is a line of home computers from Atari Corporation and the successor to the Atari 8-bit family. The initial ST model, the 520ST, saw limited release in April-June 1985 and was widely available in July. The Atari ST is the first personal computer to come with a bitmapped color GUI, using a version of Digital Research’s GEM released in February 1985. The 1040ST, released in 1986, is the first personal computer to ship with a megabyte of RAM in the base configuration and als The Atari S…
L’Amiga est sorti en juillet 1985 AVEC une interface graphique.
en.wikipedia.org
Amiga
The Amiga is a family of personal computers sold by Commodore starting in 1985. The original model was part of a wave of 16 and 32 bit computers that featured 256KB or more of RAM, mouse-based GUIs, and significantly improved graphics and audio over 8-bit systems. This wave included the Atari ST—released the same year—Apple’s Macintosh, and later the Apple IIGS. Based on the Motorola 68000 microprocessor, the Amiga differed from its contemporaries through the inclusion of custom hardware to accel…
L’IBM PC est sorti en 1981 SANS interface graphique (c’était DOS). Il faudra attendre Windows 1.0 en novembre 1985.
en.wikipedia.org
Microsoft Windows
Microsoft Windows is a group of several graphical operating system families, all of which are developed, marketed, and sold by Microsoft. Each family caters to a certain sector of the computing industry. Active Windows families include Windows NT and Windows Embedded; these may encompass subfamilies, e.g. Windows Embedded Compact (Windows CE) or Windows Server. Defunct Windows families include Windows 9x, Windows Mobile and Windows Phone. Microsoft introduced an operating environment named Window…
Du coup, on ne sait pas qui a inventé quoi.Si c’était pour faire un historique des premiers ordinateurs personnels, il aurait fallu rester à ce moment là cantonné au marché français. Je ne suis pas persuadé qu’un seul français ait eu en France un Apple I.En France les débuts de la micro personnelle correspondent au début des années 80, et on trouvait dans les magasins adéquats, des Apple II E (monochrome), des TI 99, des Amstrad CPC, des Oric, des TO-7, des ZX, des Commodore VIC-20 puis 64.Point de TRS-80 ou d’IBM, à part Apple, tous les ordinateurs personnels utilisaient une télévision comme moniteur.@Scicopatos, @anon75590001 : On parle des débuts des ordinateurs personnels, Amiga, c’est déjà 86/87 avec des 68000, on n’est plus dans les ordinateurs 8 bits. Et on ne va pas parler de Lisa, qui est du domaine de l’anecdote étant donné le nombre d’unités vendues.
Centaurien1:
1985. Je me suis cassé le cul à donner des sources. T’as autre chose à ajouter ?
Centaurien1:
Le rapport avec le schmilblick ?
Centaurien1:
100 000 exemplaires écoulés. L’article évoque des machines qui se sont vendues 100 fois moins !
Mais encore une fois, le rapport avec le schmilblick ?
Wikipedia:
Comme le PC quoi (sauf que comme je l’ai dit, ce dernier n’avait pas d’interface graphique avant fin 1985, après les autres que j’ai évoqué et contrairement à ce que prétend l’article en gras).
En bref, l’article raconte des salades et je rectifie le tir avec des sources détaillées pour chacune de mes affirmations (parce que dire « j’étais là, je l’ai vu« , ça ne suffit pas). Point final.
Maintenant si la communauté de nunu préfère bouffer vegan, ça la regarde…
Mais c’est quoi le problème du coup ? Parce qu’on écrit sur un ordinateur sorti en 1981 et tu nous fais une liste de plein d’ordinateurs sortis après en disant « regardez, ceux-là sont sortis avant avec une interface graphique ».
Lis jusqu’au bout…
Radamanthe:
Oui, l’IBM PC est sorti en août 1981, mais sous PC DOS qui n’a strictement rien d’une interface graphique. La cible était le monde de l’entreprise, car leur parc logiciel de l’époque tournait essentiellement sous CP/M (dont PC DOS est un clone quasi identique). Sans aller jusqu’à dire qu’aucun particulier ne possédait de PC à la maison, ils étaient très marginaux. Et les entreprises considéraient alors les interfaces graphiques comme des gadgets bien inutiles pour les tâches qui leur incombaient.
La première fois qu’on a vu une interface graphique sur PC, c’était en novembre 1985 (note bien cette date) avec Windows 1.0, soit plus de 4 ans plus tard.
Les machines que j’ai citées sont sorties avant et avec une interface graphique (et encore j’ai omis l’Apple II sorti en avril 1977, qui disposa d’une véritable interface graphique en 1992, 3 ans avant le PC d’IBM… te connaissant, ça devrait quand-même te plaire comme information, non ?).
Voilà. Je t’ai donc cité pas moins de 4 micro-ordinateurs grand public qui disposaient d’une interface graphique avant le PC d’IBM, ce qui invalide 4 fois ce qui est écrit en gras dans l’article : « L’IBM PC […] premier ordinateur grand public à disposer d’une véritable interface graphique« . Que te faut-il de plus ?
Je remercie quand-même Victoria d’avoir daigné corriger une partie des erreurs que j’ai évoqué (c’est assez rare pour le signaler).
Pour le reste, je mets de l’eau dans mon vin, mais je précise :
L’esprit du logiciel libre, c’est la liberté, pas la gratuité (comme l’a longtemps matraqué RMS : « free as in freedom », c’est déjà assez pénible pour les libristes, encore aujourd’hui, de communiquer sur ce « point de détail »… c’est surtout surprenant car en France, on ne devrait pas avoir de problème de confusion du mot « free » qui signifie à la fois gratuit et libre, et je te dis pas comment Stallman en a chié outre-atlantique pour s’en sortir avec ce bazar). La liberté dans le sens ou personne ne peut s’approprier le travail des libristes pour son propre profit personnel (ce qui n’exclue EN RIEN le fait de vendre du logiciel libre). Je te laisse réfléchir à la fameuse question : en quoi la simple notion de gratuité du mouvement « open source » est-il alors un problème ? (indice : la différence entre anarchie et liberté).En fait, c’est une question éthique (sur les 4 libertés du logiciel libre) et elle est aujourd’hui garantie par les licences dites « copyleft » (subtilement francisé « gauche d’auteur », t’as remarqué mon avatar ?) dont la GNU GPL est le fer de lance. Cet esprit-là habitait déjà la pensée des libristes de l’époque, dont Stallman qui a consacré sa vie à tenter de remettre les cerveaux à l’endroit. La question de savoir s’il a réussi reste sérieusement discutable (surtout au rythme où vont les choses) et le mouvement « open source », aussi louable soit-il, a hélas beaucoup contribué à fausser ce message de fond bien plus éthique qu’économique.
La « propriété intellectuelle » est un terme générique trompeur (car il englobe 3 choses très différentes : le copyright, les brevets et les marques déposées). Là aussi, je ne m’y attarderai pas, j’ai mis un lien sur l’article de Stallman (traduit en français par les libristes) expliquant pourquoi ça pose un réel problème dans le débat de fond.
Il est dommage d’omettre le fait que Steve Wozniak est surnommé « le magicien Woz » (et non pas seulement « the wizard ») en référence à un fleuron de la culture populaire : Le Magicien d’Oz. Ça ne mange pas de pain, mais c’est le genre de détail qui ne vous coûte que quelques caractères à rajouter.
En dehors de cela, oui :
dev_tty:
Je plussoie. Et du moment que ça touchera à un domaine qui me tient à coeur et que je daigne encore traîner mes guêtres dans le coin, je n’hésiterai pas à tenter de corriger la désinformation (volontaire ou non, j’ose croire que c’était involontaire, je suis peut-être souvent vindicatif, mais pas stupide) du mieux que je peux.
Radamanthe:
Ben lit les alors : The Amiga 1000 was officially released in July 1985, but a series of production problems kept it from becoming widely available until early 1986.
Radamanthe:
Ben on ne parle pas des ordinateurs quantiques mais des premiers ordinateurs personnels.
Radamanthe:
Avant. A l’époque du début de la micro, avec des ordinateurs sans clavier.Là, l’article parle d’ordinateur grand public, un ordinateur vendu 70000 francs, c’est pas grand public, pour ce prix là tu pouvais te payer un petit appartement ou 2 voitures.
Radamanthe:
Nawak mon gars, c’est pas parce qu’il n’y pas Windows qu’il n’y a pas de GUI. Même en DOS, on faisait des programmes avec interface graphique, fenêtre pop-up, menu déroulants et même avec la souris. Tu crois qu’il n’y avait pas d’informatique avant Windows ?
Centaurien1:
Waaaa, mais t’es super fortiche dis donc. Grand public == largement disponible. Avec ça, tu fais quoi des 3 autres (et 4 avec l’Apple II)… ah mais oui, c’est vrai, ça compte pas, c’est juste de la dobe pour faire joujou ou de la zizik…
Centaurien1:
T’as le culot de comparer ça en mode texte avec ce que faisait l’Apple II 4 ans plus tôt ?
J’en sais quelque-chose, j’ai eu plus tard ma propre bibliothèque pour le faire sous DOS (ncurses n’existait pas) et ça m’a permis de développer mon propre lecteur/composeur de mail/newsgroups que j’ai utilisé pendant 2 ans. Mais j’étais pas assez con pour appeller ça une interface graphique. Bordel, on parlait même pas de résolution sur PC… cette machine est restée une bouse graphique pendant des plombes et tous les grapheux/gamers se foutaient de sa gueule à cause de ça.
Je te rappelle en plus qu’avant que Victoria rectifie le tir, la phrase parlait de « première véritable interface graphique« . Me demande d’ailleurs quel boîte avait besoin de ce genre de bidouille, vu que la quasi totalité utilisait des soft développés à la base sur CP/M. Mais tu vas sûrement nous trouver du marginal, vas-y mon grand, on t’écoute. On va probablement se coltiner du Norton ou quelque-chose dans le style…
Centaurien1:
J’en sais quelque-chose, je faisais du Z80 à la maison alors que Billou se dépatouillait encore à vendre son BASIC. Sinon, t’as une leçon sur l’histoire de la micro à me donner ? Exprime-toi avec des liens et tout le tintouin ! J’ai fais une part du taff, achève, j’t’en conjure… c’est toujours bon les souvenirs.
Radamanthe:
Non, grand public = accessible aux gens, et pas à 4 milliardaires qui pensent que payer un téléphone 30000 euros, c’est normal.
Radamanthe:
Quels trois autres? Ton Amiga et ton Atari de la fin des années 80 ?
Radamanthe:
Je comprends pas, Apple II, c’était plus du mode 3270 monochrome qu’autre chose. Le seul avantage de l’Apple II, c’était le lecteur de disquette. Sinon, il était à la ramasse quand il est arrivé en Europe.
Radamanthe:
Graphical User Interface, c’est pas le nom d’un système d’exploitation qui devrait se cantonner à être ce qu’il est. Si tu as une interface graphique pour communiquer avec l’utilisateur, c’est du GUI. Si tu prends Unix ou Linux, tu vois bien que le système et l’interface sont 2 choses séparées. Donc si t’es trop con pour ne pas l’appeler comme ça, c’est ton problème pas le mien.
Radamanthe:
Qu’est-ce que ça peut foutre ? On parle de GUI pas de 4K. Une GUI ça peut se réaliser avec peu de résolution, moi j’en avais fait sur Spectrum en 256×192 et c’était lisible malgré ces putains de pavés 8×8 en 2 couleurs. Le problème c’était plus le stockage des données que la résolution.
Radamanthe:
Non la première, c’est Alto de 73 et c’est déjà cité.
Radamanthe:
Ben la leçon c’est que si tu ne prends pas les trucs dans l’ordre, effectivement, ça peut amener à comparer des Tesla S avec le Fardier de Cugnot et de t’entendre t’épancher sur le mode autonome autopilote du Fardier (même si un âne dispose du mode autonome depuis des siècles).
Centaurien1:
1985.
J’apprécie ta rigueur mathématique.
Centaurien1:
Le mec, il me cause comme si je venais de débarquer… Allez je t’aide :
Quelques élus ont quand-même vu l’interface graphique GEM sur les PC Amstrad en 1984 (pas IBM donc, voir plus bas, rigueur tout ça…) et à condition d’avoir la carte qui va bien.
Dommage, Apple s’entrainaît déjà à ses futures activités Ô combien bénéfiques pour l’humanité et fit dégager le bouzin graphique illico presto à coup de procès dans le cul. Hop là (c’est évoqué dans le lien).
Centaurien1:
Dans ce cas tu ne parles pas de GUI, mais de TUI. Autrement dit, d’interface en mode texte. Oui, on pouvait utiliser une souris, oui on pouvait réaliser des éléments inspirés de l’interface graphique (boutons, menus, fenêtres, encore que généralement c’était plutôt des fenêtres modales, etc.), mais ce n’était pas une interface graphique.
Et on fait encore ça aujourd’hui, et on appelle toujours ça TUI.
Centaurien1:
La phrase originale telle qu’elle a été écrite initialement (et telle que je l’ai citée initialement) :
C’était en gras dans le texte et c’est pas moi qui l’invente. Je vois que ta rigueur linguistique est toute aussi défaillante.
Radamanthe:
87
Radamanthe:
Ah ben c’est bien j’ignorais qu’on avait défini un nouveau nom afin différencier les GUI d’avant des GUI d’après.Donc oui, mes GUI sont bien un TUI, puisque tu veux les définir ainsi.
Je t’invite à contribuer sur Wikipedia. Bonne chance…
Je ne vois pas le rapport avec la choucroute.TUI comme c’est spécifié est un rétronyme, c’est à dire que GUI est devenu TUI parce que M X a décidé qu’il fallait différencier les nouvelles GUI des anciennes GUI de façon arbitraire.C’est aussi con que de dire qu’une De Dion-Bouton n’est pas une automobile parce qu’il fallait la démarrer à la manivelle et qu’il faut dire oldmobile pour ces trucs là.Après si il te plait d’utiliser le nouveau terme, ça ne signifie pas que l’ancien est faux. Il est historiquement exacte qu’à l’époque dont on parle, les TUI se disaient GUI. Dire que les GUI n’existaient pas fait montre de mauvaise foi.
Dois-je le répéter ? Contribue à Wikipedia, apportes-y tes sources avec dates et compagnie et garde ta mauvaise foi pour les malhonnêtes.
Je m’en fous de Wikipédia, c’est déjà marqué dedans « Text-based user interface (TUI), also called textual user interface or terminal user interface,[clarification needed] is a retronym coined sometime after the invention of graphical user interfaces. »
C’est toi qu’il faut rebooter, si tu comprends pas que les deux termes parlent de la même chose temporellement parlant.
T’es sur un article de 2018, t’as vu ? T’as rien invalidé de ce que j’ai dit, tu balances des dates loufoques et t’apportes aucune source. Y’a rien à défendre, c’est bon, je trace.
Radamanthe:
Ben si mais puisque tu ne lis pas, ça ne modifie pas ta boucle.
Radamanthe:
C’est pas en prenant des articles Wikipédia américains et sans les lire que tu auras les bonnes dates, l’Amiga 1000 est sorti sporadiquement en 86 en France donc je m’en fous de l’annonce faite par le PDG de Commodore sur un produit non abouti. Je ne vais pas te dire qu’il est sorti en 85 puisque même aux US il a commencé à être distribué que en fin d’année. http://obligement.free.fr/articles/amiga1000_positionnement.phpPour l’Atari ST, c’est pareil, il a été présenté au CES 85, mais le groupe lance officiellement l’Atari 520 ST en juin 1985 au prix de 799 $ et quelques mois plus tard en Europe avec un moniteur.L’IBM PC c’est août 81 avec des premières ventes en France début 82.Quoi qu’il en soit on ne compare par un système de 81 avec un système de 85, on est passé d’ordinateurs 8 bits 16ko à 2MHz à cassette à des ordinateurs 16 bits 512ko à 7 Mhz à disquette.
Centaurien1:
Ben non. Tournons en rond, et ron et ron petit patapon…
Centaurien1:
Sans GUI. Guili guili guili…
Centaurien1:
J’compare pas des systèmes, mais des interfaces. C’était le propos initial, tu déformes, typique du mec qui sait plus quoi farfouiller pour s’en sortir. Mais t’as posté un lien, tu progresses…
Le plus marrant, c’est que je suis plus fort que toi pour me descendre moi-même : hop-là, le gars de mauvaise foi super malhonnête que je suis, mais néanmoins rigoureux et qui creuse encore, vient de corriger l’info selon laquelle l’Apple II disposait d’une interface graphique à sa sortie en 1977 (c’est en fait en 1982 qu’elle est apparue, avec souris et tout le tintouin), 3 ans avant celle de Windows (et non pas 8). Ça n’invalide en rien à l’argumentaire initial (que tu cherches à déformer de manière tout à fait honnête bien-sûr), mais bon voilà, c’est fait, ma mauvaise foi de mec qui cherche à tromper l’auditoire est décidément sans limites…
Et hop, on continue avec, tenez-vous bien, Visi On sur IBM PC en décembre 1983. Roooh ben dites donc. Dommage que les entreprises s’en foutaient des bouzins graphiques et que de toute façon ça coutait un bras et que du coup, le fameux grand public de l’article repassera (et puis la cible de l’IBM PC, encore une fois, c’était les entreprises et ça l’est resté pendant des années, pas vraiment ce qu’on appelle du grand public, m’voyez)…
Pas la peine d’évoquer VisiCalc, la killer app de Dan Bricklin (un business man super doué comme je les admire, ‘spa) pour… l’Apple II initialement en 1979, puisqu’il s’agit de TUI, et encore, pas de fenêtres ni de souris quand-même, faut pas pousser. Et puis l’article l’évoque il me semble, bien avant le reste.
Remarque c’est pas mal, toi et moi on va bien compléter l’article ! C’est juste dommage que tu passes pour un branleur de mouches là, car tu casses que dalle niveau « premier ordinateur grand public à disposer d’une véritable interface graphique« . Accélère le rythme pour voir, elle va bien finir par lâcher une caisse 😉
Bon, c’était quoi déjà la question fondamentale ? Qui a inventé l’ordinateur personnel ? Ouais, c’est ça. Ben un peu tout le monde en fait. Mais bon sang, c’était bien rock’n roll !
Excellent article, qui va attendrir les vieux et cultiver les djeuns. Encore !