L’ordinateur : quelques grandes figures du XXe siècle

- temps de lecture approximatif de 13 minutes 13 min - Modifié le 30/09/2022 par Admin linflux

Le décès récent de Steve Jobs, cofondateur et patron visionnaire d'Apple, est l'occasion de revenir sur les grandes figures qui ont marqué l'histoire de l'informatique : des pionniers, avec les mathématiciens John Von Neumann et Alan Turing, aux génies de la Silicon Valley Steve Wozniak, Steve Jobs et Bill Gates en passant par les "révolutionnaires" Linus Torvalds et Richard Stallman.

© Pixabay
© Pixabay
« Steve Jobs 1955-2011 » C’est par ce simple message qu’Apple a annoncé au monde le décès d’un de ses cofondateurs il y a quelques semaines. Une sobriété très calculée qui frappe tout de suite et va à l’essentiel, c’est la façon de présenter les choses de la marque à la pomme depuis plusieurs décennies. Steve Jobs a sans conteste marqué l’histoire de l’informatique et de l’industrie de son temps. Nombreux sont ceux à avoir vu en lui un génie de ces domaines ; d’autres, plus mesurés, ont préféré dire que son génie n’a pas été de concevoir les ordinateurs mais bien de les vendre. L’actualité de son décès est l’occasion de revenir sur quelques aspects du personnage mais également d’autres grandes personnalités de l’informatique au XXe siècle, concurrents ou partenaires comme Steve Wozniak, Bill Gates, Richard Stallman, Linus Torvalds et les précurseurs Alan Turing, John Von Neumann ou François Gernelle.
JPEG - 21.8 ko
Steve Jobs
JC Lattès

Commençons par le livre qui fait office de référence au lendemain du passage de Steve Jobs, la compilation d’entretiens menés sur plus de deux ans à plus d’une centaine de personnalités : Steve Jobs, par Walter Isaacson, éd. JC Lattès. C’est Jobs lui-même qui est à l’origine de ce livre, en poussant ses proches à s’exprimer librement, et il ne fait aucun doute qu’il avait là en tête, en toute connaissance de son cancer, l’établissement d’un document définitif sur sa propre légende. C’est donc une biographie détaillée et maîtrisée, de son enfance jusqu’aux derniers succès de l’iPad et des perspectives de développement, en passant par ses déboires, sa démission d’Apple ou son aventure dans le cinéma d’animation avec la fondation du studio Pixar. Steve Jobs a collaboré au livre mais n’a demandé aucun droit de regard. Un parcours exemplaire et marqué par l’obsession du contrôle, sans doute à l’image du personnage.

GIF - 16.6 ko
Les secrets d’innovation
Pearson

Les secrets d’innovation de Steve Jobs, 7 principes pour penser différemment et Les secrets de présentation de Steve Jobs : la méthode unique du créateur d’Apple pour captiver tous les publics, de Carmine Gallo. Think Different a longtemps été le slogan d’Apple : penser différemment pour penser mieux et proposer de meilleurs produits. Meilleurs ou non, les produits d’Apple ont en tout cas toujours bénéficié d’un marketing talentueux et d’un souci de l’expérience de l’utilisateur. Les qualités d’orateur de Jobs et ses dons de metteur en scène de ses produits et de sa propre personne ont régulièrement été loués. Deux exemples ci-dessous : une intervention récente et désormais célèbre de Jobs à l’université de Stanford où il donne son conseil de réussite, Stay hungry, stay foolish, et la présentation triomphale du premier Apple Macintosh en 1984 (preuve que le nœud papillon vert n’empêche pas la standing ovation).

 

 

JPEG - 4.5 ko
Apple I Computer
(1976) Cliquez !

Steve Jobs fonde Apple en 1976 à l’âge de 21 ans, avec Steve Wozniak et Ron Wayne dans le garage des parents Jobs. Ron Wayne revendit ses parts au bout de douze jours mais Steve Wozniak, « l’autre Steve », compagnon du Homebrew Computer Club qui travaillait alors chez Hewlett-Packard, sera le véritable concepteur des ordinateurs Apple, tant au niveau matériel que logiciel. Devenu millionnaire en 1980 après l’entrée en bourse d’Apple, Steve Wozniak ) s’est marié, a repris les études et quitte Apple en 1985 pour se consacrer à des actions caritatives.

BMP - 106 ko
iWoz
L’école des loisirs

iWoz, autobiographie de Steve Wozniak, à l’Ecole des Loisirs. L’obsession de Steve Wozniak semble avoir été, depuis très jeune, de transformer les énormes ordinateurs des centres de recherche en objets que chacun pourrait posséder et manipuler chez soi. Le livre se présente davantage comme une succession d’anecdotes présentant le parcours de Steve Wozniak que comme un récit continu. En ce qui concerne Apple, la répartition des rôles est claire : Wozniak est l’ingénieur et Jobs le businessman.

Le duo Jobs/Wozniak pour Apple a eu comme interlocuteur et concurrent historique celui constitué par Bill Gates et Paul Allen, cofondateurs de Microsoft. Ces débuts de la microinformatique individuelle sont rapportés, de façon romancée, dans le téléfilm Les pirates de la Silicon Valley (1999) de Martyn Burke.

Face à Jobs, Bill Gates, le « Mozart de l’informatique », apparaît effectivement comme l’autre géant de l’informatique personnelle à la fin du XXe siècle. Aujourd’hui un des hommes les plus riches du monde, il a été présent dans tous les domaines du développement de l’informatique : télévision, banque, satellites… Dans La grande aventure de Microsoft, (éd. Marabout) Daniel Ichbiah retrace un pan de l’histoire de l’informatique à travers le portrait de Bill Gates. Comme Jobs, il abandonne les études à 20 ans et fonde son entreprise, Microcomputer Software, en 1975 qui éditera MS-DOS et Windows, dont le quasi monopole mondiale fera de lui un milliardaire. Véritable technicien plus que businessman, c’est le partenariat avec IBM qui fera le succès de Microsoft. Bill Gates a abandonné toute activité en lien avec Microsoft en 2008. Longtemps homme le plus riche du monde, Bill Gates est également l’homme le plus spammé du monde, avec plus de 4 millions d’e-mail quotidiens… Via la fondation Bill & Melinda Gates, il est aujourd’hui l’un des plus grands donateurs contre la pauvreté dans le monde.

JPEG - 6.1 ko
La route du futur
Robert Laffont

En 1995, Bill Gates écrivait La route du futur, livre dans lequel il expose sa théorie de la révolution informatique engagée dans les années 80. A ses yeux, la révolution informatique est la première révolution entièrement pacifique. Bill Gates se présente et présente le monde tel qu’il pourrait être. Aujourd’hui, seize ans plus tard, force est d’admettre que la plupart des idées présentées font partie de notre environnement quotidien. Quatre ans plus tard, en 1999, il récidive avec Le travail à la vitesse de la pensée et identifie le basculement global au tout-numérique : textes, images, son, vidéo, monnaie… Le tout-électronique s’accompagne, selon lui, du zero-papier et d’une vision peut-être un peu trop optimiste du développement humain, social et mondial par rapport à ce que l’histoire nous a apporté depuis.

Bien évidemment, tous les grands acteurs du développement informatique de la fin du XXe siècle ne sont pas devenus des businessmen multimillionnaires. Une autre informatique existe, en dehors des grandes entreprises, dite « Libre » ou encore « Open Source ». Les personnalités moteurs de ces milieux ont fait autant, sinon plus, que les industriels déjà cités.

JPEG - 12.9 ko
Richard Stallman et la révolution du logiciel libre
Eyrolles

Richard Stallman et la révolution du logiciel libre est une biographie de Sam Williams, traduite par Christophe Masutti, puis commentée et annotée par Richard Stallman avec l’humour pour lequel il est connu. Mathématicien, informaticien, récompensé par la fondation MacArthur du prestigieux « prix des génies » en 1990, il est le fondateur du mouvement à l’origine des logiciels libres et également à l’origine du projet GNU et de la licence GPL. L’objectif de cette licence est de garantir toujours les droits suivants à l’utilisateur : liberté d’exécuter le logiciel pour n’importe quel usage ; d’accéder aux codes sources pour adapter le logiciel à ses besoins ; de copier et de distribuer des copies ; de reverser à la communauté les modifications effectuées. Militant en campagne contre les brevets logiciels et les Digital Right Management (DRM) il est une figure majeure, aux allures de prophète post-hippie, de la diffusion et de la défense de l’informatique libre, alliant considérations éthiques et techniques. Cet engagement intellectuel qui influence ses pratiques techniques lui seront reprochées parfois, notamment par un autre courant de l’informatique non-marchande, le courant Open Source, qui se veut uniquement technique et donc capable de travailler avec des entreprises privées.

Ci-dessous une interview de Richard Stallman par Jonathan Le Lous, d’Intelli’N TV aux Rencontres mondiales du logiciel libre 2011, à Strasbourg :

JPEG - 6.5 ko
Il était une fois Linux
Eyrolles

Autre acteur majeur de l’informatique libre, le Finlandais Linus Torvalds, père du noyau Linux en 1991 et du système d’exploitation libre GNU/Linux. S’il en est le père et le fondateur, les caractéristiques libres et ouvertes de Linux en font le produit de milliers de contributeurs. A l’origine le développement était assuré par des contributeurs bénévoles mais depuis la large diffusion de ce modèle, des entreprises comme IBM ou Intel participent également à la modification, à l’amélioration et à l’enrichissement du noyau Linux. A l’opposé de Richard Stallman, Linus Torvalds est un homme discret ; plus que sa propre personne c’est le manchot Tux qui est devenu le symbole de Linux, au même titre que la pomme d’Apple ou la fenêtre quadricolore de Microsoft Windows. Le Finlandais raconte l’histoire du développement de Linux dans Il était une fois Linux, dans lequel il apparaît que, bien plus que la liberté du produit, c’est le travail communautaire vers une amélioration et une optimisation permanente du produit qui le motive ; ce travail communautaire est une conséquence de la liberté du produit, mais ce détail conduit à des divergences d’opinion avec d’autres acteurs du libre/Open Source. Le système Linux est aujourd’hui très largement utilisé, jusque dans les institutions les plus prestigieuses. Ainsi, deux astéroïdes ont été nommés Torvalds et Linux en hommage au travail de Linus ayant été utilisé par plusieurs programmes de détection et d’analyse d’astéroïdes.

JPEG - 4.8 ko
Tux

 

Toutes ces figures héroïques récentes des premiers âges du développement de l’informatique personnelle se placent dans la droite ligne d’innovations plus anciennes. En nous cantonnant toujours au XXe siècle, nous faisons le choix d’en citer trois parmi beaucoup d’autres.

JPEG - 11.5 ko
Alan Turing
Hachette

Au premier rang d’entre elles : Alan Turing. Une des légendes courant sur le logo de la pomme arc-en-ciel et croquée d’Apple renvoie directement au mathématicien anglais. L’un des plus grands esprits du XXe siècle se suicide en 1954 en croquant dans une pomme empoisonnée par lui au cyanure. La raison de ce désespoir ? Son homosexualité, alors un crime dans l’Angleterre d’après-guerre jusqu’à sa condamnation à la castration chimique en 1952. Après avoir été le surdoué de Cambridge, il conçoit l’idée d’un ordinateur et surtout de l’intelligence artificielle en 1936 et applique ses théories durant la Seconde Guerre mondiale en travaillant pour les services secrets britanniques. C’est lui, principalement, qui a permis de casser le code secret de la machine Enigma permettant aux nazis de crypter leurs messages. Le décryptage d’Enigma est sans conteste une des raisons majeures de la victoire finale des Alliés. La machine théorique de Turing était une « machine universelle » capable d’effectuer tous les calculs imaginables. Et cette machine, Turing l’envisageait mathématiquement, à l’aide des notions qui donneront les programmes et les calculs de programmes. Dans Alan Turing, l’homme qui a croqué la pomme, Laurent Lemire conte l’histoire stupéfiante d’un génie victime de la cruauté et de l’intolérance de son temps.

JPEG - 4 ko
Le dilemme du prisonnier
Cassini

Autre pionnier de l’informatique dont le travail a été utilisé et développé par les besoins de la guerre, John Von Neumann, l’auteur de la théorie des jeux. Enfant prodige né en 1903, hédoniste, mathématicien ayant travaillé au projet Manhattan de bombe atomique à Los Alamos, on a souvent prétendu qu’il avait servi de modèle à Stanley Kubrick pour son Docteur Folamour. C’est d’abord par le poker que sa pensée commence à prendre forme ; en s’amusant à étudier la structure mathématique de ce jeu, il constate que certains de ses théorèmes valaient aussi pour l’économie, la politique, les affaires étrangères et bien d’autres domaines. La théorie des jeux porte sur des conflits entre adversaires qui raisonnent selon une logique rigoureuse et sont toujours susceptibles de tricher. On pourrait en déduire qu’elle a plus trait à la psychologie qu’aux mathématiques : il n’en est rien. Si les joueurs sont parfaitement rationnels, la théorie des jeux permet une analyse précise de leurs rapports. Dans le domaine de l’informatique, Von Neumann a laissé son nom à l’architecture de calculateurs à programme stocké en mémoire, pour avoir été le premier à décrire un ordinateur de ce type, même s’il l’attribuait lui-même à Turing. Cette architecture est moins populaire aujourd’hui mais a été à la base de nombreux ordinateurs.
Le dilemme du prisonnier : Von Neumann, la théorie des jeux et la bombe, de William Poundstone, éd. Cassini.

JPEG - 6.3 ko
La saga du micro-ordinateur
Vuibert

Parmi les nombreux pères de l’informatique personnelle au XXe siècle, on citera encore le nom du Français François Gernelle. On a souvent dit que le micro-ordinateur avait été inventé par Apple et Commodore, mais Apple est fondée en 1976, et le premier micro-ordinateur date de 1972.Il est selon Henri Lilen, l’auteur de La saga du micro-ordinateur, le fruit du travail de François Gernelle, dans une petite société de la banlieue parisienne, R2E, créée par André Truong. Intel proposait des microcontrôleurs et des microprocesseurs miniaturisés depuis 1971. Ce premier micro-ordinateur baptisé Micral utilisait un des ces microprocesseurs et était destiné à l’INRA, a été conçu en cinq mois et commercialisé en avril 1973. A l’époque il n’existait aucun logiciel chez Intel, aucun moniteur d’exploitation, pas d’assembleur ; tout a dû être développé par R2E. Son processeur ne disposait que de 51 instructions, pas d’écran, pas de clavier. Ces éléments seront les premiers développements après commercialisation. En 1975, la société américaine MITS produira son premier micro-ordinateur, Altair, également sur processeur Intel, connu de Steve Jobs comme de Bill Gates et dont l’utilisation et le développement constitueront les premières failles menant à des conceptions très différents de l’ordinateur. En 1976, enfin, Steve Jobs et Steve Wozniak présenteront l’Apple I au monde.
Plus tard, en 1981, R2E commercialisera également le premier ordinateur portable, le Portal, d’un poids de 12,7 kg.

Dernier ouvrage de synthèse, ne se limitant pas comme nous l’avons fait au XXe siècle ; doté d’une riche iconographie : l’Ordinateur et nous, de Mark Frauenfelder, éd. Gründ. Des premiers bouliers aux smartphones, l’ouvrage présente l’histoire longue et animée de l’ordinateur et son impact dans la vie de tous les jours.

JPEG - 3.7 ko
L’ordinateur et nous
Gründ

Partager cet article