dimanche 11 mars 2018

La révolution de l'électronique moderne en 4 étapes

L'électronique moderne a révolutionné notre civilisation, et transformé notre quotidien dans des proportions qu'aucun livre de science fiction n'avait envisagé. Cela a été possible grâce à une science devenu centrale dans notre progrès technique et social, et qui a bénéficié en 25 ans d'une révolution que je découpe arbitrairementen 4 étapes:
  • 1947: La découverte du transistor
  • 1958: le premier circuit intégré
  • 1971: le premier microprocesseur
  • 1973: le premier micro-ordinateur
En une seule génération, l'électronique a ouvert des possibles technologiques jusqu'à là insoupçonnés. C'est avec le recul, le bon technologique le plus impressionnant en terme de rapidité dont a bénéficié l'humanité. L'électronique est une science relativement récente datant du 19ème. Mais pour ma part, l'électronique moderne commence en 1947, une date qui a provoqué une rupture technologique comparable et même supérieur à celle de la machine à vapeur.

Pour le plaisir, voici le déroulé de ces 4 étapes.

1947 : le transistor

Conçu dans les laboratoires Bells par les américains John Bardeen, William Shockley et Walter Brattain, cette invention est passée relativement inaperçue. Son impact technologique n'a pas été comprise immédiatement. Le prix Nobel ne leur fut attribué qu'en 1956. Le nom même de transistor (contraction de transfer-resistor) démontre une volonté de trouver un nom simple, mais relativement éloigné de sa fonction. L'importance de cette invention était de remplacer le "tube radio" (triode), élément essentiel de l'électronique naissante, mais diablement peu pratique. Le transistor a résolu tous les inconvénients du tube radio: il n'est pas fragile, il consomme peu d'énergie, il est minuscule et pas cher. Avant le transistor, un ordinateur (le nec plus ultra de l'électronique de l'époque) était un immense câblage de milliers de tube radio, consommant beaucoup d'énergie, et nécessitant une armée de petites mains pour remplacer constamment les lampes hors d'usage. Les enjeux du transistor étaient la miniaturisation, la fiabilité, et la réduction du coût de fabrication. A partir de ce moment, un grand nombre d'application pour le plus grand nombre étaient envisageables.
Pour simplifier, un transistor est un robinet. Il a deux fonctions:  fermer ou ouvrir un passage pour le courant (c'est une fonction Oui/Non d'un point de vue logique), mais aussi amplifier le courant, en se basant sur la deuxième fonction d'un robinet, cad la possibilité d'ouvrir plus ou moins grand le débit du courant.
Le transistor dans ce domaine n'a rien inventé, il a simplement permis d'améliorer ce principe aussi vieux que l'électronique dans des domaines innombrables que le tube ne pouvait satisfaire à cause de son coût, de son encombrement, et de sa fragilité.

1958: le circuit imprimé

Pour Texas Instrument, Jack Kilby inventa le principe du circuit intégré, c'est à dire l'intégration de circuits électroniques dans des blocs fermés.  Cette nouveauté apportait 3 avancées:
  • réduire les coûts d'un circuit électronique
  • simplifier sa conception en modularisant sa conception
  • sécuriser la fabrication en utilisant des blocs fermés contenant les composants d'une sous-logique.
Le principe était relativement simple, envisagé dès la création du transistor car ce dernier permettait la miniaturisation. Parmi les avantages de ce composant, le plus important est certainement la possibilité de simplifier la conception d'un montage électronique en permettant de décomposer un circuit électronique en sous-module. C'est cela qui a permis aux électroniciens de concevoir années après années, des montages de plus en plus sophistiqués, sans avoir à se soucier de la complexité de certaines fonctions prises en charge par des circuits intégrés. Cerise sur le gâteau, ce composant est souvent bon marché car produit à grande échelle.
La réussite du circuit imprimé, n'a pas été d'intégrer des montages complexes dans un bloc, mais d'intégrer des fonctions complexes réutilisables dans de nombreux montages. La réussite est aussi dans la standardisation de certaines fonctions, permettant ainsi de concevoir rapidement et bon marché. Le principe des circuits intégrés est une mise en œuvre de l'antique maxime reprise par Isaac Newton dans ces termes:
"Si j'ai vu plus loin, c'est en montant sur les épaules de géants".
C'est l'invention du transistor qui naturellement a poussé l'idée de ce principe. Jack Kilby, passionné par la miniaturisation, en a été l'initiateur.

1971: le microprocesseur

Le microprocesseur est la victoire d'une intuition. A l'origine, une jeune société, Intel, prend conscience que les circuits intégrés ont atteint certaines limites. Dans le cas de la conception d'un circuit intégré gérant par exemple une calculatrice (à l'époque, une application très populaire de l'électronique), il fallait dépenser beaucoup de temps pour concevoir une première version du composant, et presque autant quand il était nécessaire de modifier légèrement son fonctionnement. Pour une très jeune société désireuse de répondre aux besoins de ses clients, ils ont eu l'intuition qu'il serait profitable de concevoir un circuit intégré que l'on pourrait "reprogrammer" et ainsi permettre à un même circuit intégré de réaliser des fonctions complexes différentes. Grâce à ce principe, le client pouvait alors modifier son cahier des charges sans obliger Intel à concevoir un nouveau circuit intégré. C'est donc à l'occasion d'une commande pour un circuit intégré d'une calculatrice qu'Intel a réalisé ce pas de géant: concevoir un circuit intégré que l'on pouvait reprogrammer en usine pour lui attribuer différentes fonctions complexes, en fonction d'un micro-code. Le 4004 venait de naître.
Comme souvent lors de grandes découvertes, Intel n'a pas tout de suite eu conscience du potentiel gigantesque de ce principe. Le brevet de ce nouveau circuit intégré, le "4004", avait été vendu à la société ayant commandé ce circuit intégré, et Intel n'a pu récupérer in extremis son brevet qu'à l'occasion d'un revers de fortune de son client.
Le microprocesseur est le premier pas, le véritable basculement de l'électronique classique (dite analogique) vers l'univers de l'électronique numérique. Le principe de l'électronique numérique existait bien avant (rappelons nous Ada Loelace née en 1815 qui fut la pionnière dans ce domaine). Le microprocesseur a donné subitement les moyens à tous les électroniciens de créer aisément ce nouvel univers. Il restait pour cela, la 4ème et dernière révolution, apparu à peine quelques mois plus tard.

1973: le micro-ordinateur

Avant 1973, un ordinateur était gigantesque, et incroyablement coûteux. Les tentatives de réduire la taille et les coûts d'un tel système (par l'entreprise Digital par exemple), n'ont pas été de complètes réussites. Les mini-ordinateurs ainsi créés restait des objets d'environ 1m x 1m x 2m, demandant une armée de programmeurs et d'assistants pour les faire fonctionner. On concevait à grand prix un ordinateur à l'aide de circuit intégré et de composant électronique souvent peu pratique et fragile. D'ailleurs le mot français "ordinateur" ne donne pas l'image réaliste de ce qu'était ce que l'on appelait en anglais un "computer" à l'époque. Le mot français "ordinateur" inventé par IBM France en 1955 pour des raisons marketing, a été choisi car ce mot était noble, bien formé, et déjà présent dans les dictionnaires pour décrire la fonction divine d'organiser les choses. Alors que le mot français fait référence à Dieux, le mot anglais décrit brutalement sa fonction initiale: organiser trier et calculer (fonction que l'on peut traduire par le verbe français compulser).
Pour simplifier, avant 1973 un ordinateur (malgré son nom français) était un objet rustique manquant de noblesse et de souplesse. On utilisait ces gros objets pour leur puissance brutale permettant des calculs mathématiques complexes, comme par exemple ceux nécessaires dans le domaine de la recherche spatiale ou nucléaire.
C'est dans ce contexte que le microprocesseur créé par Intel est apparu. Intel n'a pas eu le problème du transistor. Dès sa création, la jeune génération d'électroniciens a vite compris son potentiel. Le plus rapide d'entre eux fut André Truong, au sein d'un petite société française, qui tout comme Intel, avait besoin de réaliser à peu de frais et rapidement une fonction relativement simple de gestion automatique de température et d'hydrométrie pour des cultures agricoles. C'est le célèbre Micral qui fut crée par André Truong, avec une demi-douzaine d'électroniciens aussi efficaces que géniaux. Mais là encore, même si leur intuition a été la bonne, l'application n'a pas été la bonne. Le Micral n'était pas pleinement un micro-ordinateur, mais plutôt un circuit imprimé que l'on pouvait reprogrammer soi-même, sans devoir passer par le concepteur du composant (Intel en l'occurrence). Le microprocesseur était un circuit imprimé que l'on pouvait reprogrammer avant la livraison à un client (en résumant grossièrement). Le Micral était un système équivalent, mais que l'on pouvait reprogrammer encore plus facilement pour changer sa fonction, mais aussi à posteriori, après avoir été livré aux clients.

Même si le Micral n'était pas réellement destiné à être un micro-ordinateur, puisque la première version n'avait ni clavier, ni système de sortie (imprimante ou écran cathodique), il reste le premier établissant le principe : on pouvait acheter un système électronique, que l'on pouvait reprogrammer à sa guise, et sans effort.

Le micro-ordinateur n'invente pas vraiment ce principe, puisque les gros ou mini-ordinateurs de l'époque pouvait le faire. Mais la rupture se résumait à ces quelques avantages:
  • le système coûtait 10 fois moins chers que le moins chers des ordinateurs de l'époque, 
  • sa fiabilité était meilleur
  • la programmation facile.
Tout cela était possible grâce au 4004 d'intel. André Truong jeune homme passionné par les transistors (entre autre) a eu la chance de se trouver au états-unis au moment de la sortie massive des premiers circuits imprimés, dont celui qui changea la mise, le 4004. C'est en se basant sur le 8008 (la célèbre version 8 bits du 4004) qu'il réalisa avec son équipe très réduite une révolution autant intellectuelle que technique, en créant le premier micro-ordinateur, bien que sans clavier et écran.
Comme souvent pour les inventeurs géniaux, il fut incompris en France. Les banques, les services publiques les entreprises ont refusé d'y croire. C'est à l'occasion d'une communication aux US que son innovation reçu l'accueil le plus intéressé, avec un article dans le magazine "Electronics". Mais ce succès d'estime n'a que peu changé les courtes vues du milieu industriel et économique français. En 1973, les US n'ont pas fait la même erreur: le Micral fut copier ou amélioré rapidement (Altair par exemple).
Le plus incroyable c'est qu'André Truong eu ensuite au moins deux intuitions géniales, chacune aurait pu apporter à la France une place dans le monde anglo-saxons de l'informatique:
  • la volonté de réaliser un compatible PC (sur le modèle IBM) avant la plupart des entreprises qui se sont engouffré dans l'aubaine.
  • La volonté de concevoir d'une version "portable" du Micral, avec un ordinateur réellement portable en 1980 intégrant cette fois un clavier et un écran (ou une imprimante) dans le même boîtier (PORTAL de R2E CCMC).
Pour la petit histoire, le Micral était destiné à être autonome et transportable. Cette version portable était donc logique pour cette jeune société. Avoir raison trop tôt sans en avoir les moyens de ses ambitions est tellement plus cruel que d'avoir tout simplement tort.

Pourquoi le micro-ordinateur est si important?

Cette révolution de 1973 est importante, car le "computer" est devenu un "ordinateur". Il allait devenir simple, fiable, abordable, et ainsi un ordinateur "personnel" pour la plupart des gens. Il ne fallut pas beaucoup d'année avant que le micro-ordinateur déferle sur la planète, avec le plus emblématique le ZX 80 de Synclair. Beaucoup préfère parler de l'Apple II, mais ce dernier restait réservé à une minorité ayant un minimum de moyen. Un peu comme les postes radios réservés à ses débuts à une élite, et qui après l'invention du transistor, a pu rentrer dans toutes les maisons en réduisant le prix d'achat. En devenant abordable, l'ordinateur est devenu autant un jeu intellectuelle, qu'un outils permettant de réaliser des fonctions complexes.

Avant, le computer était un objet industriel réservé à un univers d'entreprise. Après les 1973, l'ordinateur allait devenir un objet de consommation de masse, tout comme les petits postes radio à transistor, donnant toutes sortes d'idée et de possibilité au plus grand nombre. Le micro-ordinateur est l'avènement d'un univers qui allait devenir entièrement numérique, ou tout allait devenir peu à peu une suite de 0 et de 1.

Avec la démocratisation de l'objet "ordinateur", un nombre incalculable de personne a pu contribuer à l'extension du champs des possibles. Avant l'ordinateur, seul des électroniciens pouvaient concevoir des objets complexes. Cela nécessitait de souder des composants, de créer des circuits imprimées, et etc.. L'informatique et les ordinateurs ont peu à peu dépossédé les électroniciens d'une grande part de leur prérogatives. C'est d'ailleurs pour cette raison que les vrais électroniciens (que j'admire sincèrement) déteste l'informatique. Selon eux, il ne sont loin de penser qu'il n'y pas de noblesse à réaliser un système complexe entièrement numérique alors qu'avant il fallait un multitude de circuits intégrées qu'il fallait assembler patiemment.

Aucun commentaire: