Nous ne sommes pas prêts pour la fin de la loi de Moore

Nous ne sommes pas prêts pour la fin de la loi de Moore

février 24, 2020 Non Par Camille Leroy


Le pronostic de Gordon Moore pour 1965 selon lequel le nombre de composants dans un circuit intégré doublerait chaque année pour atteindre 65 000 en 1975 est la plus grande prédiction technologique du dernier demi-siècle. Quand c’était correct en 1975, il a révisé ce qu’on appelle la loi de Moore pour dupliquer les transistors sur une puce tous les deux ans.

Depuis lors, sa prédiction a défini la trajectoire de la technologie et, à bien des égards, du progrès lui-même.

L’argument de Moore était économique. Circuits intégrés, avec plusieurs transistors et autres appareils électroniques interconnectés avec de l’aluminium métallique. Les lignes d’un petit carré de tranches de silicium avaient été inventées quelques années plus tôt par Robert Noyce dans Fairchild Semiconductor. Moore, le directeur R&D de l’entreprise, a réalisé, comme il l’écrivait en 1965, qu’avec ces nouveaux circuits intégrés, “le coût par composant est presque inversement proportionnel au nombre de composants”. C’était une belle affaire: en théorie, plus vous ajoutez de transistors, moins cher chacun sera. Moore a également vu qu’il y avait beaucoup de place pour des avancées techniques pour augmenter le nombre de transistors qu’il pouvait mettre de manière abordable et fiable sur une puce.

Bientôt, ces puces moins chères et plus puissantes deviendraient ce que les économistes aiment appeler une technologie à usage général, si fondamentale qu’elle génère toutes sortes d’innovations et de progrès dans de multiples industries. Il y a quelques années, de grands économistes ont reconnu que la technologie de l’information était rendue possible par les circuits intégrés avec un tiers de la croissance de la productivité aux États-Unis. UU. Depuis 1974. Presque toutes les technologies qui nous intéressent, des smartphones aux ordinateurs portables bon marché et au GPS, sont le reflet direct de la prédiction de Moore. Il a également stimulé les progrès actuels de l’intelligence artificielle et de la médecine génétique, en donnant aux techniques d’apprentissage automatique la capacité d’analyser de grandes quantités de données pour trouver des réponses.

Mais comment une simple prédiction, basée sur l’extrapolation d’un graphique du nombre de transistors par an, un graphique qui à l’époque ne comptait que quelques points de données, définissait un demi-siècle de progrès? En partie, du moins, parce que l’industrie des semi-conducteurs en a décidé ainsi.

Le magazine électronique d’avril 1965 dans lequel l’article de Moore est paru.

Wikimedia

Moore a écrit que “regrouper plus de composants dans des circuits intégrés”, le titre de son article de 1965, “ferait des merveilles comme les ordinateurs personnels, ou au moins les terminaux connectés à un ordinateur central, les commandes automatiques de voiture et l’équipement de communication portable personnel. “En d’autres termes, respectez votre feuille de route consistant à serrer de plus en plus de transistors à puce et cela vous mènerait à la terre promise. Et au cours des décennies suivantes, une industrie en plein essor, le gouvernement et des armées de chercheurs universitaires et industriels ont investi de l’argent et du temps dans la défense de la loi de Moore, créant une prophétie auto-réalisatrice qui a maintenu les progrès sur la bonne voie avec une précision incroyable. Bien que le rythme des progrès ait diminué ces dernières années, les puces les plus avancées d’aujourd’hui comptent près de 50 milliards de transistors.

Chaque année depuis 2001, MIT Technology Review a choisi les 10 technologies les plus importantes de l’année. Il s’agit d’une liste de technologies qui, presque sans exception, ne sont possibles qu’en raison des avancées de calcul décrites par la loi de Moore.

Pour certains des éléments de la liste de cette année, la connexion est évidente: les appareils grand public, y compris les montres et les téléphones, avec IA; L’attribution au changement climatique a été rendue possible par l’amélioration de la modélisation informatique et des données collectées à partir des systèmes mondiaux de surveillance atmosphérique et des satellites bon marché, de la taille d’une pinte. D’autres sur la liste, y compris la suprématie quantique, les molécules découvertes à l’aide de l’IA et même des traitements anti-âge et des médicaments hyperpersonnalisés, sont largement dues à la puissance de calcul dont disposent les chercheurs.

Mais que se passe-t-il lorsque la loi de Moore se termine inévitablement? Ou que se passe-t-il si, comme certains le soupçonnent, il est déjà mort et que nous travaillons déjà avec les fumées du plus grand moteur technologique de notre temps?

Q.E.P.D

C’est fini. Cette année, c’était très clair », explique Charles Leiserson, informaticien au MIT et pionnier du calcul parallèle, dans lequel plusieurs calculs sont effectués simultanément. La nouvelle usine de fabrication d’Intel, conçue pour construire des puces d’une taille minimale de 10 nanomètres, a été beaucoup retardée, livrant des puces en 2019, cinq ans après la génération précédente de puces avec des caractéristiques de 14 nanomètres. La loi de Moore, dit Leiserson, a toujours été sur le rythme des progrès et “nous ne sommes plus à ce rythme”. De nombreux informaticiens éminents ont également déclaré la loi de Moore morte ces dernières années. Début 2019, le PDG du grand fabricant de puces Nvidia a accepté.

En vérité, il s’agit plus d’un déclin progressif que d’une mort subite. Au fil des décennies, certains, dont Moore lui-même, se sont parfois inquiétés de voir la fin en vue, car il était de plus en plus difficile de fabriquer des transistors de plus en plus petits. En 1999, un chercheur d’Intel craignait que l’objectif de l’industrie de rendre les transistors inférieurs à 100 nanomètres d’ici 2005 ne soit confronté à des problèmes physiques fondamentaux avec des “solutions inconnues”, telles que les effets quantiques des électrons errant là où ils ne le font pas. Ils devraient l’être.

Pendant des années, l’industrie des puces a réussi à échapper à ces obstacles physiques. De nouvelles conceptions de transistors ont été introduites pour mieux coincer les électrons. De nouvelles méthodes de lithographie ont été inventées en utilisant un rayonnement ultraviolet extrême lorsque les longueurs d’onde de la lumière visible étaient trop épaisses pour sculpter avec précision des caractéristiques de silicium de quelques dizaines de nanomètres seulement. Mais les progrès sont devenus de plus en plus coûteux. Les économistes de Stanford et du MIT ont calculé que l’effort de recherche pour défendre la loi de Moore a été multiplié par 18 depuis 1971.

De même, les fabs qui fabriquent les puces les plus avancées deviennent d’un coût prohibitif. Le coût d’une usine augmente d’environ 13% par an et devrait atteindre 16 milliards de dollars ou plus d’ici 2022. Ce n’est pas un hasard si le nombre d’entreprises ayant l’intention de fabriquer la prochaine génération de puces a maintenant été réduit seulement trois, contre huit en 2010 et 25 en 2002.

Cependant, Intel, l’un de ces trois fabricants de puces, ne s’attend pas à des funérailles pour la loi de Moore à court terme. Jim Keller, qui a assumé le poste d’Intel Silicon Engineering Chief en 2018, est l’homme qui a pour mission de le garder en vie. Il dirige une équipe d’environ 8 000 ingénieurs en matériel et concepteurs de puces chez Intel. Quand il a rejoint l’entreprise, dit-il, beaucoup anticipaient la fin de la loi de Moore. S’ils avaient raison, il se souvient avoir pensé “c’est un frein” et peut-être qu’il avait fait “un très mauvais coup professionnel”.

Mais Keller a trouvé de nombreuses opportunités techniques de progrès. Il souligne qu’il y a probablement plus d’une centaine de variables impliquées dans le maintien de la loi de Moore, chacune offrant des avantages différents et faisant face à ses propres limites. Cela signifie qu’il existe de nombreuses façons de continuer à doubler le nombre d’appareils sur une puce: des innovations telles que les architectures 3D et les nouvelles conceptions de transistors.

Ces jours-ci, Keller semble optimiste. Il dit qu’il a entendu parler de la fin de la loi de Moore tout au long de sa carrière. Après un moment, “il a décidé de ne pas s’inquiéter à ce sujet”. Il dit qu’Intel est en route pour les 10 prochaines années et qu’il fera volontiers les calculs pour vous: 65 milliards (nombre de transistors) par 32 (si la densité de puces double tous les deux ans) soit 2 milliards de transistors. “C’est une amélioration de 30 fois les performances”, dit-il, ajoutant que si les développeurs de logiciels sont intelligents, nous pourrions obtenir des puces cent fois plus rapides en 10 ans.

Pourtant, même si Intel et les autres fabricants de puces restants peuvent intégrer des générations de puces encore plus avancées, les jours où il pouvait compter sur des puces plus rapides et moins chères tous les deux ans sont clairement révolus. Cependant, cela ne signifie pas la fin des progrès de calcul.

Il est temps de paniquer

Neil Thompson est économiste, mais son bureau se trouve au CSAIL, le vaste centre d’intelligence artificielle et d’informatique du MIT, entouré de robots et d’informaticiens, dont son collaborateur Leiserson. Dans un nouvel article, les deux documents ont amplement la possibilité d’améliorer les performances de calcul grâce à de meilleurs logiciels, algorithmes et une architecture de puce spécialisée.

Une opportunité consiste à réduire le gonflement des logiciels pour tirer le meilleur parti des puces existantes. Alors que vous pouviez toujours compter sur les puces pour être plus rapides et plus puissants, les programmeurs n’avaient pas à se soucier trop d’écrire du code plus efficace. Et souvent, ils n’ont pas pleinement profité des changements dans l’architecture matérielle, tels que les multiples cœurs ou processeurs, observés dans les puces utilisées aujourd’hui.

Thompson et ses collègues ont montré qu’ils pouvaient obtenir un calcul intensif en calcul pour s’exécuter environ 47 fois plus rapidement simplement en passant de Python, un langage de programmation polyvalent populaire, au C. le plus efficace. Cela est dû au fait que C, bien qu’il nécessite plus de travail de programmeur, réduit considérablement le nombre d’opérations requises, ce qui accélère l’exécution d’un programme. En adaptant davantage le code pour tirer pleinement parti d’une puce avec 18 cœurs de traitement, les choses ont encore accéléré. En seulement 0,41 seconde, les chercheurs ont obtenu un résultat qui a pris sept heures avec le code Python.

Cela semble être une bonne nouvelle pour des progrès continus, mais Thompson craint qu’il pointe également le déclin des ordinateurs en tant que technologie à usage général. Au lieu de “lever tous les navires”, comme l’a fait la loi de Moore, en offrant des puces de plus en plus rapides et moins chères qui étaient universellement disponibles, les progrès des logiciels et de l’architecture spécialisés commenceront désormais à se concentrer de manière sélective sur des problèmes et des opportunités spécifiques. commercial, en favorisant ceux qui ont suffisamment d’argent et de ressources.

En fait, le passage aux puces conçues pour des applications spécifiques, notamment en IA, est très avancé. Le Deep Learning et d’autres applications d’IA dépendent de plus en plus d’unités de traitement graphique (GPU) adaptées à partir de jeux, qui peuvent gérer des opérations parallèles, tandis que des sociétés telles que Google, Microsoft et Baidu conçoivent des puces AI pour leurs propres besoins. particuliers L’intelligence artificielle, en particulier l’apprentissage en profondeur, a un grand appétit pour la puissance informatique, et les puces spécialisées peuvent considérablement accélérer ses performances, explique Thompson.

Mais la compensation est que les puces spécialisées sont moins polyvalentes que les processeurs traditionnels. Thompson est préoccupé par le fait que les puces informatiques plus générales deviennent un havre de paix, ralentissant “le rythme général de l’amélioration des ordinateurs”, comme il l’écrit dans un prochain document, “Le déclin des ordinateurs en tant que technologie spécifique. général. “

À un moment donné, explique Erica Fuchs, professeur d’ingénierie et de politique publique à Carnegie Mellon, ceux qui développent l’IA et d’autres applications perdront des réductions de coûts et des augmentations de performances fournies par la loi de Moore. “Peut-être que dans 10 ou 30 ans, personne ne sait vraiment quand ils auront besoin d’un appareil doté de cette puissance de calcul supplémentaire”, dit-elle..

Le problème, dit Fuchs, est que les successeurs des puces à usage général d’aujourd’hui sont inconnus et qu’il faudra des années de recherche et de développement de base pour les créer. Si vous vous inquiétez de ce que la loi de Moore remplacera, suggère-t-il, “le moment de panique est maintenant.” Il y a, dit-il, “des gens vraiment intelligents dans l’IA qui ne sont pas conscients des limitations matérielles rencontrées par les progrès à long terme de l’informatique”. De plus, dit-il, parce que les puces spécifiques à l’application se révèlent très rentables, il n’y a guère d’incitation à investir dans de nouveaux appareils logiques et de nouvelles méthodes de calcul.

Recherché: un plan de puce Marshall

En 2018, Fuchs et ses collègues de la CMU Hassan Khan et David Hounshell ont écrit un document qui retrace l’histoire de la loi de Moore et identifie les changements derrière le manque de collaboration entre l’industrie et le gouvernement aujourd’hui qui ont encouragé tant de progrès dans décennies précédentes Ils ont fait valoir que «la fragmentation des trajectoires technologiques et la rentabilité privée à court terme de bon nombre de ces nouveaux fragmenteurs» signifie que nous devons considérablement stimuler les investissements publics pour trouver les prochaines grandes technologies informatiques.

Si les économistes ont raison, et une grande partie de la croissance dans les années 1990 et au début des années 2000 est le résultat des micropuces, et si, comme certains le suggèrent, la croissance lente de la productivité qui a commencé au milieu des années 2000 cela reflète le ralentissement des progrès informatiques, dit Thompson, «il s’ensuit que vous devez investir d’énormes sommes d’argent pour trouver la technologie qui lui succédera. Nous ne le faisons pas Et c’est un échec de la politique publique. “

Rien ne garantit que ces investissements en valent la peine. L’informatique quantique, les transistors à nanotubes de carbone, voire la spintronique, sont des possibilités intéressantes, mais aucune ne remplace de façon évidente la promesse que Gordon Moore a vue pour la première fois dans un simple circuit intégré. Cependant, nous avons besoin d’investissements dans la recherche maintenant pour le savoir. Parce qu’il est presque certain qu’une prédiction se réalisera: nous voudrons toujours plus de puissance de calcul.

Promotion chez notre partenaire