Le nombre de transistors et le temps, deux mesures incluses dans la loi de Moore qui donnent toujours matière à discussion, et qui restent cependant d’actualité. Le dernier en date sur cette loi est un rapport réalisé par Google à l’IEDM23 qui mettait en évidence les propos de Zvi Or-Bach, président et PDG de MonolithIC 3D Inc en 2014. Pourquoi Google mettrait-il au premier plan certaines déclarations d’il y a 10 ans ? Parce qu’ils ont collecté des données sur le coût des transistors pour 100 millions de portes, et que les chiffres ne correspondent pas à ce dont l’industrie a besoin.
Le problème avec la loi de Moore est qu’elle ne fait référence qu’au temps et au nombre de transistors, alors que, comme nous le savons déjà, tous les deux ans, ils devraient doubler par puce, quoi qu’il arrive. Le problème est que cela a des conséquences directes, mais non incluses dans ladite loi, sur le coût des puces, et c’est là que réside la polémique avec les données de cette année pour 3 nm.
Loi de Moore, milliards de transistors, nanomètres et coût
Comme on dit, il s’agit d’une relation directe où la loi n’inclut pas le coût dans sa référence, elle n’ajoute pas de chiffres concernant le prix des puces, elle se réfère uniquement au nombre de transistors et au temps. Mais bien sûr, si le délai est de deux ans et que les transistors sont doublés, le prix devrait être maintenu ou baissé, si possible, car sinon il serait inabordable pour chaque saut lithographique au cours de ces 2 années.
Pour cette raison, Google a repris les déclarations de Bach en 2014 pour présenter ses données, affirmant que « l’échelle du coût du transistor (0,7X) s’est arrêtée à 28 nm et reste stable génération après génération ». En d’autres termes, les nanomètres sont réduits, mais le coût des mêmes transistors est stable, pas inférieur.
Google confirme ce que Bach a dit en montrant un graphique révélateur
Milind Shah, responsable du packaging IC chez Google, a approuvé les propos de Bach en 2014 en montrant un nouveau graphique très facile à comprendre, qui précède ce paragraphe. Vous pouvez y voir comment pour 100 milliards de portes les coûts d’évolutivité des transistors disposés dans une amélioration théorique de 0,7X se sont arrêtés à 28 nm, et à partir de là, ils ont même un peu augmenté, là où seulement 3 nm ont réussi à baisser le prix. par le minimum.
Le principal problème vient des wafers, puisqu’ils ne cessent d’augmenter leur prix, le second, comme nous l’avons vu ce week-end, vient des scanners, qui continuent d’évoluer et d’augmenter leur prix, car il est de plus en plus difficile de réduire l’échelle de la lithographie. et maintenir la vitesse nécessaire pour produire les mêmes plaquettes dans des nœuds plus avancés.
Alors pourquoi continuons-nous à essayer de réduire cette échelle lithographique ? Parce que nous parvenons à insérer davantage de transistors dans le même espace physique, améliorant ainsi les performances et l’efficacité. Le problème, mis à part le coût des transistors, est que nous augmentons la densité de puissance, c’est-à-dire que l’introduction de plus en plus de transistors par centimètre carré déclenche la dissipation de la chaleur, donc les CPU et les GPU doivent grandir en taille pour atténuer cet effet. . , car plus il y a de surface, meilleure est la dissipation.
Systèmes de refroidissement et SRAM, un fardeau pour la logique d’une puce
Si l’on ajoute à cela que les systèmes de refroidissement ont à peine progressé et qu’ils ont besoin d’un saut de performance qui n’existe pas à une échelle de production à faible coût, alors nous pouvons comprendre que des puces plus grandes sont fabriquées (en cm2), ce qui implique également que Le coût augmente à mesure que davantage de silicium est dépensé et que celui-ci est utilisé pour inclure davantage de logique et de mémoire. De plus, cette dernière, la SRAM, n’a pas la même évolutivité, puisqu’elle est fabriquée sur des tranches séparées puis implémentée dans la logique, ce qui limite également la taille maximale des puces.
Par conséquent, réduire le coût par transistor est une tâche trop complexe, et en continuant, nous pouvons dire que nous faisons du bon travail, car réduire ce coût signifie que nous aurions trouvé une technologie de rupture, qui pour le moment et compte tenu de ce dont nous disposons vu jusqu’en 2036, c’est pratiquement impossible.