Depuis la présentation des nouveaux GPU NVIDIA AI avec architecture Blackwell, nombreux sont ceux qui ont critiqué un aspect clé de ceux-ci. Même Jim Keller a insulté NVIDIA pour avoir utilisé deux technologies propriétaires au lieu de technologies ouvertes : NVLink et Infinity Band. Comme nous le savons, la conception et l'intégration ont coûté plus de 10 milliards d'euros depuis sa première révision et constituent, d'une part, une excellente alternative, mais d'autre part, elles sont inabordables en termes d'échelle et de coûts. Entrez Celestial AI, une entreprise qui a promis de révolutionner le secteur grâce à sa technologie Photonic Fabric, qu'AMD soutiendrait activement.
La technologie photonique est aujourd’hui une réalité, sauf qu’elle n’est pas encore prête pour divers usages. Dans le segment des serveurs, l'IA et le matériel qui y est intégré, qu'il s'agisse d'un GPU ou d'un accélérateur exclusif, pour faire évoluer le nombre d'unités par rack et par complexe informatique, le coût thermique, en termes de performances et d'argent est immense, mais la solution est sur le point chemin.
Celestial AI recevra le soutien d'AMD pour rendre possible son Photonic Fabric
Et bien sûr, vous vous demandez peut-être ce qu'est le Photonic Fabric. Eh bien, regardons-le superficiellement, car les informations sont rares. Cette technologie développée et créée par Celestial AI est une interconnexion optique entre diverses puces, en particulier les GPU, qui, selon la société, offre un « bond transformateur dans les performances du système d'IA, dix ans plus avancé que les technologies existantes ».
Pour cette raison, Celestial AI se concentre sur trois domaines de développement : les chipsets, les interposeurs et un spin optique qu'elle développe d'une part avec Intel pour EMIB de nouvelle génération, et d'autre part avec TSMC et CoWoS, étant la même technologie avec deux différentes implémentations, qu'ils ont appelées OMIB.
Qu’est-ce que tout cela a à voir avec ce dont nous parlions ? Eh bien, tout. Pour interconnecter les chipsets, les interposeurs et les spins optiques, un bus d'interconnexion à très haut débit est nécessaire, et le lien entre tous est précisément Photonic Fabric.
DDR5 et HBM unis pour réduire la consommation d'énergie et améliorer les performances
La stratégie de Celestial AI avec Photonic Fabric consiste non seulement à connecter tout ce qui est mentionné, mais également à le faire grâce à la combinaison de DDR5 et HBM. En combinant chiplet, interporteur et spin optique avec les deux types de mémoire, ils ont calculé que la consommation d'énergie serait considérablement réduite.
Concrètement, ce calcul est d'environ 90 %, ce qui est un chiffre de science-fiction à l'heure actuelle avec la technologie actuelle. Étant donné que les chipsets pourront utiliser la capacité de mémoire supplémentaire de ces deux types et les interconnecter avec CXL 3.0, on pense qu'ils pourront fonctionner de manière transparente comme une interconnexion puce à puce.
Pour qu'on se comprenne, cela fonctionnerait comme une sorte de NVLink actuel, mais de manière optique. Les données fournies par Celestial AI parlent de pas moins de 1,8 Tb/s par millimètre carré pour la première génération et du double pour la seconde en doublant le nombre de voies Photonic Fabric de 4 à 8. Cela laisserait une bande passante de 112 Gb/s. via PAM4 SerDes.
Le chiffre final et général additionné de tout cela et mis en contexte sera de 14,4 To/s en interne et de 1,8 To/s en externe, c'est-à-dire puce contre puce.
Efficacité et latence
Dave Lazovsky, PDG de Celestial AI, laisse une série de phrases où il compare sa technologie à celle de NVIDIA actuelle :
“Il offre tous les avantages en termes de capacité et de coût du DDR ainsi que la bande passante et les 32 pseudo-canaux de l'interconnectivité HBM, ce qui masque la latence. Notre surcharge énergétique de transaction mémoire est d'environ 6,2 picojoules par bit contre environ 62,5 via NVLink, NVSwitch pour une transaction de mémoire à distance. .
La latence totale aller-retour pour ces transactions de mémoire distante, y compris les trajets à travers la structure photonique et les temps de lecture de la mémoire, est de 120 nanosecondes. Ce sera donc un peu plus que les 80 nanosecondes environ de mémoire locale, mais c'est plus rapide que d'aller dans Grace, de lire un paramètre et de le transmettre à un Hopper. »
Sachant qu'AMD Ventures est l'un des sponsors de cette technologie Photonic Fabric, nul doute que Lisa Su tentera de concurrencer directement NVIDIA dans les GPU dans quelques années seulement. En principe, d'ici 2027, si tout se passe comme prévu, puisqu'ils sont en plein cycle de financement et ont déjà levé 175 millions, donc plus ils recevront d'argent, ils auront sûrement cette technologie prête plus tôt pour la lancer en masse avec leurs partenaires.