in

Gaudi 3 recherche la rentabilité et les coûts

Gaudi 3 recherche la rentabilité et les coûts

Les fabricants de cartes graphiques comme AMD et NVIDIA se concentrent sur le secteur depuis des années gaming et professionnel, nous avions donc des GPU pour jouer et d'autres destinés à être utilisés dans des programmes de conception 3D, de rendu et de tâches nécessitant ces graphiques. Le marché a commencé à changer lorsque le minage de cryptomonnaies est devenu populaire et que les GPU se vendaient comme des petits pains chauds pour le minage. Cela a pris fin il y a quelque temps, mais il n’a pas fallu longtemps pour que l’IA provoque un nouveau changement dans l’industrie. NVIDIA est complètement leader sur le marché des GPU AI et maintenant Intel a décidé d'abandonner et de ne pas rivaliser directement sur les performances, mais se concentrera sur ses graphiques Gaudi 3 moins chers pour les clients.

Lorsque ChatGPT est entré dans nos vies fin 2022, nous avons réalisé à quel point l’intelligence artificielle pouvait être utile. Il s’agit d’un chatbot qui fonctionnait de manière similaire aux assistants auxquels nous étions habitués, comme Siri ou Alexa, mais qui était beaucoup plus intelligent. Avec l'IA d'OpenAI, nous pourrions recevoir des réponses beaucoup plus précises et complexes à tous types de questions, nous épargnant ainsi le temps de chercher des heures sur Google. Après cela, un grand intérêt pour l’IA a commencé et n’a cessé de croître sans aucun signe de disparition.

Intel ne peut pas rivaliser avec NVIDIA en termes de performances, mais il peut rivaliser en termes de coût avec ses GPU Gaudi 3 pour l'IA

NVIDIA a réussi à générer énormément d'avantages grâce à l'IA, puisque ses cartes graphiques sont considérées comme les meilleures pour entraîner différents modèles. Voyant les bénéfices de cette entreprise, des sociétés rivales comme AMD et Intel ont tenté de rivaliser sans grand succès. Il est vrai qu'AMD a lancé son MI300X, qui offrait de bonnes performances et un coût inférieur, mais il était trop tard et NVIDIA dominait le marché. De plus, ils ont récemment annoncé leurs nouveaux GPU Blackwell pour l'IA, de sorte que tous les efforts investis pour battre les graphiques NVIDIA ont été vains face aux nouveaux.

Nous avons désormais de nouvelles nouvelles d'Intel et de ses GPU pour l'IA, puisque l'entreprise considère qu'il n'est pas possible d'affronter NVIDIA et encore plus maintenant qu'elle a présenté son B200 le plus puissant. Au lieu de cela, ils se concentreront sur l’offre de graphiques IA plus rentables pour eux et leurs clients, c’est-à-dire qu’ils donneront la priorité à un meilleur rapport prix/performance. Intel confirme que les GPU Gaudi 3 ne sont pas à la hauteur de NVIDIA en termes de performances, mais qu'ils les surpassent en termes de rentabilité.

A lire également  Thermaltake TH360 V2 Ultra EX ARGB Sync, revue en espagnol

Intel se concentre sur l'offre de graphiques avec un meilleur rapport puissance/prix que son rival pour attirer les clients

Prix ​​Intel-Gaudi-2-et-Gaudi-3Prix ​​Intel-Gaudi-2-et-Gaudi-3

Intel considère que Gaudi 3 a des performances équivalentes au NVIDIA H100 en termes d'inférence, avec l'avantage d'offrir des performances 80% supérieures par dollar investi par rapport au GPU de l'équipe verte. De plus, dans une IA comme Llama-2, les graphiques Intel atteignent le double des performances/$. Or, si l'on fait la comparaison en termes de vitesse dans les opérations en virgule flottante, les GPU Intel sont loin derrière NVIDIA. C'est pourquoi Intel souhaite se concentrer sur l'offre d'un produit qui intéresse tous les clients qui cherchent à disposer de matériel moins cher dans ce nouveau secteur du marché.

La société bleue estime que ses produits peuvent se démarquer dans ce secteur où il existe de nombreuses petites entreprises et des modèles d'IA open source qui peuvent être développés sans dépenser autant d'argent qu'avec le matériel NVIDIA. Il est curieux de voir comment ces déclarations apparaissent juste un jour après qu'un ingénieur anonyme d'Intel a déclaré que la principale faiblesse d'Intel était d'investir ses ressources dans les GPU et l'IA alors qu'elle savait qu'elle ne pouvait pas rivaliser avec des sociétés comme NVIDIA.