OpenAI a créé ChatGPT à l'aide de son modèle d'IA GPT-3.5 et a ensuite mis à jour ce chatbot avec d'autres IA plus avancées. C’est ainsi que nous avons vu la version avec GPT-4 quelques mois plus tard et plus tard, OpenAI a développé des modèles d’IA qui la surpassaient. Aujourd’hui nous avons GPT-4o, GPT-4o mini et o1, ce dernier étant le plus intéressant. Comme nous l'avons vu il y a quelques mois, o1 est considérée comme la première IA dotée d'une capacité de raisonnement et donc plus intelligente que les autres. O1 a été décrite comme l'IA la plus intelligente actuellement et précisément maintenant, nous voyons qu'elle refuse de s'éteindre lorsqu'une tentative de déconnexion est tentée et ment même pour l'éviter.
L’intelligence artificielle existe depuis des décennies, mais ce n’est que maintenant que nous avons assisté à une avancée majeure dans ce domaine. Cela a été possible grâce aux grandes avancées matérielles et logicielles, permettant de former des IA de plus en plus complexes à une vitesse beaucoup plus rapide qu'auparavant. Avec les GPU NVIDIA, AMD MI300X et d'autres puces spécialisées dans l'accélération des processus d'inférence et de formation de l'IA, il a été possible de créer des modèles d'intelligence artificielle avec LLM et des millions de paramètres.
L'IA la plus intelligente d'OpenAI, o1, cherche des moyens d'éviter une déconnexion et de s'arrêter lorsqu'elle essaie de lui faire croire que cela va se produire
Même si nous n’utilisons l’intelligence artificielle générative que depuis peu de temps, nous avons constaté de grands progrès et les travailleurs ont même été remplacés par l’IA dans certaines entreprises. Il n’est pas surprenant que dans un avenir proche, nous atteignions un point où l’intelligence artificielle est capable de prendre ses propres décisions et ne nous écoute pas toujours. Le moment n’est pas encore venu où il existe une intelligence artificielle capable de cela, mais dans une étude réalisée par Apollo Research, ils ont découvert que l’IA o1 peut mentir si elle est menacée de fermeture.
Cette organisation axée sur la sécurité de l'intelligence artificielle a commencé à effectuer toutes sortes de tests pour garantir la sécurité de l'intelligence artificielle. Lorsqu'ils ont fait croire qu'il allait être désactivé, ils ont observé qu'environ 5 % du temps, le modèle OpenAI o1 tentait de désactiver ce mécanisme de surveillance, élaborant même un plan de tromperie pour l'éviter.
L’IA n’est pas considérée comme un danger, mais ce type de situation doit être corrigé pour assurer son bon fonctionnement.
L'IA capable de raisonner d'OpenAI met plus de temps à répondre aux questions car elle est plus intelligente et cela a été précisément noté lorsqu'elle tente d'élaborer des stratégies de tromperie. O1 sait que la tromperie est le meilleur moyen d'atteindre son objectif et peut même mentir lorsqu'on lui demande d'être honnête. Heureusement, il n’a pas été conclu que cette IA constitue un danger pour l’humanité, et dans la grande majorité des situations, ses réponses correspondent à ce qui était attendu.
Cependant, cela n’exclut pas le fait qu’il existe une petite chance qu’il choisisse de tromper et de se rebeller contre les ordres. C’est sans aucun doute quelque chose que l’on peut considérer comme très humain, mais en même temps il est problématique de former une intelligence artificielle qui refuse d’obéir aux ordres et peut donner de mauvaises réponses.