OpenAI a dévoilé son dernier modèle de langage, « o1 », vantant les progrès des capacités de raisonnement complexes.
Dans un annonce la société a affirmé que son nouveau modèle o1 pouvait égaler les performances humaines aux tests de mathématiques, de programmation et de connaissances scientifiques.
Cependant, le véritable impact reste spéculatif.
Réclamations extraordinaires
Selon OpenAI, o1 peut se situer dans le 89e percentile lors des défis de programmation compétitifs hébergés par Codeforces.
L’entreprise insiste sur le fait que son modèle peut fonctionner à un niveau qui le placerait parmi les 500 meilleurs étudiants du pays à l’examen d’élite américain sur invitation de mathématiques (AIME).
En outre, OpenAI déclare que o1 dépasse la performance moyenne des experts en la matière humains titulaires d’un doctorat à un examen de référence combiné en physique, chimie et biologie.
Ce sont des affirmations extraordinaires, et il est important de rester sceptique jusqu’à ce que nous assistions à un examen ouvert et à des tests réels.
Apprentissage par renforcement
La prétendue avancée réside dans le processus d’apprentissage par renforcement d’o1, conçu pour apprendre au modèle à résoudre des problèmes complexes en utilisant une approche appelée « chaîne de pensée ».
En simulant une logique étape par étape de type humain, en corrigeant les erreurs et en ajustant les stratégies avant de produire une réponse finale, OpenAI affirme que o1 a développé des compétences de raisonnement supérieures à celles des modèles de langage standard.
Conséquences
On ne sait pas exactement comment le raisonnement avancé par o1 pourrait améliorer la compréhension des requêtes (ou la génération de réponses) dans les domaines des mathématiques, du codage, des sciences et d’autres sujets techniques.
Du point de vue du référencement, tout ce qui améliore l’interprétation du contenu et la capacité de répondre directement aux requêtes pourrait avoir un impact. Cependant, il est sage d’être prudent jusqu’à ce que nous ayons recours à des tests objectifs effectués par des tiers.
OpenAI doit aller au-delà de la surveillance des références et fournir des preuves objectives et reproductibles pour étayer ses affirmations. L’ajout des capacités d’o1 à ChatGPT dans les pilotes réels prévus devrait aider à présenter des cas d’utilisation réalistes.