OpenAI affirme que le nouveau modèle « o1 » peut raisonner comme un humain

By: Girard

Spread the love

OpenAI a dévoilé son dernier modèle de langage, « o1 », vantant les progrès des capacités de raisonnement complexes.

Dans un annonce  la  société a affirmé que son nouveau modèle o1 pouvait égaler les performances humaines aux tests de mathématiques, de programmation et de connaissances scientifiques.

Cependant, le véritable impact reste spéculatif.

Réclamations extraordinaires

Selon OpenAI, o1 peut se situer dans le 89e percentile lors des défis de programmation compétitifs hébergés par Codeforces.

L’entreprise insiste sur le fait que son modèle peut fonctionner à un niveau qui le placerait parmi les 500 meilleurs étudiants du pays à l’examen d’élite américain sur invitation de mathématiques (AIME).

En outre, OpenAI déclare que o1 dépasse la performance moyenne des experts en la matière humains titulaires d’un doctorat à un examen de référence combiné en physique, chimie et biologie.

Ce sont des affirmations extraordinaires, et il est important de rester sceptique jusqu’à ce que nous assistions à un examen ouvert et à des tests réels.

Apprentissage par renforcement

La prétendue avancée réside dans le processus d’apprentissage par renforcement d’o1, conçu pour apprendre au modèle à résoudre des problèmes complexes en utilisant une approche appelée « chaîne de pensée ».

En simulant une logique étape par étape de type humain, en corrigeant les erreurs et en ajustant les stratégies avant de produire une réponse finale, OpenAI affirme que o1 a développé des compétences de raisonnement supérieures à celles des modèles de langage standard.

Conséquences

On ne sait pas exactement comment le raisonnement avancé par o1 pourrait améliorer la compréhension des requêtes (ou la génération de réponses) dans les domaines des mathématiques, du codage, des sciences et d’autres sujets techniques.

Du point de vue du référencement, tout ce qui améliore l’interprétation du contenu et la capacité de répondre directement aux requêtes pourrait avoir un impact. Cependant, il est sage d’être prudent jusqu’à ce que nous ayons recours à des tests objectifs effectués par des tiers.

OpenAI doit aller au-delà de la surveillance des références et fournir des preuves objectives et reproductibles pour étayer ses affirmations. L’ajout des capacités d’o1 à ChatGPT dans les pilotes réels prévus devrait aider à présenter des cas d’utilisation réalistes.


 

btpspace.com


Spread the love

Leave a Comment