spot_img

Que sont les hallucinations de l’IA?

Les hallucinations de l’IA

OpenAI a déclaré mercredi qu’elle améliorait les capacités de résolution de problèmes mathématiques du chatbot dans le but de réduire les hallucinations de l’IA. GPT-4 a été lancée en mars, continuant à faire entrer l’intelligence artificielle dans la vie courante. Mais les chatbots d’IA générative ont toujours eu du mal à comprendre les fait et donc de propager de fausses informations. Ce que l’on appelle familièrement des hallucinations.

On parle d’hallucinations lorsqu’une IA génère des résultats inattendus et faux qui ne sont pas étayés par des données réelles. Elles peuvent représenter de faux contenus, de fausses nouvelles ou de fausses informations sur des personnes, des événements ou des faits. OpenAI met en garde les utilisateurs contre une confiance aveugle en ChatGPT. Elle le fait en présentant une clause de non-responsabilité indiquant que ChatGPT peut produire des informations inexactes sur des personnes, des lieux ou des faits.

ChatGPT accuse à tort

Bien qu’OpenAI n’ait pas cité d’exemples précis, deux événements récents ont illustré ce problème dans des situations réelles. En avril, Jonathan Turley, avocat américain spécialisé dans la défense pénale et professeur de droit, a affirmé que ChatGPT l’avait accusé d’avoir commis une agression sexuelle. Pire encore, l’IA a inventé et cité un article du Washington Post pour étayer cette affirmation.

La semaine dernière, Steven A. Schwartz, avocat dans l’affaire Mata c. Avianca Airlines, a admis avoir consulté le chatbot comme source lors de ses recherches. Le problème? Les résultats que le chatbot a fournis à Schwartz étaient tous fabriqués.

Bard VS ChatGPT

En février, le géant de la technologie Microsoft a présenté à des journalistes les capacités du chatbot Bing. Les résultats n’ont pas été brillants. Malgré ces problèmes, la société mise beaucoup sur le ChatGPT, en incorporant la technologie dans son navigateur web Bing après un investissement de 13 milliards de dollars dans OpenAI.

Allons un peu plus en détails

Dans ses recherches, OpenAI a comparé la supervision des résultats, qui fournit un retour d’information basé sur un résultat final, et la supervision des processus, qui fournit un retour d’information pour chaque étape d’une chaîne de pensée.

« Nous évaluons nos modèles de récompense supervisés par le processus et par les résultats à l’aide de problèmes issus de l’ensemble de tests mathématiques », a déclaré OpenAI. « Nous générons de nombreuses solutions pour chaque problème et choisissons ensuite la solution la mieux classée par chaque modèle de récompense.

Risque d’extinction de la technologie

L’équipe de recherche a conclu que la supervision des processus offrait de meilleures performances car elle encourage le modèle à suivre un processus approuvé par l’homme, alors que la supervision des résultats est généralement plus difficile à examiner.

OpenAI reconnaît que l’on ne sait pas comment les résultats se traduiront au-delà des mathématiques, mais affirme que les travaux futurs devront explorer l’impact de la supervision des processus dans d’autres domaines. L’entreprise a publié l’ensemble de ses données à ce sujet afin d’encourager la recherche.

« Si ces résultats se généralisent, nous pourrions découvrir que la supervision de processus nous donne le meilleur des deux mondes, une méthode qui est à la fois plus performante et plus alignée que la supervision de résultats », a déclaré OpenAI.

Cathy Norton
Cathy Norton
Je baigne dans les cryptos depuis 2012. C'est un domaine qui me passionne. Et comme tout passionné, j'aime transmettre mon savoir qui grandit jour après jour. Un domaine infini qui se renouvelle sans cesse. C'est ça qui est passionnant.

Autres Articles

spot_img
4,317SuiveursSuivre

Derniers Articles