Economy

Sam Altman a admis : Chez OpenAI, nous ne comprenons pas comment fonctionne notre IA

OpenAI a levé des dizaines de milliards de dollars pour développer des technologies d'intelligence artificielle. L'IA de l'entreprise change déjà le monde, démontrant la puissance de l'IA générative.

Cependant, Sam Altman admet qu'il n'est pas sûr du fonctionnement de l'IA de l'entreprise.

Lors du Sommet mondial sur l'IA pour le bien de l'UIT à Genève, en Suisse, Sam Altman, PDG d'OpenAI, a admis après avoir été interrogé sur le fonctionnement réel des grands modèles de langage de LLM.

« Nous n'avons certainement pas résolu le problème de l'interprétation» a-t-il déclaré, cité dans l'Observer, disant essentiellement que l'entreprise n'a toujours pas compris comment suivre les résultats étranges et souvent inexacts de ses modèles d'IA et les décisions qu'elle a prises pour arriver à ces réponses.

Lorsqu'il a été poussé lors de l'événement par le PDG de The Atlantic, Nicholas Thompson, qui lui a demandé si cela ne devrait pas être « Un argument pour ne pas continuer à lancer de nouveaux modèles plus puissantsAltman semblait confus. Cependant, il a souligné que les systèmes d’IA sont « généralement considérés comme sains et saufs ».

La réponse insatisfaisante d'Altman met en évidence un réel problème dans le développement de l'intelligence artificielle. Les chercheurs ont longtemps eu du mal à expliquer la « pensée » libre qui se déroule dans les coulisses, alors que les chatbots basés sur l’IA répondent presque comme par magie et sans effort à chaque requête qui leur est posée.

Un panel de 75 experts a récemment conclu dans un rapport scientifique historique commandé par le gouvernement britannique que les développeurs d’IA «Ils comprennent peu le fonctionnement de leurs systèmes« Et la connaissance scientifique est »Très limité« .

READ  Mises à jour en direct du 24 août: Zelensky dit 15 morts dans une frappe de missile, Biden prédit l'annulation de la dette étudiante pour des millions

« L'explication des modèles et les techniques d'explication peuvent améliorer la compréhension des chercheurs et des développeurs du fonctionnement des systèmes d'IA à usage général, mais ce n'est qu'un début.« , indique le rapport.

D’autres sociétés d’IA tentent de trouver de nouvelles façons de «Ouvrez la boîte noire« , mappant les neurones artificiels à ses algorithmes. Par exemple, le concurrent d'OpenAI, Anthropic, l'a récemment fait Un aperçu détaillé du fonctionnement interne de l'un des programmes LLM les plus récentsClaude a appelé le sonnet, comme première étape.

L’explicabilité de l’IA est un sujet particulièrement intéressant compte tenu du débat houleux entourant la sécurité de l’IA et les risques de création d’une intelligence générale artificielle (IAG) qui mettrait au défi l’humanité.

Altman lui-même récemment Dissoudre toute l'équipese consacre à trouver des moyens de « diriger et contrôler les systèmes d’intelligence artificielle de manière bien plus intelligente que nous ».

Beaumont-Lefebvre

"Food lover. Alcohol advocate. Problem solver. Coffee expert. Internet maven for hipsters."

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer
Fermer