Tech

Google a publié sa version de l’intelligence artificielle

Gemini est un concurrent du ChatGPT d’OpenAI

Le modèle surpasse les experts humains

Google a officiellement dévoilé son modèle de langage d’intelligence artificielle appelé Gemini. La société affirme qu’il est plus puissant que le GPT-4 d’OpenAI. Selon le géant de l’informatique, les Gémeaux peuvent rivaliser avec des personnes de « niveau expert » lors d’un test de QI.

Le modèle, qui a été révélé pour la première fois par le PDG Sundar Pichai lors de la conférence I/O de la société en mai, sera disponible en trois variantes : Nano, Pro et Ultra, Ultra étant la plus performante et pouvant contourner le GPT-4.

« Une version optimisée de Gemini Pro a désormais été intégrée au chatbot Bard de Google », peut-on lire dans un article officiel sur le blog de l’entreprise.

Ultra fait encore l’objet de « contrôles de confiance et de sécurité approfondis » et de « réglages précis », mais sera finalement intégré à Bard « au début de l’année prochaine ». Il reste encore pas mal d’inconnues autour du nouvel algorithme de Google.

On ne connaît pas par exemple ses paramètres exacts ni les données sur lesquelles il a été formé. Cela rend impossible la comparaison avec ChatGPT. Dans le domaine de l’intelligence artificielle, il manque encore un modèle universellement accepté pour évaluer l’intelligence des modèles.

Google a écrit sur son blog que Gemini est « nativement multimédia », ce qui signifie qu’il peut « combiner différents types d’informations, notamment du texte, du code, de l’audio, des images et des vidéos ».

Dans une série de vidéos, Google a montré les capacités de Gemini. Une vidéo montrant un programme reconnaissant correctement un canard bleu. Une vidéo distincte montre l’IA lisant les réponses d’un élève à des questions mathématiques et expliquant pourquoi l’élève a raison ou tort.

READ  La superbe vidéo conceptuelle de l'iPhone 14 Pro montre un design sans encoche

Dans sa dernière annonce, la société a affirmé que son modèle Gemini Ultra avait obtenu un score de 90 % au test MMLU, qui « utilise un ensemble de 57 matières telles que les mathématiques, la physique, l’histoire, le droit, la médecine et l’éthique pour tester la connaissance du monde et les capacités ». .» Pour résoudre le problème. » Cela en fait « le premier modèle à surpasser les experts humains » au test. Les personnes au « niveau expert » n’ont obtenu que 89,8 pour cent. Selon Google, GPT-4 e n’a obtenu que 86,4 pour cent au même test. .

Cunégonde Lestrange

"Gourou de Twitter. Écrivain en herbe. Fauteur de troubles typique. Entrepreneur. Étudiant hipster."

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer
Fermer