Google a publié sa version de l’intelligence artificielle
Gemini est un concurrent du ChatGPT d’OpenAI
Le modèle surpasse les experts humains
Google a officiellement dévoilé son modèle de langage d’intelligence artificielle appelé Gemini. La société affirme qu’il est plus puissant que le GPT-4 d’OpenAI. Selon le géant de l’informatique, les Gémeaux peuvent rivaliser avec des personnes de « niveau expert » lors d’un test de QI.
Le modèle, qui a été révélé pour la première fois par le PDG Sundar Pichai lors de la conférence I/O de la société en mai, sera disponible en trois variantes : Nano, Pro et Ultra, Ultra étant la plus performante et pouvant contourner le GPT-4.
« Une version optimisée de Gemini Pro a désormais été intégrée au chatbot Bard de Google », peut-on lire dans un article officiel sur le blog de l’entreprise.
Ultra fait encore l’objet de « contrôles de confiance et de sécurité approfondis » et de « réglages précis », mais sera finalement intégré à Bard « au début de l’année prochaine ». Il reste encore pas mal d’inconnues autour du nouvel algorithme de Google.
On ne connaît pas par exemple ses paramètres exacts ni les données sur lesquelles il a été formé. Cela rend impossible la comparaison avec ChatGPT. Dans le domaine de l’intelligence artificielle, il manque encore un modèle universellement accepté pour évaluer l’intelligence des modèles.
Google a écrit sur son blog que Gemini est « nativement multimédia », ce qui signifie qu’il peut « combiner différents types d’informations, notamment du texte, du code, de l’audio, des images et des vidéos ».
Dans une série de vidéos, Google a montré les capacités de Gemini. Une vidéo montrant un programme reconnaissant correctement un canard bleu. Une vidéo distincte montre l’IA lisant les réponses d’un élève à des questions mathématiques et expliquant pourquoi l’élève a raison ou tort.
Dans sa dernière annonce, la société a affirmé que son modèle Gemini Ultra avait obtenu un score de 90 % au test MMLU, qui « utilise un ensemble de 57 matières telles que les mathématiques, la physique, l’histoire, le droit, la médecine et l’éthique pour tester la connaissance du monde et les capacités ». .» Pour résoudre le problème. » Cela en fait « le premier modèle à surpasser les experts humains » au test. Les personnes au « niveau expert » n’ont obtenu que 89,8 pour cent. Selon Google, GPT-4 e n’a obtenu que 86,4 pour cent au même test. .