Code Misk – Téléchargement gratuit
Grok est censé être alimenté par les bases de données de Twitter
Son lancement risque de mettre la pression sur les chatbots restants
Fidèle à sa parole, Elon Musk a créé le premier grand modèle de langage (LLM) open source. Le milliardaire a publié son code d'intelligence artificielle en téléchargement gratuit par tout entrepreneur, programmeur, entreprise, particulier ou passionné d'Internet.
De cette façon, la communauté sera libre d'utiliser une copie du modèle pour tout ce qu'elle veut, y compris pour des applications commerciales.
« Nous rendons le modèle de base et l'architecture réseau de Grok-1, notre grand modèle de langage, disponibles en téléchargement », a annoncé xAI. « Grok-1 est un modèle de 314 milliards de paramètres que nous avons formé de toutes pièces. »
Avec 314 milliards de paramètres, Grok dépasse de loin ses concurrents open source comme Meta's Llama 2 (70 milliards de paramètres) et Mistral 8x7B (12 milliards de paramètres).
Grok est un logiciel open source sous licence Apache 2.0, qui permet une utilisation commerciale, des modifications et une distribution. Les utilisateurs doivent reproduire la licence originale et l'avis de droit d'auteur et indiquer toutes les modifications qu'ils ont apportées.
Cependant, la version GROK n'inclut pas l'ensemble de ses données d'entraînement. Cela n'a pas vraiment d'importance lors de l'utilisation du modèle car il a déjà été entraîné. Non seulement les utilisateurs peuvent voir de quoi l’IA a tiré ses informations. Grok est censé être alimenté par les bases de données de Twitter.
Les personnes intéressées peuvent télécharger le code de Grok sur sa page Github ou via un lien torrent.
Le lancement de Grok mettra probablement la pression sur tous les autres fournisseurs de chatbots. Ils devront justifier leur prix et leurs capacités comme étant meilleurs que l'algorithme gratuit de Musk.
À titre de comparaison, l'IA bulgare BgGPT est également open source Apache License 2.0. Il est basé sur le modèle Mistral-7B, mais a été spécialement formé à l'aide de données en langue bulgare. Mistral-7B possède 7 milliards de paramètres, mais surpasse toujours le modèle Llama 2 de Meta.