xAI dirigé par Elon Musk lance Grok AI en Inde et dans d'autres pays
Larry Ellison d'Oracle a déclaré qu'Elon Musk souhaitait davantage de puces Nvidia pour alimenter le premier modèle d'IA générative de xAI, Grok, mais la société n'a pas répondu à ses demandes.
La startup d'intelligence artificielle (IA) dirigée par Elon Musk, xAI, met son premier chatbot génératif alimenté par l'IA, Grok, à la disposition des utilisateurs en Inde.
Outre l'Inde, xAI a annoncé que Grok AI serait disponible dans 46 autres pays, dont Singapour, la Nouvelle-Zélande, la Malaisie, le Canada et l'Australie, moins d'une semaine après son arrivée aux États-Unis.
Actuellement, Grok AI est disponible pour les abonnés X Premium+. Pour ceux qui ne le savent pas, Premium+ est le premier niveau d'abonnement de X (anciennement Twitter).
Plus tôt ce mois-ci, X a déclaré que l'accès au chatbot IA était déployé de manière progressive. En d'autres termes, la société a accordé un accès anticipé aux abonnés de longue date sur le Web, iOS et Android.
"Grok honore désormais le monde dans encore plus de pays, diffusant connaissances et rires partout. L'avenir s'annonce déjà plus prometteur", a annoncé Linda Yaccarino, PDG de X, dans un message.
En quoi Grok AI est-il différent des autres chatbots basés sur l'IA ?
Dans un message d'annonce en novembre, xAI a déclaré que Grok était conçu pour " répondre aux questions avec un peu d'esprit " et avait un " côté rebelle ".
xAI a déclaré que Grok répondrait aux questions actuellement rejetées par d'autres chatbots IA. En outre, la société a noté que, contrairement à ses concurrents, Grok aura accès à des informations en temps réel grâce aux données de X.
Cependant, xAI a récemment été accusé d'utiliser la base de code d'OpenAI pour former Grok AI. La société d'IA de Musk, quant à elle, affirme que Grok est basé sur son modèle de langage étendu (LLM) exclusif connu sous le nom de Grok-0.
De plus, xAI indique que Grok-0 est formé avec 33 milliards de paramètres et peut surpasser ChatGPT sur la base du modèle de langage GPT 3.5 (version gratuite). Peu de temps après son déploiement auprès des utilisateurs aux États-Unis, Grok s'est retrouvé dans plusieurs controverses.
Par exemple, Grok n'a pas déçu lorsqu'on lui a demandé de rôtir du musc. Selon le propre chatbot de Musk, il s'agit d'une " fleur délicate ".
Grok a également remis en question de nombreuses actions de Musk, notamment son obsession pour X. De plus, Grok ne s'aligne pas sur les opinions politiques de Musk.
Alors que le robot IA répond actuellement à la plupart des questions politiques sur le même ton que les autres robots IA, Musk a précédemment déclaré que xAI " prenait des mesures immédiates pour rapprocher Grok de la neutralité politique ".
Exécuter Grok AI nécessite beaucoup de puissance
Pendant ce temps, un rapport de Business Insider a mis en lumière le plan initial de Musk pour Grok AI. Selon Larry Ellison, directeur de la technologie d'Oracle, xAI de Musk voulait plus de puces Nvidia pour son chatbot IA qu'Oracle ne pouvait en fournir.
Le titre Nvidia a plus que triplé en 2023 puisque les investisseurs estiment que le spécialiste des puces graphiques jouera un rôle clé dans la révolution de l'intelligence artificielle.
Ellison a récemment déclaré que Musk faisait partie de ceux qui ne se lassaient pas des semi-conducteurs de Nvidia. Notamment, Grok utilise actuellement les serveurs d'Oracle pour fonctionner.
Bien qu'il ait été en mesure de fournir suffisamment de puces Nvidia pour alimenter la première version de Grok, le géant de l'infrastructure cloud n'a par la suite pas répondu aux demandes de Musk, a déclaré Ellison lors du dernier appel aux résultats d'Oracle, selon une transcription fournie par AlphaSense/Sentieo.
"Bon sang, voulaient-ils beaucoup plus de GPU que ce que nous leur avons donné. Nous leur en avons donné un certain nombre mais ils en voulaient plus, et nous sommes en train d'en obtenir davantage", a déclaré le cofondateur milliardaire d'Oracle.
"Ils ont pu l'utiliser, mais ils en veulent beaucoup plus, car il y a cette ruée vers l'or pour construire le plus grand modèle linguistique au monde", a-t-il ajouté.
Ellison, qui est l'un des principaux actionnaires de Tesla, a ajouté que l'entreprise ne ménageait aucun effort pour offrir à ses clients ce qu'elle pouvait ce trimestre :
Il a également noté qu'Oracle se prépare à augmenter considérablement sa capacité à offrir à ses clients " de plus en plus de capacité chaque trimestre suivant ".
Répondant à la question d'un analyste de Wall Street sur les projets d'Oracle de construire 100 nouveaux centres de données cloud, contre 66 aujourd'hui, Ellison a révélé que Microsoft à lui seul avait commandé vingt centres de données pour prendre en charge sa plate-forme de cloud computing Azure.
En outre, l'entreprise souhaite construire davantage de centres de données cloud pour répondre aux demandes de ses clients directs, a ajouté le haut dirigeant.
Entre-temps, Musk a acheté 10 000 processeurs graphiques pour xAI, selon un précédent rapport de Kali Hays de Business Insider.
"Nous utilisons beaucoup de matériel Nvidia. En fait, nous le prendrons aussi vite qu'ils nous le livreront. Franchement, s'ils pouvaient nous fournir suffisamment de GPU, nous n'aurions peut-être pas besoin de Dojo. Mais ils ne le peuvent pas. Ils ont tellement de clients", a déclaré Musk lors d'une conférence téléphonique sur les résultats en juillet.
© Copyright 2024 IBTimes UK. All rights reserved.