OpenAI ouvre ce soir le bal des annonces d’IA, qui durera un mois • DrEureka permet à GPT-4 d’entraîner des robots • Deutsche Bank part à l’assaut contre Tether • Mistral cherche 600 millions • Bienvenue dans Qant, lundi 13 mai 2024.
« Le progrès est devant nous, à condition de dépasser sa propagande » Paul Virilio
Chaque jour, les journalistes de Qant illustrent les tendances de fond qui animent la tech. Ils s’appuient sur Kessel Média et utilisent l’IA générative depuis mars 2022.
“L’intelligence artificielle ultime” (Qant, M. de R. avec Midjourney)
À la veille du livestream d’OpenAI, prévu ce soir (à l’heure de Paris), les spéculations sur la nature de l’annonce ont atteint le point d’ébullition. Elles tournent pour l’essentiel autour de la recherche.
Sam Altman et Greg Brockman, directeur général et président d’OpenAI, y sont allés de leurs démentis. L’annonce, prévue à l’origine la semaine dernière à San Francisco et la semaine prochaine à Paris – sans préjuger du reste du monde – ne concerne “ni GPT-5, ni un moteur de recherche”.
OpenAI a tenté d’allumer des contre-feux. Ainsi de la “fuite” d’un document interne qui envisage de permettre aux utilisateurs de créer du contenu pornographique avec Dall-e et Sora. Il en va de même, plus sérieusement, de la brève apparition sur la chatbot arena de LMSYS de trois modèles différents, tous extrêmement puissants, tous baptisés de variations sur le nom de GPT2, comme “Also-a-good-GPT2-chatbot”. Sans compter que tout le monde attend, depuis plusieurs mois, l’ouverture au public de Sora, décrit comme le modèle text-to-video le plus puissant que l’on ait jamais vu.
Rien n’y fait : le taureau a vu la muleta et il charge. La découverte d’une URL “search.chatgpt.com”, redirigée pour l’instant vers “chatgpt.com”, fait que tout Internet bruisse de spéculations sur l’entrée d’OpenAI dans la recherche générative.
À défaut d’un moteur de recherche, OpenAI peut présenter ce soir une nouvelle méthode de recherche, à l’instar de Perplexity AI et You.com, voire des agents de recherche. Pour The Information, il s’agira d’un assistant vocal, susceptible de reléguer dans un musée Siri et Alexa.
Cela cadrerait parfaitement avec un accord avec Apple, que l’agence Bloomberg donne comme quasiment acquis. Certes, il faudra sans doute pour cela qu’Apple renonce aux 18 milliards de dollars (16,2 milliards d’euros) que Google lui verse chaque année pour pouvoir proposer le moteur de recherche par défaut sur l’iPhone. Mais il se pourrait bien que le juge antitrust ne l’y contraigne de toute manière – l’audience finale a eu lieu la semaine dernière. Et surtout, continuer d’accumuler du retard sur l’IA coûterait bien plus cher au colosse de Cupertino. Après le lancement désastreux, la semaine dernière, d’un iPad pourtant très abouti, Apple ne semble plus avoir d’autre choix que de passer par les fourches caudines d’OpenAI.
Les annonces s’échelonneront jusqu’en juin : ce soir, OpenAI ; demain, Google ; la semaine prochaine, peut-être Microsoft (et de nouveau OpenAI, mais en VF) ; le 10 juin, Apple. Un tel concert conduira sans doute Amazon, Salesforce et X-Twitter à donner également de la voix.
Dans la substance, tout ce tintamarre californien devrait accompagner l’apparition des premiers agents d’IA logés dans des smartphones, et non dans des appareils indépendants, comme le R1 de Rabbit et le AI Pin de Humane (qui ont reçu l’accueil des pionniers, trop enthousiaste puis injustement défavorable). Outre cette “agentivité” et les problèmes de sécurité qui l’accompagnent, il faudra juger des annonces sur cinq critères : la fiabilité, la multimodalité, la personnalisation, le raisonnement et la robotique.
L’INTÉGRALITÉ DE CE DOSSIER EST DISPONIBLE EN FIN DE LETTRE
Grâce à DrEureka, GPT-4 peut désormais entraîner des robots dans un environnement virtuel avant de les lancer sans autre entraînement dans le monde réel : un zero-shot sim-to-reality. DrEureka (pour Domain Randomization Eureka) se base sur la plateforme de Nvidia éponyme, qui permet de transférer des compétences complexes à un robot via un LLM (lire Qant du 24 octobre 2023).
Une équipe de chercheurs principalement issus de l'université de Pennsylvanie a ainsi entraîné le Unitree Go1 de Unitree Robotics, un robot quadrupède vendu moins de 6 000 euros, à marcher en équilibre sur un ballon de yoga.
L’entraînement par LLM offre une meilleure robustesse et performance dans des conditions réelles qu’un entraînement humain. Les chercheurs ont mis en évidence la capacité de DrEureka d’ajuster les paramètres physiques comme la friction et la gravité, ce qui permet d'affiner les simulations pour mieux correspondre aux conditions du monde réel.
Pour en savoir plus :
Mistral veut souffler plus fort • Tout comme pour X.AI (lire Qant du 29 avril), les indiscrétions se multiplient sur la prochaine levée de fonds de Mistral AI. La pépite française serait valorisée 6 milliards de dollars (5,57 milliards d'euros), soit le triple de sa valorisation en décembre (lire Qant du 11 décembre 2023). C’est le Wall Street Journal qui vient confirmer une information déjà avancée mi-avril par The Information (lire Qant du 19 avril). DST, General Catalyst et Lightspeed Venture Partners envisageraient de participer à ce tour de financement, qui devrait atteindre jusqu'à 600 millions de dollars (557 millions d'euros). SoftBank, souvent mentionnée, ne serait en revanche pas impliquée dans ce tour de financement.
Pour en savoir plus: Wall Street Journal, Techcrunch
AlphaFold fait peau neuve • Google DeepMind a lancé la semaine dernière AlphaFold 3, une version améliorée de son modèle d'IA capable de prédire la structure de l'ADN, de l'ARN, ainsi que d'autres molécules essentielles à la vie. Ce modèle offre une précision de prédiction améliorée de 50 % par rapport aux versions antérieures. AlphaFold 3 est déjà utilisé par Isomorphic Labs pour des projets de découverte de médicaments et est disponible pour les chercheurs via AlphaFold Server pour des utilisations académiques non commerciales.
Pour en savoir plus: The Verge
TikTok pointe l’IA du doigt • TikTok annoncera désormais les contenus générés par intelligence artificielle provenant d'outils externes à son application, et appliquera une étiquette à l'aide de la technologie Content Credentials. L'entreprise a également précisé que tout contenu d'IA réaliste non étiqueté serait retiré pour non-respect des lignes directrices de la communauté.
Pour en savoir plus: Reuters
Apple passe son M2 • Apple souhaite utiliser ses puces M2 Ultra dans des serveurs cloud pour traiter des requêtes complexes en intelligence artificielle, tout en maintenant les tâches simples sur les appareils, selon les informations de Bloomberg. Ce déploiement s'inscrit dans le cadre du projet ACDC (Apple Chips in Data Center), qui vise à garantir sécurité et confidentialité grâce à l'utilisation de processeurs déjà existants jugés suffisamment sécurisés. Les puces seront installées dans les centres de données d'Apple et, à terme, dans des serveurs gérés par des tiers.
Pour en savoir plus: Bloomberg, The Verge
Deutsche Bank fait chorus contre Tether • Après les attaques de JP Morgan contre Tether (lire Qant du 5 février), Deutsche Bank vient de présenter un rapport qui suggère que les stablecoins, y compris l'USDT de Tether, pourraient connaître un effondrement similaire à celui de TerraUSD en 2022. Selon Deutsche Bank, près de la moitié des devises à parité fixe échouent au bout de huit à dix ans depuis le XIXème siècle. Le rapport dénonce particulièrement le manque de transparence de Tether concernant ses réserves et il qualifie sa solvabilité de « douteuse ».
Pour en savoir plus: Deutsche Bank, Cointelegraph
A Hong Kong, la tokenisation fait communauté avec la monnaie numérique • L'Autorité monétaire de Hong Kong a annoncé la création de la "Project Ensemble Architecture Community", un groupe de travail dédié au développement de standards pour la tokenisation, notamment pour l'utilisation de la monnaie numérique de banque centrale en gros. Ce groupe vise à soutenir l'interopérabilité entre la monnaie numérique en gros, la monnaie tokenisée et les actifs tokenisés, avec un focus initial sur la mise en place d'un mécanisme pour le règlement interbancaire des dépôts tokenisés via la monnaie numérique.
Pour en savoir plus: The Block
En exclusivité pour les abonnés :
Face à la multitude d’annonces de services et de modèles d’IA, il est possible de gérer de leur réelle innovation sur la base de six critères : l’agentivité, la fiabilité, la multimodalité, la personnalisation, le raisonnement et la robotique.
Premier volet d’un dossier complet, sous la forme d’une analyse des options stratégiques et technologiques qui s’offrent à OpenAI.
“L’intelligence artificielle ultime” (Qant, M. de R. avec Midjourney)
Ce soir, OpenAI ne lancera pas GPT-5, même si en un an plusieurs modèles ont atteint les performances de GP-4 : Gemini 1.0 Ultra et Gemini 1.5 Pro de Google, Claude 3 Opus d’Anthropic et Llama3 400B de Meta, pour ses résultats préliminaires. Le plus probable reste que GPT-4.5 soit lancé à l’été, avec des informations à jour jusqu’en juin 2024, comme l’indiquait une fuite de documents au mois de mars. Quant à GPT-5, ne sait quand reviendra, à Pâques ou à la Trinité.
Deux raisons sont possibles à ce train de sénateur, auquel l’IA et surtout OpenAI ne nous ont pas habitués.
Il se peut que les grands modèles de langage aient atteint un plateau, et que l’augmentation des performances passe désormais par les jeux synthétiques d’entraînement, qui font la force de Llama 3, plutôt que par les mélanges d’experts et par le nombre de paramètres, qui ont porté GPT-4 et de nombreux modèles, jusqu’à Mixtral 8×7 B, le produit phare du champion français.
Cependant, la bataille des modèles de fondation n’est pas terminée, comme le montre la brève apparition des GPT2 dans LMSYS, détaillée dans la vidéo ci-dessous.
Mais les qualités attendues des modèles intègrent plus que des performances : qu’il s’agisse d’embarquer l’IA dans un agent ou un robot, de la personnaliser ou de la rendre plus fiable, d’améliorer la fiabilité des résultats générés ou la qualité de son raisonnement, les critères sont en train de changer.
Il est donc dans l’intérêt d’OpenAI de laisser la possibilité de GPT-5 planer comme une menace sur ses concurrents tout en remplaçant progressivement l’intelligence artificielle générale (AGI) par des concepts technologiquement plus fructueux. Et d’annoncer ce soir quelque chose de plus marquant que GPT-4.5, d’autant que la marque GPT enferme OpenAI dans une sorte de “piège autorégressif” : il n’est pas du tout certain que l’architecture des transformateurs génératifs pré-entraînés (le sens de l’acronyme GPT) soit adaptée à donner à l’IA la capacité de raisonner ou de prendre des décisions en fonction des instructions de l’utilisateur, “l’agentivité”.
Or, il s’agit là de deux des principales évolutions qui se préparent dans l’IA. On peut en citer encore quatre :
La personnalisation et la fiabilité : pour combattre les hallucinations, le marché a trouvé une solution, la génération assistée de la recherche (RAG). Avec Gemini 1.5, Google propose des prompts qui peuvent s’élever jusqu’à un million de tokens. Les deux solutions préparent l’utilisateur à une forme de recherche générative. Celle-ci bénéficie du jeu d'entraînement du modèle, mais elle privilégie le fonds documentaire de l’utilisateur, qu’il s’agisse de texte, de photos, de sons, de vidéos. Et elle peut bien sûr s’étendre à l’ensemble d’Internet. C’est sur ce point que se sont concentrées les rumeurs avant l’annonce (lire ci-dessus). Et c’est ce qu’indique Sam Altman quand il qualifie le search de “boring”: une recherche générative personnalisée de qualité, via un agent vocal, fait bien plus rêver que simplement contester le monopole de Google. L’échec de Bing a montré que l’intégration de l’IA à la recherche sur Internet ne suffit pas, par elle-même, à créer une nouvelle donne.
La multimodalité : tout comme GPT-4 Vision a été intégré à GPT-4, il est probable que Sora et Whisper (ou son successeur pour la synthèse vocale et la musique) seront lancés indépendamment, puis intégrés à GPT-5, quel que soit le nom qui lui sera attribué.
L’IA embarquée : de la santé à la voiture autonome, GPT-4 est déjà en train de prendre sa place dans tous les robots. Ses successeurs, dotés de capacités de raisonnement et d’agentivité, trouveront dans la robotique autonome le moyen naturel d’interagir avec le monde réel.
Nous reviendrons demain sur le live d’OpenAI, ainsi que sur l’état de l’art de l’IA dans ces six axes d’évolution.
Pour en savoir plus:
...