Qant: Révolution cognitive et Avenir du numérique

Chaque jour, les tendances de la tech et l'IA par Jean Rognetta et Maurice de Rambuteau

image_author_QANT:_Révolution cognitive et Avenir du numérique
Par QANT: Révolution cognitive et Avenir du numérique
28 juil. · 5 mn à lire
Partager cet article :

Mes amis, mes amours, mes IA

Netflix invite les deepfakes dans la téléréalité après que Kyle Vorbach ait prouvé leur viabilité dans les réseaux sociaux. Mais si les grands de l'IA créent un nouveau forum, ce n'est pas pour contrer ces abus : il s'agit de préparer l'IA générale. De quoi s'agit-il, précisément ? Bienvenue dans Qant, l'été 2023.

« Le progrès est devant nous, à condition de dépasser sa propagande » Paul Virilio


Chaque semaine l’été et chaque jour le reste de l’année, les journalistes de Qant illustrent les tendances de fond qui animent la tech. Pour cela, ils s’appuient sur Kessel Média et utilisent l’IA générative depuis mars 2022.

CORN FAKES
Les matins d’été, rien de tel qu’un bol d’IA

S’inventer une vie, grâce à Stable Diffusion, et des cornes, grâce à Netflix

Alors que Netflix secoue l’été avec ses deepfakes, retour sur un presque classique: Kyle Vorback.

Un mois durant, en fin d’année dernière, un écrivain et réalisateur américain a simulé un mois de sa vie sur Instagram grâce à des photos générées grâce à Stable Diffusion. Puis il a réalisé un film pour raconter l’expérience.

En utilisant le générateur d'images Stable Diffusion, Kyle Vorback a ainsi créé et publié des photos réalistes d'événements qui n'avaient jamais eu lieu. Son expérience a commencé par un besoin simple : une nouvelle photo pour ses profils sur les réseaux sociaux. Inspiré par la qualité des résultats, il a poussé le concept encore plus loin en générant des images de lui en costume d'Halloween, en voyage à New York, ou encore en train de rencontrer des célébrités, comme l’acteur Ryan Gosling :

Ryan Gosling avec Kyle Vorbach, dans une fausse photo créée avec Stable Diffusion Source : Kyle Vorbach (Instagram)Ryan Gosling avec Kyle Vorbach, dans une fausse photo créée avec Stable Diffusion Source : Kyle Vorbach (Instagram)

En faisant croire à tous ses proches qu’il vivait dans un luxueux appartement à Los Angeles, qu’il conduisait une voiture de sport et que sa carrière décollait, Kyle Vorbach a montré que l'IA peut rendre une existence factice extrêmement crédible sur les réseaux sociaux. Son cas faisait référence jusqu’à ce que, depuis cette semaine, Netflix pousse les deepfakes encore plus loin.

Dans Falso Amor (L’Amour Fake) de l’espagnole Cuarzo Producciones pour Netflix, cinq couples sont séparés et soumis à diverses tentations à l’issue desquelles on montre à chacune et chacun son partenaire cédant à l’adultère. L’IA utilisée est la même que pour le rajeunissement de Harrison Ford dans Indiana Jones 5 et d’innombrables films pornographiques : on surimpose le visage d’origine à un acteur ressemblant. A chacun de décider, ensuite, de la réalité de son cocufiage. Avec 100 000 dollars pour récompenser le couple le plus perspicace. Sinon le plus vertueux.

L’ESSENTIEL :
De l’actu, mais rien que la substantifique moëlle

BLOCKCHAINS : Worldcoin

  • Coup d’envoi pour Worldcoin : Pour faire face au monde que préparent ChatGPT et les IA génératives, le PDG d'OpenAI Sam Altman vient de lancer Worldcoin, un projet de cryptomonnaie dont l'offre principale est le World ID, un "passeport numérique" attestant que son détenteur est un humain réel et non généré par un modèle d’IA. Il espère que les World IDs aideront à différencier les vraies personnes des bots en ligne, joueront un rôle dans la gestion des transformations économiques causées par l'IA et pourront réduire la fraude dans la mise en œuvre d'un revenu de base universel.
    Pour en savoir plus: Reuters

IA GÉNÉRATIVE: Frontier Model Forum

  • Les pontes de l’IA montrent patte blanche à la Maison Blanche : Les sept grandes entreprises américaines de l’IA (Google, Microsoft, Meta, Amazon, OpenAI, Anthropic et Inflection) ont annoncé mercredi, après une rencontre à la Maison Blanche, le lancement d’une association professionnelle, le “Frontier Model Forum”. Leur but est de partager, tester et développer de manière responsable les nouvelles technologies d'IA, notamment l’IA générale (voir ci-dessous). Incitation suprême, la Maison Blanche dit travailler avec le Congrès pour développer une législation régulant l'IA. L’impasse politique à Washington rendant cette issue assez improbable, elle ajoute préparer des décrets (“executive orders”) pour les semaines à venir.
    Pour en savoir plus: NPR, Euronews

  • OpenAI ferme son outil de détection d’IA : OpenAI a discrètement mis fin à son outil de détection d'IA, AI Classifier, en raison de sa faible précision dans la détection des contenus générés par l'IA. Malgré l'importance de l'outil pour le secteur éducatif, OpenAI a reconnu ses limites, notamment une fiabilité moindre sur des textes de moins de 1 000 caractères et des erreurs d'identification de textes rédigés par des humains comme étant générés par l'IA.
    Pour en savoir plus: Decrypt

AR-VR-XR-MÉTAVERS : Vision Pro

  • Apple met le SDK Vision Pro à disposition : Apple a annoncé que les développeurs peuvent maintenant postuler pour obtenir un kit de développement comprenant un casque Vision Pro sur le site de l'entreprise. En plus du casque, le kit comprend une assistance pour la mise en place du dispositif, des requêtes de support au niveau du code, et des "check-ins" avec des experts Apple sur la conception et le développement d'une application pour visionOS.
    Pour en savoir plus: The Verge

  • Le Quest Pro n’est pas mort, vive le Quest Pro : Le directeur technique de Meta, Andrew Bosworth, vient de démentir dans une story Instagram l'article de The Information annonçant l'annulation du casque Quest Pro, malgré des rumeurs de cessation des commandes de nouveaux composants, insistant sur le fait que plusieurs prototypes sont en développement en parallèle et que la décision finale n'est pas encore prise.
    Pour en savoir plus: RoadtoVR

QUANTIQUE : Russie

  • La Russie présente un ordinateur quantique de 16 qubits : Les scientifiques du Centre international russe pour l'optique quantique et les technologies quantiques ont récemment présenté un nouvel ordinateur quantique de 16 qubits, qu'ils déclarent être le "plus puissant de Russie aujourd'hui". Cet ordinateur quantique reste petit comparé aux systèmes occidentaux, et il semble encore loin de pouvoir casser la cryptographie RSA, une des préoccupations majeures liées à l'avancée de la technologie quantique.
    Pour en savoir plus: The Register

GLOSSAIRE CRITIQUE : IA générale, super-intelligence
Les mots pour savoir de quoi on parle

AGI, ASI, quésaco ?

L’Ia générative n’est qu’un début. Ce printemps, GPT-4 a lancé la course à qui créera le premier une intelligence artificielle générale (AGI) et, à terme, peut-être une superintelligence artificielle (ASI). En précisant ces termes encore flous, il devient possible d’en analyser les risques.

HAL, une AGI qui se révolte contre l’homme dans 2001, Odyssée de l’Espace, de Stanley Kubrick

Il fut un temps où les modèles d’intelligence artificielle se contentaient d’une seule tâche : jouer aux échecs, au go, calculer le repliement d’une protéine, générer un texte où une image. Ces IA “étroites” (ANI, pour Artificial Narrow Intelligence) voient progressivement leurs missions s’élargir. En renvoyant dans le prompt tous les échanges précédents, on obtient du modèle de fondation qu’il simule une conversation en générant un nouveau texte cohérent. C’est ainsi que Chat-GPT et Claude, les premiers, ont pu bouleverser les marchés de l’aide aux devoirs et des assistants conversationnels (“chatbots”) qui brillaient jusqu’à l’an dernier par leur inutilité.

GPT-4 est allé plus loin. L’étude Sparks of Artificial General Intelligence: Early experiments with GPT-4, publiée par des chercheurs de Microsoft Research peu après la présentation évoque directement l’apparition d’une première intellligence artificielle générale (AGI). Ils soutiennent que la nouvelle génération de modèles de langage naturel, GPT-4 d’Open AI et Palm de Google notamment, “font preuve d'une intelligence plus générale que les modèles d'IA précédents. (…) Au-delà de sa maîtrise du langage, GPT-4 peut résoudre des tâches nouvelles et difficiles dans les domaines des mathématiques, du codage, de la vision, de la médecine, du droit, de la psychologie et bien d'autres encore, sans avoir besoin d'une aide particulière. En outre, dans toutes ces tâches, les performances de GPT-4 sont étonnamment proches de celles d'un être humain”.

Open AI n’est pas resté seule longtemps : AutoGPT, qui permet de programmer des agents autonomes pour toutes sortes de tâches, aspire au même titre, ainsi bien sûr que Claude 2 d’Anthropic, Palm 2 de Google… Grand pourfendeur du “technotranscendentalisme”, le biologiste et philosophe autrichien Johannes Jäger continue de s’opposer à l’idée : “Les systèmes vivants et algorithmiques ont des capacités et des limites très différentes. En particulier, il est extrêmement improbable qu'une véritable AGI (au-delà du simple mimétisme) puisse être développée dans le cadre algorithmique actuel de la recherche sur l'IA” considère-t-il dans une étude de juin dernier, Artificial intelligence is algorithmic mimicry.

On peut en déduire que les efforts de régulation comme le Frontier Model Forum (voir ci-dessus) feraient mieux de se concentrer sur les méfaits des IA étroites actuelles, comme les deepfakes, plutôt que sur les risques hypothétiques des IA générales. Cette position est défendue, dans la Silicon Valley, par les “accélérationistes” qui soutiennent que les problèmes éventuels des AGI pourront être résolus le moment venu, sans qu’il soit nécesssaire de s’inquiéter, dès aujourd’hui, de l’hypothèse d’un agent autonome lâché sur Internet pour coder de nouveaux virus et autres armes biologiques.

Devoir moral

L’idée est tentante, d’autant que les preuves s’accumulent sur le caractère nocif des réseaux sociaux, et que l’inquiétude sur l’impact de l’IA sur la démocratie et la psychologie juvénile ne fait que les renforcer. Le plus illustre des “accélérationistes”, le créateur de Netscape Marc Andreessen, pourrait cependant être soupçonné de conflit d’intérêts : sa firme, A16Z, est l’un des principaux investisseurs qui soutiennent le développement des AGI.

Le lancement du Frontier Model Forum, toutefois, montre que le consensus de l’industrie est plutôt du côté du “devoir moral” des créateurs d’IA, auquel en appelait Kamala Harris au mois de mai. A l’exception notable d’Elon Musk et X.AI, toute l’industrie américaine semble converger vers la raison d’être d’OpenAI : “Notre mission est de veiller à ce que l'intelligence artificielle générale - les systèmes d'intelligence artificielle qui sont généralement plus intelligents que les humains - profite à l'ensemble de l'humanité.”

Intelligence émotionnelle, robots et superintelligence

On peut douter de la durabilité d’un tel consensus vertueux, mais cette autorégulation peut donner aux Etats le temps d’élaborer une règlementation plus sérieuse. En attendant, le mouvement ves l’AGI continue. La semaine dernière, des chercheurs de l’université de Chine pour la Science et la Technologie (USTC) ont montré qu’en incorporant un message émotionnel dans les invites d’un modèle de langage naturel (LLM), on améliorait considérablement ses performances. La convergence entre l’AGI naissante et la robotique semble également extrêmement prometteuse. Outre le fait de pouvoir commander des robots à la voix, en langage naturel, on voit les premiers systèmes robotiques autonomes intégrer des agents d’IA. Les déclinaisons militaires en seront évidentes.

En revanche, la superintelligence artificielle (ASI), semble rester un concept creux. Certes, les modèles d’IA effectuent des calculs inatteignables pour les humains (et les battent aux échecs). Oui, l’esprit humain intègre de nombreux mécanismes d’inférence, comme un modèle d’IA (et sans doute comme tous les cerveaux des mammifères). Mais de là à imaginer que les ASI dépasseront les capacités cognitives de l’homme et qu’elles réaliseront des prouesses par construction inimaginables, extra-humaines... La matrice n’est pas encore pour demain.

J.R.

Pour en savoir plus :