« Le progrès est devant nous, à condition de dépasser sa propagande » Paul Virilio
Intelligence artificielle : les ordres de marche du Pentagone
L’un des derniers actes de l’administration Biden aura été de mobiliser l’administration fédérale, notamment le Pentagone et les agences de renseignement, pour préserver la domination stratégique américaine dans l’IA.
Un cadre pour l’IA américaine • Qant, M. de R. avec Midjourney
Les entreprises américaines ont beau dominer sans rivales l’IA et la tech, les États-Unis s’inquiètent de la manière de maintenir leur avance et d’éviter toute surprise stratégique, venue par exemple de Chine. À quelques jours de l’élection présidentielle, l’administration Biden accélère la mise en œuvre du décret exécutif de l’an dernier (lire Qant du 31 octobre 2023) sur le développement sûr et fiable de l'intelligence artificielle.
Dans la nuit de lundi à mardi, le département du Trésor a resserré les sanctions sur le transfert de technologie et l’investissement en Chine. En fin de semaine dernière, un mémorandum et un “framework” ont précisé au Pentagone et aux agences de renseignement les règles à suivre. Le mémorandum souligne également l'importance de la gouvernance de l'IA et de la gestion des risques, notamment pour protéger les droits de l'homme, les libertés civiles et la vie privée. Il propose un cadre pour une gouvernance responsable de l'IA et met en avant la nécessité de développer des normes internationales pour l'IA.
De quoi nourrir le sommet de Paris, en février prochain. Surtout si Kamala Harris, qui avait participé au sommet de Bletchley Park (lire Qant du 6 novembre 2023), sort gagnante des urnes la semaine prochaine.
Apple Intelligence fait ses débuts – mais pas en Europe
Apple Intelligence, les fonctionnalités d’IA intégrées dans iOS 18, est désormais disponible sur les iPhones, iPads et Macs. Parmi les premières fonctions accessibles, on trouve des outils de rédaction, des résumés de notifications, et un outil de nettoyage dans Photos pour retirer des éléments indésirables. L’intégration de ChatGPT dans Siri et la reconnaissance d’objets autour de l’utilisateur sont attendue en décembre.
Siri adopte une nouvelle apparence et permet désormais des entrées de texte, mais ses capacités “agentiques” sur les applications ne sont pas attendues avant 2025, ainsi que la disponibilité internationale.
À SURVEILLER 1 : La recherche vocale. Le média Android Authority a repéré dans un Android Package (APK) les premières bases du futur modèle IA de recherche vocale à partir d’un téléphone. De quoi permettre aux téléphones Android de se mesurer aux futures fonctionnalités de Siri. Mais probablement pas en Europe, isolée dans un bras de fer avec presque tous les grands acteurs de l’IA.
À SURVEILLER 2 : Le bras de fer européen. Tout comme la recherche générative de Google (lire ci-dessous), les lunettes Meta Ray-Ban et le modèle open source Llama 400B (lire Qant du 19 juillet), Apple Intelligence ne sera pas déployée dans les pays de l’Union Européenne. Seul les téléphones Samsung et Gemini Nano sur Android donnent aux Européens un avant-goût de ce que sera l'an prochain l’industrie de la téléphonie mobile, qu’ils dominaient a début du siècle.
Google, Meta
Les AI Overviews de Google s’exportent – mais pas en Europe • Google étend cette semaine ses résumés de recherche générés par IA, appelés AI Overviews, à plus de 100 pays, y compris le Canada, l’Australie, la Grande-Bretagne, l’Afrique du Sud, le Chili, et le Nigéria, mais pas l’Europe. Cette fonctionnalité, disponible dans plusieurs langues comme l’anglais, le portugais, et le japonais, s’accompagnera d'annonces publicitaires aux États-Unis uniquement, alors que dans les autres régions, les annonces resteront dans des emplacements dédiés sur la page de recherche. En savoir plus…
Meta veut entrer à son tour sur le marché de la recherche générative – mais pas en Europe • En partenariat avec Reuters, Meta développe un moteur de recherche générative, qui pourra tenir des conversations sur l’actualité avec l’utilisateur , selon The Information. Meta AI est accessible sur tous les réseaux du groupe et via les lunettes Meta Ray-Ban partout dans le monde, sauf en Europe. Les fonctionnalités de recherche vocale comme celle de Siri et de Google (lire ci-dessus) seront cruciales pour le développement futur de ses lunettes, Meta Ray-Ban et Orion En savoir plus…
18 ans de prison pour des fakes IA d’enfants • Un Britannique de 27 ans, Hugh Nelson, a été condamné à 18 ans de prison pour avoir utilisé des outils d'IA afin de générer et vendre des images d'abus sexuels sur enfants, selon The Guardian. Nelson, qui utilisait le logiciel DAZ 3D pour transformer des photos réelles d'enfants, a été arrêté après avoir tenté de vendre du contenu à un policier infiltré ; sa condamnation marque la première poursuite de ce type au Royaume-Uni. En savoir plus…
La pression de la livre numérique sur les banques anglaises
Le gouverneur de la Banque d'Angleterre, Andrew Bailey, a affirmé que la banque centrale se prépare à lancer une livre numérique pour les paiements de détail, à moins que les banques commerciales ne progressent dans l'innovation en matière de paiements, notamment pour les transactions transfrontalières.
La Banque d'Angleterre mène de front des études sur la livre numérique et les dépôts tokenisés. À la différence de la BCE, aucun pilote n’a encore été lancé.
À SURVEILLER : Le retard britannique. Le développement des monnaies numériques est largement porté par la Chine, l’Europe et la Russie. Mais tous les autres grands pays anglophones, le Canada, l’Australie, la Nouvelle-Zélande et les États-Unis, ont du moins passé le stade de la recherche pour arriver à la preuve de concept. Les déclarations du gouverneur montrent une volonté nouvelle d’éperonner les banques de la City, dans un contexte politique nouveau.
Donald Trump, Tether
Un stablecoin pour Donald Trump • World Liberty Financial (WLF), le projet crypto de Donald Trump, travaille au développement de son propre stablecoin adossé au dollar américain, selon le média Decrypt. Pour ce faire, après avoir lancé un jeton natif début octobre, WLF a recruté Rich Teo, cofondateur de Paxos. En savoir plus…
Tether proteste de son innocence • Le CEO de Tether, Paolo Ardoino, a déclaré que l'entreprise n'avait aucun signe d'une enquête en cours, en réponse aux informations du Wall Street Journal selon lesquelles les autorités américaines examineraient des violations potentielles des règles de sanctions et de lutte contre le blanchiment d’argent par Tether. En savoir plus…
Un robot pour une nouvelle galénique
À Singapour, des chercheurs ont développé un nouveau robot millimétrique capable de transporter et libérer plusieurs médicaments à des endroits précis du corps, sous le contrôle de champs magnétiques. Les premières études de biocompatibilité sont favorables.
Des chercheurs de l'université technologique de Nanyang (NTU) à Singapour viennent de donner une nouvelle impulsion au projet de “gélules robots”, des micro-robots capables de se déplacer au sein du corps humain pour aider au diagnostic ou à la galénique : déposer des médicaments au cœur même de la zone malade. C’est le cas du robot singapourien, de la taille d'un grain de riz, capable de transporter et de délivrer plusieurs types de médicaments dans différentes parties du corps humain avec une grande précision. Ce robot, composé de matériaux magnétiques et de polymères biocompatibles, peut être guidé par des champs magnétiques pour atteindre des cibles précises dans l'organisme et y libérer des traitements de manière contrôlée.
EN EXCLUSIVITÉ POUR LES ABONNES :
• Face aux dérives potentielles, Washington établit des règles pour encadrer l'usage de l'IA dans les agences de sécurité.
• Un nouveau robot millimétrique guidé par magnétisme peut libérer des médicaments directement sur une zone malade.
Intelligence artificielle : Washington en ordre de marche
L’un des derniers actes de l’administration Biden aura été de mobiliser l’administration fédérale, notamment le Pentagone et les agences de renseignement, pour préserver la domination stratégique américaine dans l’IA.
Un cadre pour l’IA américaine • Qant, M. de R. avec Midjourney
L'administration Biden a publié en fin de semaine dernière un memorandum sur la Sécurité Nationale intitulé sobrement Memorandum on Advancing the United States’ Leadership in Artificial Intelligence; Harnessing Artificial Intelligence to Fulfill National Security Objectives; and Fostering the Safety, Security, and Trustworthiness of Artificial Intelligence.
Ce document, issu du décret exécutif de l’an dernier (lire Qant du 31 octobre 2023) sur le développement sûr et fiable de l'intelligence artificielle, représente à ce jour la stratégie la plus complète des États-Unis en matière de sécurité nationale et d'intelligence artificielle. Il s’adresse aux agences fédérales américaines, mais aussi aux entreprises privées et aux alliés.
Coopération internationale
Le mémorandum encourage en effet la coopération avec des alliés et des partenaires pour le développement et le déploiement conjoints de capacités d'IA. Le ministère de la Défense (DOD) est chargé d'évaluer la faisabilité de cette coopération et le Département d'État élaborera une stratégie pour la promotion de normes internationales de gouvernance de l'IA, en accord avec les valeurs démocratiques et les droits de l'homme.
Il la mettra sans doute en avant au sommet de Paris en février prochain, sous réserve de l’élection présidentielle. Même si celle-ci influencera évidemment la mise en œuvre de la stratégie de Biden, il s’agit ici, une fois de plus, d’engager les États-Unis le plus fermement possible dans des processus qu’un lunatique président Trump ne pourrait pas facilement renverser.
Loin d’une campagne électorale axée sur la déportation des immigrés, le mémorandum met l'accent sur l'attractivité des États-Unis pour les talents mondiaux en IA. Il ordonne de faciliter l'entrée et l'intégration de spécialistes étrangers dans le domaine de l'IA et des semi-conducteurs. Les forces de défense et les agences de renseignement doivent réformer leurs pratiques de recrutement pour attirer des talents provenant de l'industrie, du monde universitaire et de la société civile, américains ou étrangers.
Tester les gros poissons
Le mémorandum se concentre principalement sur les modèles d'IA de pointe : ceux d’OpenAI, Google, Meta et Anthropic, pour l’essentiel. Le mémorandum charge le National Institute of Standards and Technology (NIST), par l'intermédiaire de l'AI Safety Institute (AISI), de mener des tests de sécurité volontaires non classifiés avant le déploiement des modèles d'IA de pointe pour le compte du gouvernement américain. Ces tests évalueront notamment les risques liés à la cybersécurité, à la biosécurité, aux armes chimiques et à l'autonomie des systèmes.
La NSA, par l'intermédiaire de son AI Security Center (AISC), développera la capacité d'effectuer des tests secrets, rapides et systématiques de la capacité des modèles d'IA à détecter, générer et/ou exacerber les cybermenaces offensives.
Le ministère de l’Energie (DOE) se chargera de développer la capacité d'effectuer des tests rapides et systématiques de la capacité des modèles d'IA à générer ou à exacerber les risques nucléaires et radiologiques. L'infrastructure énergétique est identifiée comme un facteur clé, car l'IA devrait représenter une part importante de la consommation électrique nationale.
Systèmes nationaux de sécurité
Les agences de sécurité et les forces armées devront prendre en compte l'impact de l'IA sur le secret défense, en tenant compte de la capacité des systèmes d'IA à extraire des informations de données expurgées et anonymisées. Chaque agence concernée devra désigner un responsable de l'IA (Chief AI Officer), qui aura la charge de gérer l'utilisation de l'IA au sein de l'agence, de promouvoir l'innovation en matière d'IA et de gérer les risques liés à son utilisation. Des conseils de gouvernance de l'IA (AI Governance Boards) seront mis en place dans chaque agence. Composés des hauts responsables de l'agence, ils coordonneront et géreront les questions relatives à l'IA.
Le mémorandum met en place un cadre spécifique pour l'utilisation de l'IA sur les systèmes nationaux de sécurité (NSS). Ce cadre exige des agences qu'elles émettent ou mettent à jour des directives sur la gouvernance et la gestion des risques de l'IA pour les NSS, en harmonisant leurs directives dans la mesure du possible pour garantir l'interopérabilité. Un groupe de coordination sur la sécurité nationale de l'IA (AI National Security Coordination Group) sera formé. Composé des responsables de l'IA des différentes agences, ce groupe aura pour mission d'harmoniser les politiques relatives au développement, à l'accréditation, à l'acquisition, à l'utilisation et à l'évaluation de l'IA sur les NSS.
Washington pose le cadre
La Maison Blanche a publié en parallèle un "cadre pour faire progresser la gouvernance de l'IA et la gestion des risques dans le domaine de la sécurité nationale". Ce document établit des critères stricts pour limiter et encadrer les utilisations de l'intelligence artificielle dans les contextes de sécurité nationale, avec un accent sur le respect des droits civiques, de la vie privée et de la sécurité publique. Ainsi, certains cas d’utilisation sont totalement interdits, notamment les systèmes d’IA utilisés pour suivre ou profiler des individus en temps réel en violation de leurs droits constitutionnels. L’IA ne peut également pas être utilisée pour des classifications discriminatoires basées sur des données biométriques sensibles (origine ethnique, genre, orientation sexuelle, etc.) ni pour estimer les dégâts collatéraux sans supervision humaine. Ces restrictions visent à prévenir l’utilisation de l’IA pour des actions critiques sans une vérification adéquate, protégeant ainsi les droits civils et la sécurité des individus.
Les « cas d’utilisation à haut risque » regroupent les applications d’IA influençant des décisions majeures en matière de sécurité nationale, comme le suivi de cibles militaires ou l’identification d’individus suspects. Pour ces applications, des protocoles rigoureux sont requis, incluant une surveillance renforcée et une validation par des experts qualifiés. L’objectif est d'assurer que l'IA utilisée dans des contextes sensibles comme les décisions militaires se limite à des cas où le risque pour la sécurité publique est parfaitement maîtrisé et justifié.
Gestion des risques et suivi en temps réel des applications d’IA
Le document préconise des pratiques de gestion des risques pour les systèmes d’IA à fort impact. Avant tout déploiement, les agences doivent réaliser des évaluations de risque incluant la qualité des données et les impacts possibles d’un échec du système. Une série de tests en conditions réelles doit également être effectuée pour confirmer les performances et identifier les éventuelles failles. De plus, chaque application d'IA fait l'objet d'un inventaire annuel, dans lequel chaque cas d’utilisation est examiné et les risques recensés. Cette surveillance permet de garantir une utilisation de l’IA conforme aux objectifs de sécurité tout en préservant les droits des individus.
Afin de garantir l’intégrité des systèmes, les agences doivent documenter l’ensemble des processus et résultats, et assurer que les agents responsables de l’IA soient formés aux enjeux spécifiques de chaque application. Le rapport propose également la création de conseils de gouvernance de l’IA au sein des agences, dirigés par des responsables spécialisés, pour superviser les déploiements et assurer une application cohérente des mesures de protection.
Transparence, formation et responsabilité
Pour renforcer la transparence et maintenir la confiance publique, le document exige que les agences publient des rapports annuels sur leurs pratiques d’IA, incluant des données accessibles au public autant que possible. Par ailleurs, chaque agent impliqué dans le développement ou l’utilisation de l’IA devra suivre une formation spécifique, incluant une sensibilisation aux risques liés aux biais potentiels et à la surdépendance aux systèmes automatisés. L’idée est de former des utilisateurs informés et capables de prendre du recul face aux décisions automatisées, ce qui réduit les risques de « biais d’automatisation ».
Le cadre prévoit également des mécanismes de responsabilité renforcés. Ainsi, toute décision basée sur l’IA pouvant avoir des effets significatifs, comme une décision de licenciement ou une évaluation de la santé, devra inclure un recours possible pour l’individu concerné. La possibilité de signaler les abus de l'IA de manière anonyme est également intégrée, avec des protections pour les lanceurs d’alerte. Ce cadre de gouvernance est conçu pour maintenir une vigilance constante sur les applications d’IA dans les domaines de sécurité, et pour s’assurer que la technologie reste un outil au service des droits et de la sécurité publique, plutôt qu'une menace pour eux.
Pour en savoir plus :
...