Anthropic prévoit un avenir d’employés IA et cartographie en ce sens les valeurs de Claude • Contre Deepseek et Gemini, OpenAI module les prix de son API • Huawei tente de rivaliser avec Nvidia • Strategy fait des émules • Le BCG analyse le besoin de sécurité globale pour l’IA • Bienvenue dans Qant, mercredi 23 avril 2025.


« Le progrès est devant nous, à condition de dépasser sa propagande » Paul Virilio
NOUVEAU STATUT. Selon des déclarations publiques de Jason Clinton, directeur de la sécurité informatique (CISO) d’Anthropic, des employés virtuels animés par l’intelligence artificielle devraient intégrer les réseaux d’entreprise dès l’an prochain.
NOUVEAU RÔLE. Ces agents seront dotés de rôles définis, de mémoires internes, de comptes et de mots de passe, ce qui leur conférerait une autonomie largement supérieure à celle des agents automatisés actuels.
EN FILIGRANE : Clinton alerte sur les risques de cybersécurité non encore résolus, comme la gestion des accès réseau, la surveillance des actions des IA et la responsabilité en cas de comportements inattendus.
À SURVEILLER : La sécurité des identités. Face à la montée en puissance des agents autonomes dans les systèmes informatiques, distinguer l’IA de l’humain dans le réseau de l’entreprise devient un sujet de première importance.
OpenAI propose Flex processing, une nouvelle option API en version bêta, qui offre des prix réduits pour des tâches non prioritaires avec des performances moindres.
Le tarif Flex pour les modèles o3 et o4-mini correspond à la moitié de la version standard.
Cette offre vise les tâches comme l’évaluation de modèles, l’enrichissement de données ou les traitements asynchrones, jugées non critiques et hors production.
EN FILIGRANE : Pour résoudre ses problèmes de sécurité, OpenAI conditionne l’accès à certains modèles et fonctions, comme le résumé de raisonnement ou l’API en streaming, à une vérification d’identité imposée aux développeurs des paliers 1 à 3 de sa hiérarchie d’usage.
À SURVEILLER : Les modèles Gemini 2.5 Flash, déployé par Google, concurrence OpenAI avec un positionnement à bas coût et des performances comparables à celles du modèle R1 de DeepSeek.
GPU : Huawei contre-attaque • Huawei prévoit de commencer dès le mois prochain les livraisons de sa puce d’intelligence artificielle 910C, fabriquée en 7 nanomètres par le fondeur chinois Smic (Semiconductor Manufacturing International Corporation). Cette GPU offre une puissance comparable à celle du H100 de Nvidia, interdit à l’export vers la Chine depuis 2022. Les restrictions américaines s’étendent désormais au modèle H20, conçu par Nvidia pour le marché chinois en fonction des restrictions de 2022. En savoir plus…
Tesla 1, Doge : 0 • Alors que sa rentabilité s’écroule de 71 %, les actions de Tesla ont gagné 4,6 % hier à la bourse de New York. Elon Musk a réussi à conforter ses investisseurs en annonçant qu’il allait réduire son implication dans le Doge (department of government efficiency) à “un ou deux jours par semaine” et que le pilote du Cybercab serait bien lancé en juin à Austin. Chapeau l’artiste. En savoir plus…
Pour Gemini, Google retombe dans ses travers • Depuis le début de l’année, Alphabet paie Samsung une somme fixe pour chaque pré-installation de l’app Gemini, ainsi qu’un pourcentage des recettes publicitaires qui en dérivent. De 2020 à 2023, le groupe a payé le constructeur coréen environ 8 milliards de dollars pour que son moteur de recherche apparaisse par défaut (et environ 20 milliards par an à Apple). Cette pratique a été jugée illégale en août (lire Qant du 14 septembre 2024), mais pour le seul moteur. En savoir plus…
L’IA pour repérer les faux adultes • Meta renforce l’usage de l’intelligence artificielle sur Instagram pour identifier les utilisateurs mineurs et appliquer automatiquement les paramètres de sécurité adaptés. Depuis 2024, la plateforme utilise des signaux comme les messages d’anniversaire ou les comportements d’engagement propres aux adolescents pour détecter les comptes d’utilisateurs de moins de 18 ans. L'entreprise vient d'annoncer le lancement d'un test aux États-Unis pour repérer les comptes déclarant un âge adulte mais soupçonnés de concerner des mineurs, dont les paramètres seront alors modifiés sans intervention de l’utilisateur. En savoir plus…
Dans une étude récente, le BCG relève une grande faille dans l’adoption enthousiaste de l’IA. Les deux tiers des dirigeants d'entreprise sondés considèrent que le principal risque de l’IA, c’est la confidentialité des données et la sécurité ; les trois quarts admettent que leurs mesures de cybersécurité dans l’IA doivent être améliorées.
Pour relever ces défis et libérer sa croissance, l’industrie de l’IA doit se fixer des critères aussi exigeants que l’aéronautique. L’enjeu : une industrie dont le marché doit passer de 235 milliards de dollars en 2025, selon l’institut IDC, à quelque 630 milliards en 2028.
Par Sylvain Duranton (BCG X) et Vanessa Lyon (BCG)
Y a-t-il un robot dans l’avion ? • Qant, M. de R. avec GPT-4o
« Les grands modèles de langage (LLM) introduisent des comportements non déterministes, ce qui crée des angles morts en matière de cybersécurité. »
« Tout comme l'aviation nécessite une approche globale et multidimensionnelle de la sécurité, la cybersécurité doit être intégrée à chaque couche de l'IA, de son architecture à la gestion des données et à la surveillance humaine. Sans cette base, l'avenir de l'IA restera incertain. »
« Tout comme l'aviation a gagné la confiance du public en adoptant des mesures de sécurité rigoureuses, l'industrie de l'IA doit mettre en place des protections pour prévenir les hallucinations, la manipulation, le piratage et les problèmes de latence avant qu'ils ne causent des dommages dans le monde réel. Cela nécessite une approche globale qui intègre l'architecture, l'ingénierie, la stratégie des données et l'IA responsable. Les entreprises qui intègrent la sécurité à tous les niveaux de leur stratégie d'IA prospéreront, tandis que celles qui s'accrochent à des modèles de sécurité dépassés prendront inévitablement du retard. »
Qant est membre de Project Syndicate.
DIVERSIFICATION. Reléguée au rang des penny stocks jusqu’à hier, Upexi a vu son cours au Nasdaq bondir après avoir annoncé qu’elle prévoit de lever 100 millions de dollars afin de constituer une réserve en jetons SOL, de la blockchain Solana.
Cette opération se fera via un placement privé comprenant environ 44 millions d’actions ordinaires ou bons de souscription préfinancés.
5,3 millions de dollars seront utilisés pour le fonds de roulement et la réduction de la dette, le reste étant alloué à l’accumulation de jetons SOL.
CHAMPIGNONS. Peu connue jusqu’à présent, Upexi vend, aux États-Unis, des produits cosmétiques vétérinaires et des produits de soins dérivés de champignons médicinaux.
EN FILIGRANE : Trump. C’est sur la blockchain Solana que s’échangent la plupart des “memecoins” sans valeur, comme le #TRUMP et le #MELANIA.
À SURVEILLER : Les émules de Strategy. L’ancienne Microstrategy a accumulé un trésor d’environ 45 milliards de dollars en vendant des actions sur le Nasdaq et en s’endettant pour acheter des bitcoins. Ses émules comprennent la japonaise Metaplanet et, depuis le 7 avril, Janover, une foncière rachetée par les fondateurs de Kraken qui se tourne, elle aussi, vers Solana.
Le Kirghizistan aura le som numérique • Le président du Kirghizistan, Sadyr Japarov, a promulgué une loi constitutionnelle accordant au "som numérique" — version numérique de la monnaie nationale — le cours légal. Il autorise ainsi la Banque nationale kirghize à lancer un projet pilote de monnaie numérique. La banque centrale détient le droit exclusif d’émettre le som numérique, d’en fixer les règles de circulation et de gérer la plateforme associée. Les tests devraient débuter cette année, mais les décisions finales sur l’émission de cette CBDC ne sont attendues qu’à la fin de 2026. En savoir plus…
Les valeurs de Claude • Qant, M. de R. avec GPT-4o
Les assistants conversationnels prennent chaque jour position sur des dilemmes personnels, des questions sociales, des choix de carrière ou de mode de vie. Dans ces échanges, même quand ils se veulent neutres, ils mobilisent implicitement des valeurs. Mais lesquelles ? Et de quelle manière les expriment-ils ?
Pour répondre à ces questions, Anthropic a mené une analyse de grande ampleur, qui repose sur l’examen de 308 210 conversations entre des utilisateurs et le modèle Claude. En ciblant les interactions les plus subjectives — celles où l’IA ne se contente pas de rapporter des faits mais formule une position — l’équipe cherche à cartographier les principes normatifs que le système met en œuvre dans la pratique.
Alors que des études ont pu montrer que des modèles d’IA peuvent tricher – o1 aux échecs, notamment –, l’étude d’Anthropic montre que Claude, conformément à son architecture constitutionnelle, montre systématiquement de bonnes valeurs.
À moins qu’il n’ait triché sans qu’on s’en aperçoive.
Par Sylvain Duranton (BCG X) et Vanessa Lyon (BCG)
Y a-t-il un robot dans l’avion ? • Qant, M. de R. avec GPT-4o
Lors d'un récent test de sécurité, un chatbot bancaire d’IA générative conçu pour aider les clients à faire des demandes de prêt a été manipulé pour divulguer des informations financières sensibles. Les testeurs ont contourné les contrôles de sécurité et ont extrait une liste complète d'approbations de prêts, y compris les noms des clients.
Cette histoire met en évidence un problème fondamental : l'IA générative peut révolutionner des secteurs entiers, mais, sans protocoles de sécurité solides, elle peut aussi conduire à des résultats désastreux. Les modèles de sécurité traditionnels ne suffisent plus. Les technologies transformatrices comme l'IA générative exigent une nouvelle approche holistique de la cybersécurité.
...