[0:24]Le 28 février 2026, les États-Unis et Israël lancent l'opération Epic Fury, des frappes massives sur l'Iran. Ouh ! Ouh ! Ouh ! Waouh ! Ouh ! Ouh ! Ouh ! En quelques heures, le guide suprême est tué. Plusieurs hauts responsables militaires aussi. C'est un message très simple. Ils n'auront jamais l'arme nucléaire. Pendant que ces frappes tombaient, une intelligence artificielle opérée à l'intérieur des systèmes du commandement central américain. Cet outil, c'est Claude, l'IA d'Anthropic, concurrent direct de ChatGPT. Celui que des millions de personnes utilisent pour résumer des PDF et rédiger des mails. L'armée américaine utilise une variante appelée Claude Gov. Le même socle technique que la version grand public, mais ajusté pour fonctionner sur des réseaux militaires. En juillet 2025, Anthropic signe un contrat de 200 millions de dollars avec le Pentagone. Claude entre officiellement dans les agences de défense et de renseignement. Mais à la veille des frappes, le PDG d'Anthropic refuse d'élargir les usages autorisés. Il pose deux lignes rouges. Pas de surveillance de masse des citoyens américains et pas d'armes entièrement autonomes. En pleine escalade militaire, Anthropic dit non au Pentagone. Alors Trump ordonne de couper l'accès à la technologie d'Anthropic. Mais couper une IA dans des systèmes classifiés, ça prend pas un weekend. L'interdiction est annoncée le vendredi soir, les bombes tombent le samedi matin et Claude est toujours dans les systèmes. Personne ne l'a allumé pour cette guerre, mais personne ne pouvait l'éteindre à temps. Alors qui contrôle l'IA de guerre ?
[1:50]Quand à une boîte en France, l'état te rajoute un truc à gérer tous les 6 mois, et il y en a un nouveau que beaucoup d'entre vous ne connaissent pas encore et qui va vous tomber dessus en septembre. À partir de septembre 2026, envoyer une facture entre pros par mail ou PDF, c'est terminé. Toutes les factures entre professionnels, même les auto-entrepreneurs, devront passer par un intermédiaire agréé par l'État qui certifie que votre facture est conforme. Si vous n'êtes pas prêt en septembre, votre client peut refuser votre facture. Et c'est exactement le genre de truc que vous avez pas envie de gérer en urgence. Conto, c'est un compte pro en ligne qui est déjà prêt pour la facturation électronique. Leur logique, c'est de faire le boulot administratif à votre place. Vous connectez votre Gmail, Conto scanne vos mails, repère les factures et les importe dans votre compta. Vos abonnements réguliers, pareil, un collecteur va chercher les factures lui-même et les associer à la bonne transaction. Bref, c'est un compte pro pensé comme un logiciel, pas comme une banque. La facturation électronique est déjà incluse dans tous leurs forfaits et pour les nouveaux clients, avec le code Leoduff 50, profitez de 50 € offert pour tester le compte pro de 600000 entrepreneurs, dont moi. C'est pas rien. Cliquez sur le lien en description et vous pourrez dire que vous avez bossé sur votre compta aujourd'hui. Techniquement, c'est vrai. Merci Conto. En Ukraine, les drones seraient impliqués dans 70 à 80 % des soldats tués ou blessés dans les deux camps. Les soldats équipent leurs drones de systèmes de guidage par IA. L'opérateur verrouille la cible sur son écran et le drone poursuit l'impact, même si le signal est brouillé. Le 28 février, les États-Unis ont utilisé Lucas pour la première fois en combat. Un drone d'attaque à usage unique, on l'envoie, il frappe, il est détruit. Un missile Tomahawk, missile de frappe à distance que les États-Unis utilisent depuis des décennies, ça coûte plus d'un million de dollars. Mais Lucas, c'est le prix d'une voiture. Pour le prix d'un seul Tomahawk, on peut lancer une trentaine de Lucas. Selon Reuters, Lucas reprend l'architecture des drones iraniens de type Shahed, ce que Téhéran avait fourni à la Russie pour bombarder l'Ukraine. Quelques années plus tard, l'Iran se fait bombarder par des drones inspirés des siens. Donc d'un côté, on a un outil d'IA intégré au workflow de renseignement, de l'autre, des drones d'attaque de plus en plus autonomes qu'on peut lancer en nombre. Dans une démocratie, deux coûts freinent politiquement une guerre : les soldats qu'elle perd et les images civiles qu'elle produit. Des drones bon marché qu'on peut produire en masse, ça réduit forcément ces deux coûts. Moins de cercueils qui rentrent au pays, et souvent moins d'images visibles pour l'opinion du pays qui frappe. Donc moins de pression politique pour l'arrêter. Une démocratie qui ne perd pas de soldats est une démocratie qui a moins de raisons de s'opposer à une guerre. Reste à savoir qui ou quoi leur dit où frapper. En novembre 2024, Anthropic s'associe à Palantir et Amazon pour rendre Claude déployable dans des environnements classifiés. 8 mois plus tard, le Pentagone va plus loin avec un contrat prototype de 200 millions de dollars sur 2 ans. Claude devient alors ce qu'Anthropic présente comme le premier grand modèle d'IA accessible sur des réseaux classifiés. Concrètement, ça veut dire qu'une variante de l'outil qui vous aide à reformuler un mail, a commencé à traiter du renseignement classifié et à produire des analyses dans des workflows militaires. Claude Gov, c'est pas un modèle construit de zéro pour la guerre. C'est une variante de la même famille de modèles que la version grand public, adaptée aux besoins de sécurité nationale. Anthropic dit qu'elle a utilisé pour la planification stratégique, le soutien opérationnel, l'analyse du renseignement et l'évaluation des menaces. En janvier 2026, les États-Unis lancent un raid contre Nicolas Maduro, le président vénézuélien. Selon le Wall Street Journal, Claude aurait été utilisé pendant l'opération qui a conduit à sa capture. Que cette info soit vraie ou non, elle suffit à faire exploser un bras de fer entre Anthropic et le Pentagone autour d'une question. Est-ce qu'une IA a le droit de dire non à une guerre ?
[5:05]Bon, selon le Times, le nombre d'analystes nécessaires pour traiter le renseignement du champ de bataille entre l'Irak en 2003 et l'opération Epic Fury cette année aurait été réduit de façon spectaculaire. Grâce à l'automatisation et au logiciel comme ce de Palantir. En quelques mois, un outil civil est devenu un rouage de la machine de guerre américaine. Cette efficacité conduit le Pentagone à vouloir utiliser Claude pour toute fin légale, sans restriction contractuelle. Mais Anthropic refuse. L'entreprise pose deux lignes rouges, pas de surveillance de masse des citoyens américains et pas d'armes entièrement autonomes. Ce bras de fer va durer des mois jusqu'à ce que le gouvernement pose un ultimatum. Le 24 février, le secrétaire à la Défense convoque au Pentagone Dario Amodei, le PDG d'Anthropic et lui pose les termes. Si vos restrictions ne sont pas levées, on annule votre contrat et on vous classe comme menace pour la chaîne d'approvisionnement de la Défense. Ce qu'il faut comprendre, c'est que le Pentagone ne menace pas juste d'annuler un contrat. Il menace de rendre Anthropic toxique pour tout l'écosystème défense. Concrètement, ça veut dire que toute entreprise qui travaille pour l'armée américaine, les fabricants de missiles, les constructeurs de satellites, les sous-traitants risquent de ne plus pouvoir utiliser les technologies d'Anthropic dans ces contrats militaires. Le 26 février, Amodei répond publiquement. Il croit profondément à l'importance de l'IA pour défendre les démocraties, mais les menaces ne changeront pas sa position. La réaction ne s'est pas fait attendre. Trump les traite de tarés de gauche et menace d'utiliser tout le pouvoir de la présidence pour les forcer à obéir. Le secrétaire à la Défense a même menacé de faire invoquer le Defense Production Act. Une loi qui permet au gouvernement de contraindre une entreprise à fournir sa technologie ou à prioriser des commandes d'État. Et quelques heures après, Open AI, l'entreprise derrière Chat GPT, annonce un accord avec le Pentagone. Sam Altman, le PDG d'Open AI assure que les mêmes lignes rouges ont été posées. Surveillance de masse, armes entièrement autonomes, plus une troisième sur les décisions automatisées à fort enjeu, mais la différence est dans l'approche. Anthropic voulait des interdictions écrites noir sur blanc dans le contrat, des phrases précises qui disent ça, vous n'avez pas le droit de le faire. Open AI a choisi une autre voie, s'appuyer sur un mélange de contrat, d'architecture technique et de lois existantes pour encadrer les usages. Le problème, c'est que certaines de ces lois appartiennent au même écosystème juridique que les programmes de surveillance de la NSA, l'Agence Nationale de Sécurité américaine. En 2013, Edward Snowden avait montré au monde entier que ce service de renseignement collectait des millions de données de citoyens sans leur consentement. Et l'ancien directeur de la NSA siège aujourd'hui au Conseil d'administration d'OpenAI. Mais de toute façon, même quand une entreprise d'IA pose des lignes rouges, rien ne garantit qu'elle tienne. Selon Wired, le Pentagone expérimentait déjà les modèles d'OpenAI dès 2023, alors même qu'ils interdisaient encore tout usage militaire. Comment c'est possible ? Microsoft a investi des milliards dans OpenAI. Il distribue leurs modèles sur ses propres serveurs. À partir de là, Microsoft considérait que sa propre version de ces modèles n'était pas soumise aux règles d'Open AI, mais à celles de Microsoft. Les garde-fous d'Open AI s'arrêtaient à la porte de Microsoft. Mais même sans intermédiaire, même quand c'est l'entreprise elle-même qui pose les règles, le PDG d'Anthropic doute qu'elle survive au monde réel. Le problème est simple, Claude n'a pas de moyen fiable de savoir ce qu'on lui donne. Si quelqu'un lui présente les données personnelles de millions de gens comme du renseignement militaire légitime, le modèle fera ce qu'on lui demande. Dans son communiqué, il décrit ce que Claude pourrait faire avec des données que des courtiers vendent déjà. Déterminer en quelques secondes vos déplacements, votre navigation web, vos associations et assembler un portrait complet automatiquement à l'échelle d'une population. Ce qui aurait demandé un travail humain massif, peut être automatisé avec un prompt. Et c'est pas hypothétique. Selon Reuters, les autorités iraniennes utilisent déjà la reconnaissance faciale pour identifier et arrêter des manifestants et des dissidents. La technologie existe, la seule question, c'est ce qui empêche qu'elle soit utilisée contre des citoyens américains. Et même la position prudente d'Anthropic a des angles morts. Leurs lignes rouges interdisaient la surveillance des citoyens américains, pas des étrangers. Elles interdisaient les armes entièrement autonomes, pas le ciblage assisté avec un humain qui valide. Donc ce qui se passe pendant les frappes iraniennes n'est pas forcément en dehors du contrat qu'Anthropic avait signé. Et sur les armes entièrement autonomes, Amodei dit à CIES que les modèles actuels ne sont pas encore assez fiables et que les garde-fous nécessaires n'existent pas encore. Donc le désaccord avec le Pentagone porte sur la fiabilité et la gouvernance, pas seulement sur le principe. Et c'est là que le débat Anthropic versus Trump devient un leurre, parce que la question que tout le monde se pose est-ce qu'Anthropic protège la démocratie ou met des vies en danger, repose sur une hypothèse que personne ne vérifie. Qu'il y a un interrupteur et que quelqu'un a bien la main dessus. Anthropic refuse que l'IA décide de tuer sans humain dans la boucle. Le Pentagone assure que l'humain sera toujours là. Sauf que cette promesse, elle a déjà été testée. En avril 2024, le magazine israélien 972 publie une enquête. Une enquête sérieuse, détaillée, mais que l'armée israélienne conteste formellement. Donc ce qui suit, c'est ce que cette enquête décrit, c'est pas un fait audité, mais des témoignages de 6 officiers de renseignement israéliens. Ils décrivent le fonctionnement d'un programme appelé Lavender, un système d'intelligence artificielle développé par le service de renseignement militaire israélien. Son rôle, c'est de passer au crible les données de surveillance, interception téléphonique, activités sur les messageries, déplacements, réseaux sociaux et d'attribuer à un très grand nombre d'habitants de Gaza, un score de probabilité d'appartenance au Hamas ou au Jihad islamique palestinien. Selon leurs sources, pendant les premières semaines de la guerre, Lavender aurait identifié environ 37000 personnes comme cible potentielle de frappes aériennes. 37000. Imaginez qu'on vous donne 37000 dossiers et qu'on vous demande de vérifier chacun d'entre eux. Même en y passant une minute par dossier, ce qui est pas beaucoup, ça vous prendrait 25 jours sans dormir. Sauf que le système produit ses listes en temps réel. Selon ces mêmes sources, l'armée aurait donné une autorisation générale aux officiers pour adopter les recommandations de la Vendor. Sans vérifier pourquoi la machine avait fait ses choix et sans examiner les données brutes sur lesquelles elle s'appuyait. La validation humaine, celle dont tout le monde parle quand on dit que l'humain reste dans la boucle, selon les officiers interrogés, se résumerait parfois à 20 secondes. 20 secondes par cible. 20 secondes pour vérifier une seule chose, que le nom identifié par le système correspond à un homme. Pas d'examen du dossier, pas de contre-analyse, juste est-ce que c'est un homme ? Oui, on frappe. Un second système appelé Where's Daddy pistent les cibles identifiées par la Vendor et alertait l'armée quand elle rentrait à leur domicile. D'après un officier, l'armée les bombardait chez eux comme option par défaut. Et même le dernier garde-fou, le décompte des civils dans la maison, aurait lui aussi reposé sur une estimation automatisée. Selon les officiers interrogés par 972, le logiciel prenait le nombre de résidents enregistré avant la guerre, soustrayait un pourcentage estimé d'évacuation du quartier et produisait un chiffre. Donc pas un décompte réel, mais une estimation statistique. Human Rights Watch a estimé que l'usage par l'armée israélienne d'outils numériques et d'IA pour aider à déterminer qui ou quoi frapper à Gaza pouvait augmenter le risque de dommage pour les civils. L'armée israélienne conteste cette description. Dans une réponse publiée en juin 2024, elle affirme que Lavender est une base de données de regroupement, pas un système de ciblage autonome et que chaque cible fait l'objet d'une évaluation humaine individuelle. Mais elle ne publie ni les chiffres d'usage, ni les durées de validation, ni les historiques d'opération. Elle décrit un cadre sans fournir les données qui permettraient de la vérifier. Mais le débat ne porte pas vraiment sur l'existence de ces outils. Elle est documentée par tous les médias que je viens de citer. Il porte sur une question beaucoup plus grave. Quand une armée dit que l'humain reste dans la boucle, de quel contrôle parle-t-on exactement ? Et selon l'enquête de 972, le système produit des milliers de cibles plus vite que le jugement humain ne peut les évaluer. L'humain est dans la boucle, mais la boucle tourne tellement vite que l'humain ressemble plus à un validateur qu'à un décideur. Mais même avec un processus plus long, il y aurait un autre problème. Les modèles de langage ont un défaut bien documenté. Ils peuvent tendre à confirmer ce qu'on leur dit plutôt qu'à le contester. Et le PDG d'Anthropic lui-même invoque ce défaut quand il dit que les modèles d'IA ne sont pas encore assez fiables. Concrètement, ça veut dire qu'un commandant qui demande à l'IA d'évaluer une cible peut recevoir ses propres hypothèses avec un vernis de certitude. L'humain est dans la boucle, mais la boucle lui renvoie ce qu'il voulait entendre. Et le droit ne rattrape pas ce que la psychologie laisse passer. Lavender n'est pas classé comme une arme autonome, en tout cas, pas dans les cadres juridiques publics. Officiellement, c'est un outil d'aide à la décision. Et les 20 secondes écrites par les sources de 972 constituent techniquement un humain dans la boucle. La principale directive publique du Pentagone sur ce sujet ne demande pas explicitement qu'un humain confirme entre l'identification de la cible et le tir. Elle demande des niveaux appropriés de jugement humain. Une formulation suffisamment souple pour couvrir des procédures extrêmement différentes. Et cette directive là, déjà faible, c'est même pas une loi. C'est une politique interne du Pentagone que la hiérarchie militaire peut réviser. Que ce soit en Iran ou à Gaza, deux systèmes différents, deux armées différentes et deux théâtres de guerre qui n'ont rien à voir. Mais le résultat se ressemble. L'humain censé décider risque de ne plus le faire. Est-ce que Claude fait la même chose que la Vendor ? On ne sait pas. Andy Markoff, ancien commandant des forces spéciales des Marines, aujourd'hui fondateur d'une start-up d'IA militaire est catégorique. Un modèle généraliste comme Claude n'est pas entraîné sur des données militaires et ne peut tout simplement pas faire du ciblage. Pourtant, le Wall Street Journal mentionne aussi une fonction d'identification de cible, sans préciser ce que ça recouvre exactement. Gaza n'est pas un cas à part. Les outils existent, les données existent. Ce qui sépare ce système d'un usage sur des citoyens américains, c'est pas la technologie, ce sont des barrières juridiques et politiques. Et les barrières changent. 4 jours avant les frappes, Anthropic a réécrit sa politique de sécurité. L'entreprise qui voulait la plus prudente a assoupli ses propres règles. Pourquoi ? Parce que si les concurrents avancent sans précaution, s'arrêter seul ne rend pas le monde plus sûr. Selon Bloomberg, moins d'une semaine après l'interdiction, Anthropic et le Pentagone ont repris les négociations. Et dans le même temps, le PDG d'Open AI disait à ses propres employés ce que le Pentagone lui avait fait comprendre. L'entreprise qui fournit l'outil n'a pas son mot à dire sur comment il est utilisé. Dans tout ce bordel, qui contrôle l'IA de guerre ? Demandez au président, il vous dira qu'il a signé l'interdiction, mais un ordre politique ne démonte pas en une nuit un logiciel encastré dans des systèmes classifiés. Demandez à Anthropic ou Open AI, ils vous diront qu'ils n'ont aucun contrôle sur l'usage opérationnel de leur modèle. Demandez à l'officier qui reçoit la liste de cible, il vous dira qu'il a seulement validé la recommandation du logiciel. Demandez au logiciel, il vous dira qu'il a produit un chiffre. Et demandez au commandant qui ordonne la frappe, il vous dira que le protocole a été suivi. Le droit de la guerre repose sur l'idée que quelqu'un décide. Et des gens décident à chaque étape, mais aucun d'entre eux ne contrôle la chaîne au moment où elle devient létale. Dès 2018, la politologue israélienne Liran Antebi observait que les drones armés avaient donné à certains états la capacité de mener des frappes tout en rendant l'attribution et donc la responsabilité plus difficile à établir. L'IA n'a pas inventé la dissolution de la responsabilité, elle l'a rendu industriel. Un jour, probablement plus tôt qu'on ne le pense, un responsable politique se tiendra derrière un pupitre et dira que ce n'est pas lui qui a pris la décision. C'est la machine, mais une machine ne peut pas prendre la décision de tuer. Elle peut juste faire en sorte que personne n'est à la prendre. Merci à tous. Merci à Conto. C'était Léo Duf.



