Aller au contenu

Des impacts géopolitiques majeurs

nsdlabs-rect.png_

Un secteur public sous stress

Souveraineté technologique

  • Rivalités États-Unis / Chine / UE / Inde : l’intensification de la compétition autour de l’IA redéfinit la notion de souveraineté, les États cherchant à maîtriser leurs chaînes de valeur et à protéger leurs infrastructures sensibles (Carnegie Endowment, Financial Times).

  • Exemple Meteor‑1 : la puce de calcul optique chinoise « Meteor-1 » offre jusqu’à 2 560 TOPS à 50 GHz, rivalisant avec les GPU Nvidia et contournant les sanctions d’accès à la technologie américaine (South China Morning Post).

  • Quantum + IA : les États s’engagent dans une course parallèle autour de l’ordinateur quantique, favorisant la supériorité en décryptage, simulation et optimisation. L’IA quantique, notamment pour le renseignement et la cybersécurité, pourrait écrire un nouvel épisode de la guerre froide technologique .

Armement et usages militaires

  • Drones autonomes & armes létales : les systèmes d’armes autonomes (LAWS/AWS) permettent sélection de cibles et frappes sans intervention humaine, posant un défi éthique et légal, notamment du point de vue du droit international humanitaire (Wikipedia).

  • Profilage psychologique & cyber-guerre cognitive : l’IA est utilisée pour manipuler l’opinion, influencer les populations adverses et exécuter des opérations ciblées de désinformation – tactique désignée « guerre cognitive » .

  • Cadres politiques – humanité des frappes : aucune réglementation contraignante ne couvre pour l’instant les systèmes d’armes autonomes ; les débats se focalisent sur la nécessité d’un « human-in-the-loop » avec supervision humaine dans le processus décisionnel (Wikipedia).

Vie privée et prévention par profilage

  • Reconnaissance faciale de masse : l’usage intensif de systèmes de surveillance biométrique (comme en Israël/Palestine) soulève question sur l’atteinte aux droits fondamentaux, avec des risques de dérives autoritaires .

  • Data mining & profilage prédictif : l’essor du profilage automatisé fait craindre un glissement vers un « Minority Report » géopolitique où les États anticipent les comportements « à risque » et opèrent des interventions préventives, juridiques ou policières.

  • Biais algorithmiques : les systèmes de prédiction peuvent perpétuer des discriminations (raciales, socio-économiques) sans contrôle, menant à des refus de droits ou traitements injustes .

Analyse des besoins clés

On trouve derrière ces enjeux, des besoins clés. Ce chapitre développe des propositions d’axes stratégiques adaptés et une répartition tactique entre courtier, AMOA et assureur :

a) Souveraineté technologique

La course globale à l’intelligence artificielle entre États s’inscrit dans un changement d’échelle historique des rapports de puissance, marquant le passage d’une géopolitique centrée sur les ressources naturelles à une géopolitique des capacités computationnelles. Contrairement aux révolutions industrielles précédentes, l’IA ne se diffuse pas uniformément : elle s’accumule. Selon un rapport du Georgetown Center for Security and Emerging Technology, la concentration des moyens d’entraînement des modèles de pointe est dominée par une poignée de pays, au premier rang desquels les États-Unis et la Chine, qui accaparent à eux seuls plus de 80 % des capacités GPU mondiales dédiées à l’IA (CSET, 2023).

Cette nouvelle forme de compétition ne se limite pas à la possession d’algorithmes ou de données, mais concerne l’accès à l’énergie, à l’eau, aux métaux rares, et surtout à des architectures de calcul spécialisées (TPU, ASICs, etc.). Le rapport du World Economic Forum souligne à ce titre la vulnérabilité des chaînes d’approvisionnement, en particulier celles des semi-conducteurs avancés, dont plus de 90 % de la production mondiale est concentrée à Taïwan via TSMC (WEF, 2024). Cette dépendance technologique stratégique expose les États à des chocs logistiques, à des pressions diplomatiques et à des conflits hybrides.

Le découplage technologique s’accélère à travers des politiques protectionnistes ciblées. En octobre 2022, les États-Unis ont imposé des restrictions sévères à l’exportation de technologies d’IA vers la Chine, notamment les GPU de pointe et les logiciels d’entraînement avancé, via le Bureau of Industry and Security (BIS, U.S. Department of Commerce). En réponse, Pékin a renforcé ses investissements dans les technologies autochtones et les centres de données souverains, à travers son plan “AI 2030”, visant à rattraper, voire dépasser, les capacités américaines d’ici la fin de la décennie.

Les alliances interétatiques sont elles aussi reconfigurées. Des blocs émergent selon des logiques de convergence technologique : les États-Unis renforcent les coopérations avec le Japon et les Pays-Bas sur le contrôle des chaînes de semi-conducteurs ; l’Union européenne tente de bâtir une “souveraineté numérique régulée” en structurant une gouvernance éthique de l’IA via l’AI Act ; l’Inde, quant à elle, joue un rôle d’équilibriste entre les géants, en se positionnant comme un hub neutre pour le développement de modèles open source (cf. projet INDIAai).

Enfin, l’influence normative devient un levier de pouvoir majeur. Ce que l’on appelle la guerre des standards détermine la manière dont les technologies IA sont encadrées et déployées à l’échelle mondiale. La Chine, par exemple, cherche à faire adopter ses normes en matière de reconnaissance faciale ou de notation sociale via les canaux de normalisation internationale (ISO/IEC JTC 1/SC 42), tandis que les États-Unis soutiennent des cadres plus flexibles centrés sur l’innovation. L’issue de cette bataille réglementaire aura des conséquences durables sur les libertés individuelles, les modèles de société, et la résilience juridique des entreprises opérant à l’international.

En synthèse, la course mondiale à l’IA n’est pas un simple affrontement technologique : elle restructure en profondeur les équilibres diplomatiques, économiques et militaires du XXIe siècle. L’IA devient un instrument de pouvoir systémique, façonnant l’ordre international à venir.

b) Armement et usages militaires

Les usages militaires de l’intelligence artificielle constituent l’un des domaines les plus sensibles de la compétition technologique entre États, tant par leur puissance stratégique disruptive que par les zones grises juridiques et éthiques qu’ils soulèvent. L’IA modifie en profondeur les doctrines opérationnelles, depuis la planification tactique jusqu’à l’exécution des frappes, en intégrant des capacités d’analyse, de simulation et de décision auparavant réservées à l’humain.

Les travaux de l’ONU dans le cadre de la Convention sur certaines armes classiques (CCW) montrent que plusieurs puissances développent activement des systèmes dits LAWS (Lethal Autonomous Weapons Systems), capables de sélectionner et neutraliser des cibles sans intervention humaine directe. Ces systèmes s’appuient sur la vision par ordinateur, la fusion de capteurs, le deep learning et des algorithmes d’optimisation temps réel. Les États-Unis, la Chine, la Russie, Israël et la Corée du Sud sont les acteurs les plus avancés dans ce domaine, avec des prototypes opérationnels déjà testés en environnement réel (cf. Slaughterbots, Future of Life Institute, 2023). L'absence de définition juridique contraignante à l’échelle internationale permet pour l’instant à ces États de poursuivre leurs recherches sans entrave réglementaire.

Un tournant majeur a été observé avec l’usage de systèmes semi-autonomes dans des conflits asymétriques, comme en Libye, où le drone turc Kargu-2 aurait, selon un rapport du Panel of Experts on Libya de l’ONU, attaqué de manière autonome une cible humaine en 2020 (ONU, S/2021/229). Cet épisode, largement discuté, alimente les inquiétudes sur l’absence de contrôle humain et le risque de dérapages non intentionnels.

En parallèle, des systèmes d’IA sont déployés dans le renseignement militaire, la cartographie d’objectifs, la simulation de théâtre d’opérations et l’analyse prédictive de mouvements ennemis. Le projet américain Project Maven, lancé par le Département de la Défense en 2017, en est l’exemple emblématique : il utilise l’IA pour traiter des flux d’images captées par drones, identifier automatiquement des objets ou des comportements suspects, et réduire le temps de latence décisionnel. Google s’était initialement impliqué dans ce projet avant de se retirer sous la pression interne de ses salariés, soulevant ainsi des questions cruciales sur l’éthique des partenariats public-privé en IA militaire.

Les recherches récentes intègrent également des IA capables d’interagir dans des environnements simulés, de planifier des stratégies d’engagement via des techniques de reinforcement learning, et même de collaborer avec des opérateurs humains dans des unités mixtes. Ces teaming AI systems modifient la nature même de la guerre, en rendant possible une délégation partielle de la tactique à des entités non humaines.

Enfin, les initiatives de cybercommandements autonomes émergent progressivement. Le concept de cyberdéfense proactive basée sur IA implique la surveillance en continu des infrastructures critiques, la détection automatisée d’attaques et la capacité de riposte algorithmique. Cette automatisation croissante des réponses offensives et défensives pose la question du risque d’escalade incontrôlée — un scénario analysé en profondeur par la RAND Corporation dans plusieurs simulations stratégiques.

En l’absence d’accord international contraignant, l’IA militaire avance dans un vide normatif, où la puissance technologique prévaut sur le principe de précaution. Cela ouvre une ère où la distinction entre arme et acteur décisionnel devient floue, et où la temporalité des conflits s’accélère à un rythme que le droit, la diplomatie et la morale peinent à suivre.

c) Vie privée & reconnaissance faciale

L’essor des technologies d’intelligence artificielle appliquées à la reconnaissance faciale soulève des enjeux critiques pour la vie privée, les libertés fondamentales et l’équilibre des pouvoirs entre citoyens et institutions. Contrairement à d’autres formes de surveillance ciblée, la reconnaissance faciale permet une identification à distance, passive, en temps réel, sans consentement explicite, ce qui la rend particulièrement intrusive dans l’espace public.

Plusieurs gouvernements utilisent déjà ces systèmes à large échelle, notamment la Chine, où le système Skynet revendique plus de 600 millions de caméras connectées à une IA d’analyse biométrique, capable d’identifier un individu en quelques secondes, de suivre ses déplacements et de croiser ces données avec ses comportements numériques et sociaux. Selon le MIT Technology Review, ce système est également intégré à des programmes de notation sociale ou de surveillance ciblée des minorités, comme les Ouïghours dans la province du Xinjiang (MIT Technology Review, 2020).

Dans les zones de conflit ou de haute tension politique, la reconnaissance faciale est utilisée comme instrument de contrôle ou d’intimidation. En Israël, par exemple, des systèmes comme Red Wolf ont été documentés par l’ONG Human Rights Watch pour surveiller les Palestiniens dans les territoires occupés, avec peu ou pas de supervision juridique (HRW, 2023). Ces systèmes peuvent empêcher l’accès à certains lieux, bloquer des services ou générer des arrestations préventives.

En Occident, la reconnaissance faciale s’étend sous des formes plus diffuses mais tout aussi préoccupantes. Aux États-Unis, plusieurs villes ont commencé par bannir son usage par la police (San Francisco, Portland), mais à l’inverse, le FBI dispose aujourd’hui d’une base de données faciale alimentée par les permis de conduire de 21 États sans mandat judiciaire requis, comme l’a révélé un audit du Government Accountability Office (GAO, 2021).

En Europe, le Règlement Général sur la Protection des Données (RGPD) interdit en principe le traitement de données biométriques sans consentement explicite, mais de nombreuses dérogations sont introduites pour des raisons de sécurité nationale ou d’ordre public. La version actuelle de l’AI Act européen prévoit d’encadrer strictement la reconnaissance faciale en temps réel dans les lieux publics, mais autorise des exceptions larges pour les forces de l’ordre en cas de "menace grave" — une notion juridiquement floue et politiquement extensible (European Parliament, 2024).

D’un point de vue technique, les systèmes de reconnaissance faciale sont également critiqués pour leurs biais algorithmiques. Une étude du National Institute of Standards and Technology (NIST) a démontré que la plupart des algorithmes testés affichaient des taux d’erreur plus élevés pour les visages de femmes, de personnes noires ou asiatiques, avec des écarts atteignant 100 à 500 % dans certains cas (NIST FRVT, 2019). Cela renforce le risque de discrimination, d’erreurs judiciaires ou de stigmatisation systémique.

En définitive, la reconnaissance faciale automatisée à l’ère de l’IA n’est pas qu’une question de performance technique : elle redéfinit la frontière entre sécurité et liberté. En l’absence de garde-fous solides, elle ouvre la voie à une société de la surveillance omniprésente, où l’anonymat devient un privilège rare, et la présomption d’innocence, un algorithme.

d) Quantum + IA

La convergence entre intelligence artificielle et informatique quantique inaugure une nouvelle ère technologique, encore largement spéculative mais porteuse de ruptures majeures dans les capacités de traitement, de simulation et d’optimisation. Cette synergie, souvent désignée sous le terme “quantum AI”, repose sur l’idée que certaines tâches aujourd’hui inaccessibles à l’IA classique — en raison de leur complexité combinatoire ou de la lenteur des algorithmes — pourraient être transformées par les propriétés uniques des ordinateurs quantiques : superposition, intrication, interférence.

À ce jour, les machines quantiques restent bruyantes et peu stables, mais les États investissent massivement dans leur développement à des fins stratégiques. Le programme américain National Quantum Initiative Act, renforcé en 2022, mobilise plus de 1,2 milliard de dollars pour développer une informatique quantique à usage civil et militaire. La Chine, de son côté, a ouvert en 2023 à Hefei le plus grand centre mondial dédié à la recherche quantique, dans le cadre de son plan “China Standards 2035” qui prévoit l’intégration de l’IA quantique dans le renseignement, le chiffrement et la simulation de systèmes complexes (Nature, 2023).

L’un des domaines les plus avancés de cette convergence est la simulation quantique pour l’entraînement de modèles IA, permettant d’explorer des espaces de configuration trop vastes pour les machines classiques. Des acteurs comme IBM, Google et Xanadu ont déjà publié des démonstrations de “variational quantum classifiers” ou de modèles hybrides (quantum neural networks) dans des tâches de reconnaissance de motifs ou d’optimisation combinatoire, bien que ces résultats restent pour l’instant très sensibles au bruit et à la taille des qubits disponibles (IBM Research Blog, 2024).

Mais c’est surtout dans le domaine de la cryptographie et du renseignement algorithmique que l’IA quantique cristallise les enjeux de souveraineté. La possibilité d’utiliser un algorithme de type Shor amélioré pour casser des clés RSA en quelques secondes via des architectures hybrides (IA + quantum) alimente de nombreuses inquiétudes stratégiques. L’Agence nationale de la sécurité des systèmes d'information (ANSSI) en France recommande déjà la migration vers des algorithmes résistants au quantique (post-quantum cryptography) dans les infrastructures critiques (ANSSI, 2023).

En parallèle, des applications exploratoires se développent dans les domaines de la cybersécurité proactive, de la génétique, de la modélisation climatique et du design moléculaire, où l’IA pourrait piloter des simulations quantiques pour explorer rapidement des solutions optimales, tout en s’adaptant en temps réel. Cette combinaison ouvre des perspectives inaccessibles à l’IA classique, notamment en termes de représentation de variables non linéaires fortement corrélées — typiques des problèmes multi-échelles (biologie, défense, énergie).

À moyen terme, la combinaison IA + quantum pourrait ainsi devenir un levier de domination scientifique, industrielle et géopolitique, en réservant à ceux qui la maîtrisent une capacité de projection algorithmique radicalement supérieure. Mais cette convergence soulève aussi des interrogations fondamentales sur la traçabilité des calculs, la reproductibilité des résultats, et le contrôle humain sur des systèmes dont les logiques de fonctionnement deviennent mathématiquement inaccessibles à l’intuition. La prochaine frontière de la gouvernance algorithmique pourrait bien se situer au-delà du calcul classique.

e) Psychoprofilage et Guerre cognitive

Le développement des capacités de psychoprofilage algorithmique couplé à l’essor des techniques de guerre cognitive représente l’un des tournants les plus subtils — et les plus redoutés — de l’intelligence artificielle appliquée aux relations internationales et à la sécurité intérieure. Contrairement aux approches militaires traditionnelles, ces stratégies ne ciblent plus directement les infrastructures physiques ou les armées adverses, mais le comportement, les croyances et la perception du réel chez l’individu. L’IA rend désormais possible une manipulation de masse finement ciblée, individualisée, adaptative et à grande échelle.

Les systèmes de psychoprofilage exploitent des volumes massifs de données personnelles — historiques de navigation, messages, likes, vidéos visionnées, déplacements — pour modéliser des traits cognitifs, émotionnels et comportementaux de chaque individu. À partir de ces profils, des IA génératives peuvent produire des messages, images ou vidéos spécifiquement calibrés pour renforcer des convictions, exacerber des peurs ou semer le doute. Ces techniques dépassent de loin les opérations classiques de désinformation, en intégrant des dynamiques de renforcement attentionnel basées sur les modèles de type transformer, comme GPT, LLaMA ou Claude.

Une étude publiée par le Joint Research Centre de la Commission européenne démontre que des campagnes de guerre cognitive basées sur l’IA ont déjà été détectées dans des contextes électoraux sensibles, notamment en Afrique de l’Ouest, dans les Balkans ou en Asie du Sud-Est, où des bots pilotés par IA publient de manière coordonnée des contenus émotionnels, exploitant les failles attentionnelles des populations ciblées (JRC Technical Report, 2023). La frontière entre influence politique, ingérence et guerre devient alors floue, avec une responsabilité juridique difficile à établir.

Les États-Unis et la Chine ont chacun développé des doctrines stratégiques explicites en matière de guerre cognitive. Le People’s Liberation Army (PLA) décrit depuis 2019 la “cognitive domain operations” comme une nouvelle couche du champ de bataille, visant à “séduire l’esprit, détourner la pensée, désintégrer la volonté”. Les chercheurs du U.S. Army Futures Command appellent, en réponse, à développer des systèmes d’IA défensifs capables de détecter en temps réel les campagnes informationnelles malveillantes, en intégrant l’analyse linguistique, les graphes sociaux et la modélisation probabiliste de la crédibilité des sources (U.S. Army Mad Scientist Lab, 2024).

Le risque majeur réside dans l’automatisation croissante de ces opérations : des IA de plus en plus autonomes peuvent générer, adapter et diffuser en continu des contenus de guerre psychologique sans supervision humaine directe. La vitesse de propagation, l’adaptation linguistique et culturelle, et la capacité à tester en temps réel l’efficacité de chaque message via des boucles de rétroaction rendent ces attaques presque indétectables jusqu’à ce que leurs effets soient sociaux et massifs.

Les plateformes sociales, quant à elles, jouent un rôle ambivalent. D’un côté, elles développent des outils de modération algorithmiques ; de l’autre, leurs architectures sont optimisées pour maximiser l’engagement, souvent au détriment de la véracité ou de la stabilité psychologique. Cela crée une situation paradoxale où les vecteurs de guerre cognitive sont les mêmes que ceux du capitalisme attentionnel, brouillant la frontière entre manipulation étatique et incitation commerciale.

En somme, la guerre cognitive fondée sur l’IA ne vise pas à détruire mais à désorienter, fragmenter, désensibiliser, en rendant les sociétés ciblées incapables de réagir collectivement. Elle marque un tournant dans l’histoire des conflits : celui où la conscience humaine devient un champ de bataille algorithmique.

f) Drones autonomes civils

L’essor des drones autonomes civils constitue l’un des domaines les plus avancés d’application de l’intelligence artificielle dans l’espace public, à l’intersection de la robotique embarquée, du traitement en temps réel, et de la navigation intelligente. Contrairement aux drones militaires, ces dispositifs sont conçus pour des usages commerciaux, industriels ou logistiques, mais leur montée en autonomie soulève déjà des enjeux critiques en matière de sécurité, de responsabilité juridique et de régulation internationale.

Les drones civils dits "autonomes" exploitent des algorithmes de perception (vision par ordinateur, LIDAR, GPS différentiel), de planification de trajectoire, et d’évitement d’obstacles pour opérer sans pilote humain direct. Ces capacités sont rendues possibles par l’intégration de réseaux de neurones convolutifs (CNN) pour la détection d’objet, de modèles probabilistes pour la prédiction de trajectoire, et de moteurs de décision type reinforcement learning pour l’adaptation dynamique aux environnements complexes.

Le secteur de la livraison aérienne urbaine en est l’exemple emblématique. Des entreprises comme Wing (filiale d’Alphabet), Zipline ou Dronamics ont déjà déployé des flottes de drones autonomes capables de livrer médicaments, nourriture ou matériel médical dans des zones rurales ou faiblement desservies. En 2023, Zipline a franchi le cap du million de livraisons autonomes, avec des appareils capables de parcourir jusqu’à 160 km sans intervention humaine, y compris dans des conditions météorologiques variables (Zipline Newsroom, 2023).

Mais cette généralisation des drones IA pose des défis majeurs en termes de sécurité aérienne. Aux États-Unis, la Federal Aviation Administration (FAA) a lancé le programme UAS Traffic Management (UTM) en partenariat avec la NASA, afin de coordonner les trajectoires de milliers de drones civils autonomes dans l’espace aérien basse altitude. L’Europe développe un programme équivalent sous le nom U-Space, piloté par l’EASA. Ces systèmes s’appuient sur des échanges en temps réel entre les drones, les stations de contrôle, et les bases de données de restrictions de vol, mais leur fiabilité dépend fortement de l’intégrité des algorithmes embarqués et de la cybersécurité des flux de données (EASA, 2024).

Un enjeu particulièrement sensible concerne les faille de comportement en environnement urbain dense, où les marges d’erreur sont réduites. Des incidents documentés à Singapour, Tokyo ou San Diego montrent que des drones autonomes peuvent, en cas de panne de capteur ou d’erreur de classification visuelle, entrer en collision avec des bâtiments, véhicules ou personnes. Ces cas relancent la question de la responsabilité : le droit aérien traditionnel ne prévoit pas encore clairement si la faute incombe au constructeur, à l’exploitant, ou au fournisseur de l’algorithme de navigation. En France, le Conseil d’État a souligné dans un avis de 2022 la nécessité d’adapter le régime de responsabilité des aéronefs pour intégrer les logiques algorithmiques et les systèmes de pilotage délégué.

Enfin, l’usage croissant de drones civils IA à des fins de surveillance, de sécurité privée, ou de journalisme automatisé transforme l’espace public. Dans plusieurs pays, des dispositifs semi-autonomes patrouillent des zones commerciales, des campus ou des chantiers, en signalant automatiquement des comportements considérés comme suspects à des centres de contrôle. Ces pratiques interrogent la proportionnalité des moyens de surveillance, le respect du RGPD, et la possibilité de recours en cas de faux positifs.

En résumé, le drone civil autonome, bien qu’issu du monde commercial et logistique, constitue déjà un objet juridique et éthique hybride. Il combine mobilité, autonomie décisionnelle, capteurs à haute précision et potentielle interaction avec des tiers humains. Dans un contexte de régulation encore lacunaire, il oblige à repenser en profondeur les principes de responsabilité, de sécurité et de liberté dans l’espace aérien partagé.

g) Gouvernance & Supervision humaine

La question de la gouvernance et de la supervision humaine des systèmes d’intelligence artificielle s’impose comme un enjeu central de sécurité, de légitimité et de conformité, en particulier lorsque l’IA prend part à des processus sensibles ou irréversibles. La montée en puissance des IA dites autonomes ou génératives oblige les institutions à définir de nouveaux mécanismes de contrôle, fondés sur le principe du "human-in-the-loop" (HITL), ou de ses variantes "human-on-the-loop" et "human-out-of-the-loop", selon le degré d’intervention humaine dans la chaîne décisionnelle.

Dans les systèmes critiques (santé, justice, armement, gestion d’infrastructures), la présence humaine ne peut plus être un simple garde-fou symbolique. Elle doit être effective, traçable et juridiquement opposable. L’Organisation de l’aviation civile internationale (OACI) a établi dès 2021 que tout système automatisé ayant un impact sur la sécurité aérienne doit disposer d’un mécanisme de reprise en main humaine en temps réel, avec priorité absolue sur la commande algorithmique (ICAO Circular 328). Ce principe s'étend progressivement à d'autres secteurs sous pression réglementaire.

Le règlement européen AI Act, en cours de finalisation, introduit quant à lui des exigences strictes de supervision humaine continue pour les systèmes classés à "haut risque", incluant l’obligation de prévoir des opérateurs formés capables de détecter les défaillances de l’IA, d’interrompre son fonctionnement, et d’interpréter ses décisions. L’article 14 du texte prévoit que l’intervention humaine soit "efficace, indépendante et éclairée", excluant toute supervision purement procédurale ou illusoire (AI Act – Version consolidée, 2024).

Cependant, cette exigence se heurte à plusieurs limites techniques et psychologiques. Des études en ergonomie cognitive ont montré que dans les systèmes à haute autonomie, les opérateurs humains perdent en vigilance — un phénomène connu sous le nom de automation complacency — et sont souvent incapables d’intervenir efficacement en cas d’alerte soudaine. Ce paradoxe du "surveillant impuissant" a été observé dans le cas des pilotes d’avion confrontés à des systèmes de pilotage automatisé, comme lors du crash du vol Air France 447 (2009), ou dans les accidents impliquant des véhicules Tesla en mode Autopilot.

En parallèle, certains systèmes d’IA deviennent opaques dans leur logique interne, rendant difficile toute supervision humaine pertinente. Les modèles de type transformer ou diffusion peuvent générer des résultats dont la justification échappe à toute forme d’explication causale intelligible. Cela pose un défi fondamental au principe même de redevabilité (accountability), sur lequel repose le droit civil et pénal. Face à cette opacité, de nombreux chercheurs plaident pour un renforcement des approches dites "human-centered AI", où l’architecture du système est pensée dès le départ pour garantir la lisibilité, l’interruption possible, et l’appropriation humaine du fonctionnement algorithmique.

Enfin, la gouvernance ne peut être réduite à la supervision technique. Elle inclut également des mécanismes collectifs de contrôle, comme les audits indépendants, les registres d’incidents, les chartes d’usage et les procédures de certification. Des initiatives comme l’AI Incident Database (partenariat entre le Partnership on AI et le NIST) visent à documenter publiquement les cas de défaillance de systèmes IA afin d’alimenter une gouvernance basée sur les retours d’expérience concrets (Partnership on AI, 2024).

En définitive, la supervision humaine ne peut rester un slogan. Elle doit s’incarner dans une architecture multi-niveaux : technique (interface et override), organisationnelle (rôles et responsabilités), juridique (recours et preuve), et épistémique (comprendre pour contrôler). Dans un monde où certaines IA agissent plus vite que l’humain ne raisonne, la gouvernance devient un impératif vital, non seulement pour garantir la sécurité… mais pour préserver la souveraineté humaine sur les décisions qui engagent notre avenir collectif.

h) Chaîne d’approvisionnement IA

La maîtrise de la chaîne d’approvisionnement en intelligence artificielle – parfois appelée AI supply chain – est devenue un enjeu stratégique et systémique pour les États, les entreprises et les organismes critiques. Contrairement à une vision purement logicielle de l’IA, son déploiement repose sur une infrastructure matérielle, énergétique, humaine et algorithmique complexe, fragmentée sur plusieurs continents, et exposée à de multiples risques : espionnage industriel, défaillance de composants, dépendance à des fournisseurs extraterritoriaux, vulnérabilités logicielles tierces.

Le management des tiers dans la chaîne IA s’inscrit dans la continuité des démarches de supply chain risk management (SCRM), mais avec des spécificités fortes liées à la nature non déterministe, évolutive et opaque des modèles IA. Une IA est rarement le fruit d’un développement local fermé : elle s’appuie souvent sur des API externes (ex : GPT, Claude), des bibliothèques open source (ex : PyTorch, TensorFlow), des datasets publics ou commerciaux, et des infrastructures cloud mutualisées, créant une dépendance croisée difficile à cartographier.

Les incidents récents montrent que des attaques sur un seul maillon peuvent compromettre tout un écosystème. En mai 2023, une vulnérabilité injectée dans une mise à jour de la bibliothèque Hugging Face Transformers a permis à un groupe cybercriminel de détourner silencieusement les requêtes API de plusieurs services IA intégrés dans des chaînes de production industrielles en Europe. L’attaque n’a été détectée qu’après plusieurs semaines, mettant en évidence l’absence de mécanismes de contrôle d’intégrité sur les composants en amont (SecurityWeek, 2023).

De même, le risque de dépendance géopolitique à certaines infrastructures critiques est désormais explicitement reconnu. Plus de 90 % des GPU haute performance nécessaires à l’entraînement des grands modèles sont produits par NVIDIA, et une large part de leur fabrication physique est assurée par TSMC à Taïwan, zone géopolitiquement instable. En cas de blocage, les capacités de développement de l’IA dans plusieurs régions du monde pourraient être paralysées. Le rapport du Geopolitics of AI Project du CSET recommande désormais un suivi actif des “AI infrastructure chokepoints”, incluant non seulement les puces, mais aussi les logiciels propriétaires, les frameworks cloud et les systèmes de notation algorithmique (CSET, 2023).

Les grandes entreprises technologiques intègrent progressivement des outils de SBOM (Software Bill of Materials) pour tracer la provenance des composants logiciels embarqués dans leurs IA, mais ces pratiques restent hétérogènes. Le décret américain Executive Order 14028 sur la cybersécurité impose désormais à tous les fournisseurs de l’administration fédérale de fournir une SBOM pour tout système d’IA livré, y compris les dépendances indirectes et les modèles pré-entraînés intégrés (White House, 2021).

En France, l’ANSSI recommande depuis 2023 que tout déploiement de système IA dans un secteur critique fasse l’objet d’un audit de dépendance algorithmique, recensant les modèles utilisés, leurs origines, leurs licences, leurs modalités de mise à jour, et leur capacité de repli. Cette recommandation s’inscrit dans la logique du SecNumCloud et des obligations de cybersécurité pour les OIV (opérateurs d’importance vitale).

En conclusion, piloter la chaîne d’approvisionnement IA ne se limite pas à une gestion contractuelle des fournisseurs. Il s’agit d’un enjeu de souveraineté opérationnelle, de cybersécurité structurelle, et de confiance algorithmique. La résilience d’un système IA repose autant sur ses performances internes que sur la robustesse, la traçabilité et la gouvernance de l’ensemble des tiers sur lesquels il s’appuie – visibles ou invisibles.

i) IA comme acteur économique & risques systémiques

Merci Vincent ! Voici le dernier développement, consacré à : “IA comme acteur économique & risques systémiques”, dans le style rigoureux et structuré que tu attends.


L’intelligence artificielle, initialement conçue comme outil ou levier d’optimisation, tend progressivement à devenir un acteur économique à part entière, capable de prendre des décisions, d’allouer des ressources, de fixer des prix, ou de piloter des arbitrages financiers. Cette transformation modifie en profondeur les dynamiques du marché et introduit des risques systémiques nouveaux, liés à la vitesse, à la complexité, et à l’interconnexion algorithmique.

Dans les secteurs financiers, des IA de plus en plus autonomes assurent aujourd’hui la gestion de portefeuilles, le trading haute fréquence, l’optimisation fiscale, et la détection de fraude. Ces systèmes, souvent fondés sur des modèles d’apprentissage automatique (ex : gradient boosting, deep reinforcement learning), prennent des décisions à la microseconde, sans supervision humaine directe. Or, cette délégation de pouvoir décisionnel à des IA qui réagissent à des signaux de marché similaires accroît fortement le risque d’emballement collectif ou de réactions mimétiques. Le flash crash du 6 mai 2010, où le Dow Jones a perdu près de 9 % en quelques minutes à cause d’interactions non anticipées entre algorithmes de trading, est souvent cité comme préfiguration d’un choc systémique algorithmique à venir (U.S. SEC & CFTC Report, 2010).

Plus récemment, l’intégration d’IA génératives dans des systèmes de gestion automatisée pose la question de la production autonome de documents comptables, juridiques ou contractuels, avec des conséquences juridiques mal encadrées. Une étude du European Risk Observatory signale que dans plusieurs groupes multinationaux, des IA sont déjà utilisées pour rédiger des appels d’offres, établir des barèmes de prix dynamiques ou analyser des rapports ESG, avec une influence directe sur les décisions stratégiques, sans toujours que les directions en aient conscience (EU-OSHA, 2024).

L’IA devient également un actif économique circulant, à travers les modèles en tant que service (model-as-a-service) proposés par des acteurs comme OpenAI, Anthropic ou Mistral. Ces IA sont intégrées dans des milliers de processus métiers (juridiques, RH, industriels, comptables), avec un effet de concentration invisible : un bug, une modification ou une coupure de service dans un modèle fondamental (foundation model) peut désormais affecter des milliers d’entreprises simultanément. Le Stanford Center for Research on Foundation Models alerte sur cette dépendance croissante à quelques acteurs opaques, susceptibles d’introduire des points de défaillance systémiques non assurables (CRFM, 2023).

Le droit de la concurrence peine à intégrer ce nouveau paradigme, où l’IA elle-même devient agent économique, influenceur de marché, voire discriminant. Par exemple, des systèmes de tarification dynamiques utilisés par plusieurs compagnies aériennes ou plateformes de e-commerce peuvent, sans coordination explicite, aboutir à des effets anticoncurrentiels automatisés – phénomène appelé tacit collusion by algorithm. L’Autorité de la concurrence du Royaume-Uni (CMA) a lancé en 2024 une enquête sur ces pratiques, notamment dans le secteur hôtelier et de la mobilité urbaine (UK CMA, 2024).

Enfin, l’IA peut, dans certains scénarios, renforcer les asymétries structurelles dans l’économie mondiale. Les pays disposant d’infrastructures d’entraînement, de données massives, et de plateformes de diffusion dominent la chaîne de valeur, tandis que d’autres deviennent de simples "territoires d’extraction de données" ou "bancs de test algorithmique", sans contrôle ni retour économique. Cela soulève des questions géoéconomiques majeures, notamment sur la distribution du risque, des bénéfices, et de la responsabilité en cas de dysfonctionnement global.

En conclusion, en devenant un acteur économique autonome, interconnecté et non-linéaire, l’IA introduit un nouveau type de risque systémique : non pas celui d’une erreur isolée, mais d’une défaillance corrélée, instantanée et amplifiée par sa propre logique d’optimisation. L’assurance, la régulation et la gouvernance devront se repenser pour faire face à des agents non humains… qui structurent pourtant déjà des pans entiers de notre économie.