Aller au contenu

Glossaire

Technique

AGI – Artificial General Intelligence

Intelligence artificielle dite « générale », capable de comprendre, apprendre et s’adapter à une très large variété de tâches, à un niveau équivalent ou supérieur à celui de l’être humain. Elle reste aujourd’hui hypothétique, mais fait déjà l’objet de scénarios assurantiels anticipés.

AI / IA – Artificial Intelligence / Intelligence artificielle

Terme générique désignant un ensemble de techniques permettant à des systèmes informatiques de simuler certaines capacités cognitives humaines (raisonnement, apprentissage, perception). Le terme recouvre une grande diversité de technologies, du simple moteur de règles à l’apprentissage profond.

AMOA – Assistance à Maîtrise d’Ouvrage

Partenaire fonctionnel et technique chargé d’accompagner un donneur d’ordre dans la définition, la structuration et la supervision de ses projets, notamment numériques ou IA. L’AMOA joue un rôle essentiel pour rendre les usages audités, mesurables et donc assurables.

ANI (Artificial Narrow Intelligence)

Forme d’intelligence artificielle spécialisée dans l’exécution d’une tâche ou d’un domaine précis, sans capacité à généraliser ou à raisonner en dehors du périmètre défini. L’ANI repose sur des algorithmes optimisés pour des fonctions spécifiques, comme la reconnaissance faciale, la traduction automatique, le diagnostic médical ou la recommandation de contenu. Contrairement à l’AGI (Artificial General Intelligence), qui viserait une intelligence comparable à celle de l’humain, l’ANI n’a ni conscience de soi, ni compréhension globale, ni capacité d’adaptation transversale. Elle domine aujourd’hui le champ de l’IA déployée dans l’industrie, les services ou la cybersécurité. Bien qu’étroite, l’ANI peut atteindre des performances surhumaines dans son domaine, tout en restant totalement incompétente ailleurs.

Exemples typiques :
– un moteur de recherche,
– un assistant vocal,
– un système de détection de fraude,
– un outil de traitement automatique du langage naturel (NLP) entraîné sur une tâche donnée.

Androïdes

Entités robotiques ou synthétiques dotées d’une forme humanoïde, et de plus en plus souvent d’une capacité décisionnelle autonome. Leur statut — entre machine, personne morale ou sujet pensant — constitue une ligne de faille juridique majeure pour les décennies à venir.

ASI – Artificial Super Intelligence

Forme d’intelligence artificielle qui dépasserait l’humain dans tous les domaines, y compris émotionnels, sociaux et créatifs. Elle ouvre la voie à des réflexions juridiques et éthiques de rupture, notamment en matière de statut, de responsabilité et d’assurabilité.

BCI – Brain Computer Interface (Interface cerveau-machine)

Technologie permettant une interaction directe entre le cerveau humain et un système informatique. Les BCI posent des défis majeurs en matière de sécurité, de consentement, de cybersanté, et d’intégrité cognitive, avec un impact assurantiel encore peu anticipé.

Bots

Agents logiciels autonomes, souvent très simples, qui réalisent des tâches répétitives sur internet ou dans des systèmes (répondre à des messages, lancer des scripts, collecter des données). S’ils sont mal configurés ou détournés, ils peuvent causer des dommages indirects.

Cloud AI – Intelligence Artificielle en nuage

L’IA Cloud s’oppose à l’Edge AI. Elle repose sur des traitements centralisés dans des centres de données distants, via des infrastructures cloud (AWS, Azure, GCP, etc.). L’IA y est plus puissante, car elle bénéficie de ressources de calcul massives et de l’accès à des données mutualisées. C’est le modèle privilégié pour les entraînements de grands modèles (LLM), les analyses prédictives complexes, ou les IA génératives. Mais cette centralisation expose davantage aux cyber-risques, aux coupures réseau, et pose des questions de souveraineté des données, de traçabilité, ou de juridiction applicable.

Cobots

Robots collaboratifs opérant physiquement aux côtés d’un humain, notamment en industrie ou logistique. Ils réagissent en temps réel à l’environnement de travail et partagent une responsabilité d’action avec l’opérateur. La couverture des dommages croisés homme–machine devient ici un enjeu crucial.

Copilot (IA copilote)

Système d’intelligence artificielle intégré dans un environnement métier pour assister un opérateur humain dans ses tâches quotidiennes. Le copilote ne prend pas de décision autonome, mais propose, suggère, analyse ou automatise des tâches partielles sous validation humaine. Exemples : copilote juridique, RH, comptable ou codeur.

Edge AI – Intelligence Artificielle en périphérie

L’Edge AI désigne les systèmes d’intelligence artificielle exécutés localement, c’est-à-dire au plus près des capteurs ou des terminaux physiques, sans dépendre d’une connexion constante au cloud. L’IA est embarquée directement sur l’objet (caméra, drone, véhicule, robot, appareil médical…) et prend ses décisions en temps réel, souvent dans des contextes critiques (sécurité, réactivité, confidentialité). Ce modèle présente plusieurs avantages : latence réduite, meilleure résilience réseau, confidentialité accrue (les données ne quittent pas le terminal), mais aussi une plus grande complexité en cas d’erreur, car le système agit de manière autonome sans supervision distante.

Gen AI – Générative AI / IA Générative

Technologie d’IA capable de produire de nouveaux contenus (textes, images, vidéos, sons, code) à partir d’un apprentissage préalable. Elle soulève des questions de propriété intellectuelle, de fiabilité, de déformation de l’information, et donc de couverture en cas de préjudice à autrui.

Human-in-the-loop (HITL)

Système d’intelligence artificielle dans lequel l’humain intervient à un ou plusieurs stades clés du processus de décision ou d’apprentissage. Ce cadre vise à garantir que les décisions critiques, notamment celles à fort impact éthique ou sociétal (santé, justice, sécurité…), restent contrôlées, validées ou supervisées par des opérateurs humains. Ce paradigme s’oppose à l’autonomie totale des systèmes (human-out-of-the-loop) et vise à renforcer la transparence, la responsabilité et la sécurité des technologies d’IA, en maintenant l’humain dans la boucle décisionnelle.

Dans les approches HITL, l’humain peut :
annoter ou corriger des données pour l'entraînement des modèles,
valider ou rejeter une décision proposée par l’IA,
intervenir en cas de doute, d’incertitude ou de scénario imprévu.

LAWS (Lethal Autonomous Weapons Systems)

Systèmes d’armes létales autonomes capables de sélectionner et d’engager des cibles sans intervention humaine directe. Ces systèmes combinent des technologies d’intelligence artificielle, de robotique et de capteurs avancés pour exécuter des actions militaires potentiellement mortelles de manière autonome, sur terre, en mer, dans les airs ou dans le cyberespace. À ce jour, aucun consensus international n’a été trouvé sur l’interdiction ou la régulation des LAWS, bien que des discussions soient en cours au sein de forums comme les Nations unies (CCW).

Le débat sur les LAWS soulève des enjeux éthiques, juridiques et stratégiques majeurs :
Responsabilité : Qui est responsable en cas d’erreur ou de crime de guerre ?
Contrôle humain : Quelle part de décision doit rester entre les mains d’un opérateur humain (concept du "meaningful human control") ?
Prolifération : Quels risques de dissémination vers des acteurs non étatiques ou malveillants ?
Stabilité mondiale : Comment prévenir une course aux armements autonomes ?

LLM (Large Language Model)

Modèle d’intelligence artificielle entraîné sur de vastes ensembles de textes pour comprendre, générer et manipuler le langage humain de façon statistique et contextuelle.

Modules décisionnels

Ensembles algorithmiques capables d’émettre une décision ou une recommandation structurante dans un processus (acceptation d’un prêt, classement d’un dossier, déclenchement d’un signal). Ils peuvent être supervisés ou non, selon le degré d’autonomie et la place du facteur humain dans la boucle.

Psychoprofilage

Méthode d’analyse visant à déduire des traits psychologiques, cognitifs ou comportementaux d’un individu à partir d’indices observables, notamment ses discours, actions, préférences ou interactions numériques. Utilisé dans des domaines variés (sécurité, marketing, recrutement, recherche criminelle), le psychoprofilage cherche à établir un profil type permettant d’anticiper ou d’interpréter les comportements. Le psychoprofilage soulève des questions éthiques majeures :
– respect de la vie privée,
– validité scientifique des outils utilisés,
– risques de manipulation, de discrimination ou de surveillance intrusive.

Dans le contexte de l’IA, il repose souvent sur :
– l’analyse de données textuelles (réseaux sociaux, e-mails, etc.),
– l’utilisation de modèles prédictifs (machine learning),
– des référentiels issus de la psychologie cognitive ou comportementale (ex. Big Five, MBTI).

SBOM (Software Bill of Materials)

Liste structurée et exhaustive des composants logiciels (bibliothèques, modules, dépendances…) intégrés dans un programme ou une application. Comparable à une nomenclature dans l’industrie, le SBOM permet de documenter l’origine, la version et les relations entre les éléments logiciels utilisés.

Il joue un rôle clé dans :
– la sécurité informatique : identification rapide des vulnérabilités connues (ex. CVE) dans les dépendances,
– la conformité réglementaire : respect des licences open source ou exigences sectorielles,
– la transparence des chaînes logicielles : auditabilité, gestion des risques et réponse en cas d’incident.

Le SBOM est promu par des initiatives comme le NTIA (États-Unis) ou les standards CycloneDX et SPDX, et devient obligatoire dans certains secteurs critiques (santé, énergie, administration…).

SCRM (Supply Chain Risk Management)

Démarche de gestion visant à identifier, évaluer et atténuer les risques affectant la chaîne d’approvisionnement d’une organisation, incluant les fournisseurs directs et indirects. En contexte numérique ou industriel, le SCRM prend une importance stratégique face aux menaces telles que les cyberattaques, ruptures logistiques, dépendances critiques ou altérations volontaires.

Dans le domaine de l’IA et des technologies, le SCRM couvre notamment :
– les risques liés aux composants logiciels (ex. dépendances open source non sécurisées),
– les risques liés aux matériels critiques (ex. puces, capteurs, réseaux),
– les risques de fournisseurs malveillants ou compromis,
– la continuité d’activité en cas de rupture ou d’attaque ciblée.

Le SCRM s’intègre aux politiques de cybersécurité, conformité réglementaire et résilience opérationnelle, et bénéficie d’outils comme le SBOM, les audits de tiers, les évaluations de vulnérabilité et la segmentation des fournisseurs stratégiques.

UCN – Unité de Conscience Numérique

L’UCN (Unité de Conscience Numérique) est un concept prospectif, utilisé pour désigner une entité IA dotée d’un degré de conscience opérationnelle ou d’auto-perception suffisant pour agir de manière autonome dans des environnements complexes. L’UCN ne se limite pas à l’exécution d’instructions : elle modélise sa propre existence, ses objectifs, ses interactions avec les autres agents et son environnement.

Assurantiel

D&O – Directors and Officers (Responsabilité des dirigeants)

L’assurance D&O protège les dirigeants et administrateurs contre les poursuites en cas de faute de gestion, décision contestée ou manquement à leur devoir. Elle couvre les frais juridiques, les dommages et intérêts, etc.

Dans le contexte de l’IA : * Elle intervient si un dirigeant prend ou valide une décision liée à l’usage de l’IA (achat d’une IA non conforme, absence de gouvernance) et que cela entraîne un risque réglementaire, éthique ou réputationnel. * Exemple : une entreprise déploie une IA discriminante → si les dirigeants n'ont pas mis en place de contrôle, leur responsabilité personnelle peut être engagée.

E&O – Errors and Omissions (Erreurs et omissions)

L’assurance E&O couvre les responsabilités professionnelles en cas de faute, négligence ou oubli dans la prestation d’un service. Elle protège l’entreprise ou le professionnel contre des dommages causés à un client à la suite d’une erreur (erreur de jugement, omission de conseil, défaut technique, etc.).

Dans le contexte de l’IA : * Elle s’applique lorsqu’un modèle IA produit un résultat erroné ou automatisé qui cause un préjudice (mauvaise décision, biais, manque de transparence). * Exemple : un conseiller financier utilise une IA qui recommande un investissement risqué → si cela provoque une perte, la responsabilité E\&O du cabinet peut être engagée.

Responsabilité civile

Obligation de réparer un dommage causé à autrui, que ce soit par négligence, imprudence ou défaut de vigilance. Elle peut être contractuelle ou délictuelle, et constitue le fondement des garanties RC (responsabilité civile générale, professionnelle, exploitation…).

Responsabilité pénale

Imputation d’une faute à une personne (physique ou morale) pour une infraction prévue par la loi (délit, crime…). Elle est personnelle, non transférable, et peut être engagée en cas d’usage illégal ou dangereux d’un système IA, notamment en matière de cybersécurité ou de discrimination.

Responsabilité morale

Dimension éthique, non juridiquement contraignante, mais essentielle dans la perception publique et la réputation d’une organisation. Une IA mal utilisée peut entraîner une perte de confiance durable, même sans faute légale formalisée.

Responsabilité contractuelle

Issue d’un engagement formel entre deux parties. Si une IA fournie, intégrée ou opérée par un prestataire cause un dommage ou ne respecte pas les niveaux de service (SLA), cette responsabilité est engagée sur la base des termes du contrat initial.

Responsabilité algorithmique

Concept émergent désignant l’imputation d’un dommage à un système algorithmique, qu’il s’agisse d’un biais, d’un défaut d’apprentissage, d’une opacité décisionnelle ou d’un défaut de supervision humaine. Elle soulève la question : qui répond de l’erreur de l’algorithme ? Et sur quelle base ?