Zoom assurantiel : risques nouveaux et couvertures nécessaires
(voir Analyses | Evolutions attendues | Androïdes )
Le déploiement des androïdes dans le monde réel modifie en profondeur la cartographie des risques assurantiels. Ce ne sont plus seulement des machines que l’on protège, mais des agents autonomes, doués de capacité d’action, de décision, et parfois d’apprentissage. Dès lors, le droit, l’éthique et la technique s’entrelacent, et l’assurance devient un art d’équilibriste, entre couverture des dommages potentiels et encadrement de systèmes évolutifs. Le paradigme classique de la responsabilité ou de la garantie « tous dommages sauf » ne suffit plus : il faut désormais articuler la chaîne de responsabilité algorithmique, la propriété fonctionnelle de l’androïde et la nature du code embarqué — dans ses évolutions comme dans ses effets.
La première évidence, celle que l’on ne peut plus ignorer, est celle de la responsabilité civile du fabricant ou du développeur. Lorsqu’un androïde provoque un dommage à un tiers — blessure physique, perte matérielle, atteinte à la vie privée ou à la réputation — qui doit répondre ? Le concepteur du corps mécanique ? Le développeur de l’IA embarquée ? Le distributeur qui a vendu le système ? Le propriétaire qui en a permis l’usage ? La directive européenne sur la responsabilité des produits défectueux (85/374/CEE), amendée en 2023 pour intégrer les produits intelligents, établit que le producteur peut être tenu responsable si l’algorithme prend une décision défectueuse prévisible. Mais dès lors que le code est apprenant, adaptatif, voire auto-modifiable, la notion de défaut devient mouvante, et la frontière entre responsabilité et imprévisibilité s’efface. Le rapport “Artificial Intelligence Act” (EU, 2024) insiste d’ailleurs sur le besoin d’une traçabilité complète des IA dites à haut risque, incluant un journal des décisions — que l’assurance devra, tôt ou tard, exiger comme clause technique.
À l’inverse, l’androïde peut lui-même être victime d’un préjudice : sabotage par un tiers, destruction volontaire, ou encore désactivation malveillante à distance. Ce scénario n’est plus théorique. En 2023, plusieurs cas d’agressions de robots de sécurité autonomes ont été rapportés aux États-Unis et en Corée du Sud, conduisant certains exploitants à souscrire des garanties analogues à celles prévues pour les véhicules d’entreprise. La personnalité électronique, telle qu’évoquée dans le rapport du Parlement européen (2017/2103(INL)), reste juridiquement floue, mais l’idée d’assurer l’androïde comme “bien doté d’une fonction active et décisionnelle” s’impose progressivement. Cela implique de couvrir à la fois son intégrité physique (composants, capteurs, énergie) et son intégrité cognitive (modèle IA, historique de données, droits logiciels).
Dès lors que plusieurs dizaines, voire centaines d’androïdes sont déployés dans une entreprise, la question d’un contrat collectif se pose. Assurer un parc robotique ne peut se faire selon les mêmes modalités qu’un parc automobile. L’évaluation du risque ne repose plus sur la seule vétusté ou le kilométrage, mais sur des facteurs bien plus complexes : fréquence de mise à jour du modèle, niveau d’autonomie déclaré (voir grille NA‑1 à NA‑5), contexte d’usage, degré d’apprentissage en ligne, capacité d’interaction humaine. Le “Guide on AI Risk Management” (NIST, 2023) propose une méthode d’analyse du risque par profil d’usage et degré d’autonomie, qui pourrait devenir une base commune pour les souscripteurs. L’inventaire du parc ne devra plus seulement recenser des numéros de série, mais aussi des versions de firmware, des niveaux de supervision humaine, des registres d’activité, et des matrices d’usage.
Mais ce panorama n’est complet qu’en abordant la question cruciale — et encore largement taboue — de la personnalité juridique de l’androïde. Est-il un bien, un outil, un salarié, un délégué, un acteur ? Dans certains cas, l’androïde est strictement programmé pour exécuter des tâches définies, sans autonomie cognitive significative. Mais dans d’autres, notamment dans la santé, l’éducation ou l’assistance sociale, il prend des décisions, gère des émotions, construit une relation avec un usager. L’androïde n’est alors ni objet ni sujet, mais une figure hybride, que le droit peine à nommer, et que l’assurance doit pourtant intégrer dans un contrat. Faut-il le considérer comme un employé numérique de l’entreprise, avec responsabilité partagée ? Ou comme un délégué algorithmique, dont l’acte engage celui qui l’a programmé ? Ces questions ne sont pas abstraites : elles structurent les futures clauses de souscription, notamment en cas de litige ou de sinistre. Le rapport “AI & Robotics: The Ethical Horizon” (WEF, 2023) appelle à une reconnaissance fonctionnelle de l’androïde comme agent opérationnel sous contrôle humain, ouvrant la voie à une co-responsabilité formalisée.
Enfin, l’un des points les plus critiques — et les moins anticipés — concerne la maintenance logicielle et la mise à jour des IA embarquées. Les androïdes, contrairement aux robots classiques, ne fonctionnent pas sur des schémas fixes : ils intègrent des IA auto-apprenantes, parfois auto-réparantes. Cela signifie que le code évolue avec le temps, selon les données d’usage, les interactions, les corrections automatisées. Un bug peut apparaître trois mois après l’installation, une dérive comportementale peut naître d’un apprentissage local biaisé. Pour l’assureur, cela pose une difficulté nouvelle : le risque n’est plus constant dans le temps, mais évolutif, avec des niveaux de confiance variables. Faut-il exiger un audit régulier du code embarqué ? Un protocole de validation de chaque mise à jour ? Une clause de déconnexion en cas de dérive comportementale ? Le “OECD Framework for AI System Safety” (2024) insiste sur la nécessité de mécanismes d’auto-contrôle, de journalisation des actions, et de réversibilité logicielle — autant de critères que les contrats assurantiels devront intégrer pour rester crédibles et soutenables.
L’androïde n’est donc pas une simple machine avancée : il est un sujet d’assurance complexe, à la fois porteur de risques directs (dommages causés), de risques indirects (erreurs apprises), de vulnérabilités systémiques (sabotage, faille logicielle) et de responsabilités partagées. Sa couverture impose de repenser les fondations du contrat, d’inventer de nouvelles clauses, de conjuguer le droit des biens, le droit des personnes, le droit du numérique, et la science du vivant artificiel. C’est un défi. C’est surtout un moment de bascule. Pour l’assurance, l’avenir ne sera pas seulement intelligent. Il sera incarné.