Actualité > Focus sur...

Focus sur...

[ 4 mai 2016 ] Imprimer

Responsabilité et intelligence artificielle

Google car, robots-médecins, ou conversant sur les réseaux sociaux, la science ne cesse de développer de nouvelles intelligences artificielles (IA) qui fascinent. Adrien Bonnet, élève avocat et auteur d’un mémoire intitulé La responsabilité du fait de l’intelligence artificielle, a accepté de répondre à nos questions.

On parle beaucoup de « responsabilité des robots », quelle est la différence entre une IA et un robot ? 

Le robot évoque plutôt la machine physique, tandis que l’IA désigne son « cerveau ». Elle inclut tout dispositif immatériel suffisamment autonome pour accomplir sans supervision humaine des actes qui seraient normalement perçus comme étant réservés à l’homme. Elle peut diriger un robot matériel comme une voiture autonome, mais elle peut aussi agir de façon incorporelle en rédigeant des textes, en concluant des transactions, en créant une œuvre, ou en donnant des conseils. Cette IA « désincarnée » a fait des progrès considérables ces dernières années grâce au machine learning, et ne se contente pas de battre l’homme au jeu de go. Elle est appelée à se substituer à lui de plus en plus, en devenant plus efficace ou rationnelle que lui dans certains domaines.

L’IA est un « agent immatériel », ce qui est un objet nouveau pour notre droit. Ce dernier connaît déjà des agents matériels (les hommes, les animaux), ou des objets immatériels (une œuvre, un logiciel), mais il n’a jamais eu affaire à un pouvoir autonome d’agir sur le monde contenu en puissance dans des algorithmes incorporels. C’est cette nature singulière qui pose problème pour appréhender juridiquement les dommages générés par l'IA.

Quels sont les problèmes juridiques ? Existe-t-il déjà de la jurisprudence à propos des IA ?

Les dommages générés par l'IA peuvent être de toute sorte, allant de l’accident causé par une voiture autonome à l’insulte proférée par une IA « journaliste », en passant par des actes de contrefaçon, des atteintes à la vie privée, ou des transactions frauduleuses. L’un des seuls exemples abordés en jurisprudence concerne les algorithmes de la fonction Suggest de Google, qui associaient automatiquement le nom d’une personne à des termes tels que « escroc». Les juges n’ont pu sanctionner Google qu’au nom d’une prétendue «négligence » qui n'a rien d'évidente (Civ. 1re, 19 juin 2013, n° 12-17.591).

Serait-il possible de faire application à l’IA de l’article 1382 du Code civil, de la responsabilité du fait de choses, ou encore du régime des produits défectueux ? 

Ces textes ont un champ d’application très souple, et le juriste français est habitué à leur faire confiance pour prendre en charge tous les faits d’un nouveau genre. Il est vrai qu’en « tordant » les concepts de ces régimes, on pourrait forcer leur application aux dommages générés par l’IA. Néanmoins, j’essaye de montrer, dans mon mémoire, qu’à moyen terme, cette solution ne sera probablement pas viable.

D’abord, il sera souvent impossible de relier ces dommages à une quelconque faute humaine. Ensuite, les régimes de responsabilité du fait des choses et des produits défectueux ont été pensés dans une perspective purement corporelle (en témoignent les concepts de garde de l’article 1384 du Code civil, ou de dessaisissement de l’article 1386-5 du même Code). Par ailleurs, leurs critères seront vite dépassés par la complexité des schémas de « faits de l’IA » qui se présenteront à eux.

Enfin, même si l'on parvient à les appliquer à l’IA, ils conduiront à des solutions inopportunes et déséquilibrées, soit parce qu’ils prévoiront une responsabilité trop automatique, soit parce qu’ils organiseront une distribution injuste des responsabilités. Sans parler des problèmes d'insécurité juridique.

Quelle serait alors la personne responsable ?

L’IA implique une foule d’acteurs, notamment un concepteur, un producteur, un exploitant, des intermédiaires, un utilisateur, et parfois un propriétaire. Selon les types d’IA et de dommages, il sera souhaitable de faire peser davantage de responsabilité sur l’un ou l’autre. Mais attention, la seule question n’est pas l’identité du responsable. Une problématique tout aussi importante, sinon davantage, consiste à déterminer dans quels cas l’action d’une IA doit engager une responsabilité. En effet, plus l’IA se substituera au fait intellectuel de l’homme, plus il sera nécessaire d’accepter qu’elle puisse, comme lui, librement générer des dommages lorsqu’ils sont légitimes (par ex. des dommages concurrentiels, des dommages de réputation, de sélection, etc…).

Vous dites dans votre mémoire que les innovations technologiques précèdent toujours le droit… Serait-il possible pour le législateur d’anticiper en la matière et si oui comment ? Faudrait-il, selon vous, à long terme, accorder aux IA une personnalité juridique ?  

Il est souvent vain, voire dangereux, de chercher à légiférer sur des technologies dont on commence à peine à comprendre les implications. Toutefois, je suggère qu’à moyen terme il pourrait être nécessaire de prévoir un régime général de responsabilité du fait des dispositifs mus par des IA, afin de ne pas laisser le juge désarçonné face à des hypothèses inédites. Quant à la personnalité juridique, elle me paraît impuissante à résoudre les problèmes qui se posent en matière de responsabilité. Si elle devait un jour être consacrée, ce serait plutôt au terme d’une démarche morale, pour assurer la protection de certaines IA humanoïdes. Je crois néanmoins que ce résultat pourrait être aussi bien atteint grâce à d’autres outils juridiques moins polémiques.

Le questionnaire de Désiré Dalloz

Quel est votre meilleur souvenir d’étudiant ?

Sans doute mon année d'étude à Vancouver.

Quel est votre héros de fiction préféré ?

L'inspecteur Clouseau. Je pense qu'il répond bien aux critères du « héros ».

Quel est votre droit de l’homme préféré ?

Le droit de les rendre effectifs.

 

Auteur :A. L. et M. B.


  • Rédaction

    Directeur de la publication-Président : Ketty de Falco

    Directrice des éditions : 
    Caroline Sordet
    N° CPPAP : 0122 W 91226

    Rédacteur en chef :
    Maëlle Harscouët de Keravel

    Rédacteur en chef adjoint :
    Elisabeth Autier

    Chefs de rubriques :

    Le Billet : 
    Elisabeth Autier

    Droit privé : 
    Sabrina Lavric, Maëlle Harscouët de Keravel, Merryl Hervieu, Caroline Lacroix, Chantal Mathieu

    Droit public :
    Christelle de Gaudemont

    Focus sur ... : 
    Marina Brillié-Champaux

    Le Saviez-vous  :
    Sylvia Fernandes

    Illustrations : utilisation de la banque d'images Getty images.

    Nous écrire :
    actu-etudiant@dalloz.fr