Actualité > Le billet

Le billet

[ 16 décembre 2024 ] Imprimer

L’intelligence artificielle, entre angoisses irrationnelles et tentatives d’encadrement

L’office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) a rendu en novembre 2024 un rapport intitulé ChatGPT, et après ? Bilan et perspectives de l’intelligence artificielle, visant à faire le point sur les enjeux de ces technologies. Il souligne que le développement de systèmes d’intelligence artificielle (SIA) de plus en plus performants conduit tout à la fois à des angoisses irrationnelles et à des attentes démesurées.

Les transhumanistes appartenant au courant « singulariste » sont ainsi convaincus d’une évolution inéluctable des technologies et notamment de l’intelligence artificielle (IA). La Singularité, notamment annoncée par Ray Kurzweil, serait l’avènement d’une rupture radicale et irréversible dans le continuum de l’espèce humaine pour faire advenir autre chose, qu’on pourrait selon certains appeler le « post humain ».

D’ores et déjà, le recours croissant aux SIA fait craindre à certains la multiplication des dommages causés par ces derniers aux êtres humains. Afin de faciliter l’indemnisation des victimes, l’octroi de la personnalité juridique aux IA a même pu être envisagée. Une résolution du Parlement européen du 16 février 2017 avait demandé à la Commission européenne de proposer des règles de droit afin d’encadrer la robotique en suggérant l’octroi de la personnalité juridique aux « robots ». Afin de tenir compte de l’autonomie et de la liberté décisionnelle de l’IA, elle appelait à « la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables » (recommandation 59). Très critiquée, cette proposition a finalement été abandonnée. Les SIA sont restés des choses juridiques.

Doter les SIA de la personnalité juridique serait tout à la fois dangereux et inutile. Dangereux, d’abord et surtout, car retenir la capacité de réflexion comme critère d’attribution de la personnalité juridique risquerait de poser des problèmes éthiques en cas de transposition de celui-ci aux personnes physiques. Une remise en cause de la personnalité juridique des êtres humains dénués d’autonomie décisionnelle pourrait être crainte. Consacrer la personnalité juridique des SIA pourrait, par ailleurs, conduire à une déresponsabilisation du producteur et de l’utilisateur, ce qui serait susceptible d’avoir pour conséquence une baisse de leur niveau de vigilance et, paradoxalement, une augmentation du nombre de dommages causés par les SIA.

Inutile, ensuite, les régimes de responsabilité civile actuels semblant suffisamment adaptables pour réparer efficacement les dommages causés par un SIA. Lorsque ce dernier est défectueux, le recours à la responsabilité du fait des produits défectueux s’impose. La directive (UE) 2024/2853 du 23 octobre 2024, laquelle vise à réviser celle de 1985 « à la lumière des évolutions liées aux nouvelles technologies » (cons. 3), précise désormais expressément que les produits peuvent être de nature corporelle ou incorporelle. Afin de simplifier l’indemnisation des victimes, elle prévoit également des présomptions simples concernant la défectuosité du produit, d’une part, et le lien de causalité entre le défaut et le dommage, d’autre part. Reste la difficulté présentée par l’exonération pour « risque de développement », laquelle pourrait constituer un obstacle à l’indemnisation des victimes du fait du caractère évolutif des IA fortes. Une option ayant toutefois été laissée sur ce point aux États membres, le législateur français pourrait parfaitement décider de la supprimer.

En l’absence de défaut du SIA, la responsabilité de l’utilisateur pourrait être recherchée sur le fondement de la responsabilité du fait personnel. Précisons qu’une faute ne saurait être automatiquement déduite de la non-conformité de la décision humaine aux résultats de l’IA, notamment dans le domaine médical. Inversement, une faute ne peut être exclue lorsque le médecin se contente de suivre les recommandations de l’IA. Il importe en effet que le médecin conserve sa liberté décisionnelle et, en conséquence, assume les choix réalisés.

L’application de la responsabilité du fait des choses pourrait quant à elle, de manière regrettable, être empêchée par la réforme attendue de la responsabilité civile, la proposition de loi de juillet 2020 (art. 1242) et le projet de réforme de mars 2017 (art. 1243) proposant tous deux de réserver ce régime de responsabilité aux « choses corporelles », ce qui ferait obstacle à toute adaptabilité de ce régime aux évolutions technologiques.

Si des solutions existent pour réparer, en aval, les dommages causés par les SIA, le règlement européen sur l’IA (RIA) n° 2024/ 1689 du 13 juin 2024 vise, plus avant, à réguler l’utilisation des SIA en amont en adoptant une approche par les risques. Il interdit ainsi les SIA présentant un risque inacceptable, comme ceux ayant « recours à des techniques subliminales, au-dessous du seuil de conscience d’une personne, ou à des techniques délibérément manipulatrices ou trompeuses, avec pour objectif ou effet d’altérer substantiellement le comportement d’une personne ou d’un groupe de personnes ». Il invite ensuite à distinguer les SIA présentant un risque élevé, limité ou minimal.

 

Auteur :Amandine Cayol


  • Rédaction

    Directeur de la publication-Président : Ketty de Falco

    Directrice des éditions : 
    Caroline Sordet
    N° CPPAP : 0122 W 91226

    Rédacteur en chef :
    Maëlle Harscouët de Keravel

    Rédacteur en chef adjoint :
    Elisabeth Autier

    Chefs de rubriques :

    Le Billet : 
    Elisabeth Autier

    Droit privé : 
    Sabrina Lavric, Maëlle Harscouët de Keravel, Merryl Hervieu, Caroline Lacroix, Chantal Mathieu

    Droit public :
    Christelle de Gaudemont

    Focus sur ... : 
    Marina Brillié-Champaux

    Le Saviez-vous  :
    Sylvia Fernandes

    Illustrations : utilisation de la banque d'images Getty images.

    Nous écrire :
    actu-etudiant@dalloz.fr