Faut-il doter l’intelligence artificielle de la personnalité juridique ?
Il convient de tout d’abord de noter que le développement de plus en plus accru des services de l’intelligence artificielle constitue le terreau fertile de bon nombre de commentateurs qui considèrent cette dernière comme dangereuse, qui pourrait en fin de compte aboutir à la réalisation de dommages envers l’humanité qui en serait par conséquent la victime. Il fut, sous ce rapport, par ailleurs préconisé d’attribuer à l’intelligence artificielle la personnalité juridique : cette proposition aurait pour objectif principal de permettre une meilleure indemnisation des victimes de ce service, si un dommage se réalisait en effet. A ce sujet, l’on peut relever la résolution prise par le Parlement européen, en date du 16 février 2017. Cette résolution avait pour objet de réclamer à la Commission européenne de présenter, d’insuffler des règles juridiques afin que garantir un encadrement plus efficace du domaine de la robotique, précisément par l’attribution de cette personnalité juridique. Il était en effet question, du fait même de l’immense capacité dont dispose l’intelligence artificielle en matière décisionnelle, d’élaborer, mettre en œuvre et appliquer une personnalité juridique bien spécifique afin notamment que les robots les plus avancés soient finalement reconnus comme étant des personnes électroniques, responsables des dommages qu’ils peuvent occasionner à autrui. Dans tous les cas, sûrement du fait des critiques portées à l’encontre de cette demande, celle-ci resta lettre morte ; par conséquent, les services d’intelligence artificielle demeurent à ce jour des choses d’un point de vue juridique.
- Cours en droit civil : Le droit des personnes - La personnalité juridique
- De la législation européenne aux réalités d'intégration de l'intelligence artificielle
Pourquoi critiquer cette demande d’attribution de la personnalité juridique ?
S’il est vrai que cette proposition fut critiquée par bon nombre de commentateurs, il convient maintenant d’en comprendre un peu plus précisément les causes. En effet, une telle attribution ne serait pas sans poser certaines questions d’ordre éthique dans la mesure où admettre que cette capacité de réflexion constituerait un élément constitutif dans l’attribution de la personnalité juridique, transposé aux personnes physiques, serait bien problématique. Sous ce rapport, se pose la question suivante : les individus qui ne disposent pas d’une autonomie de décision ne seraient-il pas d’une certaine manière considérés comme inférieurs ? Cette attribution pourrait également amener à la reconnaissance d’une absence de responsabilité à l’égard de son créateur ou de l’utilisateur ?
Nous pouvons aussi relever qu’aujourd’hui il existe tout un ensemble de règles juridiques en matière de responsabilité civile qui peuvent valablement être adaptées à la problématique liée à la possible survenue de dommages causés par l’intelligence artificielle. Nous pouvons à cet égard et sans grande difficulté relever les règles civiles françaises existantes en matière de responsabilité du fait des produits défectueux, telles qu’elles découlent des dispositions contenues au sein des articles 1245 à 1245-17 du Code civil. Si le produit est défectueux, qu’il crée un dommage et que les conditions contenues dans ces mêmes articles sont réunies, ce régime de responsabilité s’applique. Néanmoins, pour le cas où la réforme de la responsabilité civile venait à voir le jour, et si les préconisations déjà formulées à ce sujet étaient suivies par les parlementaires français, ce régime ne trouverait plus à être appliqué dans la mesure où il s’agirait d’un régime réservé strictement aux choses corporelles. L’évolution technologique ne serait plus impactée par ce régime juridique de la responsabilité du fait des produits défectueux.
Du point de vue du droit de l’Union européenne, relevons maintenant l’existence de la directive 2024-2853 du Parlement européen et du Conseil, en date du 23 octobre 2024. Cette directive prévoit dorénavant que les produits peuvent être aussi bien de nature corporelle qu’incorporelle (notamment les considérants n°13 et 20). En cas de dommage et de manière à favoriser l’indemnisation des victimes, la directive a prévu la mise en place de présomptions simples à l’égard de la défectuosité du produit en cause mais aussi concernant le lien de causalité existant entre le défaut du produit et le dommage dont se plaint la victime. Soulignons enfin l’exonération qui existe à l’égard du « risque de développement ». Cette problématique doit être réglée par chaque Etat membre de l’Union européenne (cf. considérant n°59), et nous ne pouvons préjuger d’un quelconque choix des parlementaires français.
Pour le cas particulier où il n’existerait aucun défaut du service d’intelligence artificielle, et afin de rechercher une indemnisation, il serait possible de mettre en mouvement les règles en matière de responsabilité du fait personnel de l’utilisation. Il nous faut souligner ici qu’aucune faute ne saurait valablement être déduite de manière automatique, systématique concernant la non-conformité d’une décision prise par un utilisateur par rapport aux résultats présentés par le service d’intelligence artificielle. Ceci est d’autant plus important que l’intelligence artificielle et son utilisation sont de plus en plus présentes dans le secteur de la santé par exemple. L’inverse est aussi vrai : donc, dès l’instant où un professionnel de santé suit les recommandations d’une intelligence artificielle sans les questionner, sa faute ne saurait valablement être exclue. Ce dernier doit garder ses capacités décisionnelles et donc prendre une décision en son âme et conscience.
On le voit donc l’émergence puis le développement des services d’intelligence artificielle n’ont pas fini de poser un certain nombre de questions différentes natures, juridiques naturellement mais aussi éthiques dans certains cas. Force est de constater que ce sont les futurs travaux parlementaires, nationaux et internationaux, qui pourront permettre de mieux encadrer l’usage desdits services.
Références
https://www.senat.fr/salle-de-presse/dernieres-conferences-de-presse/page-de-detail-2/chatgpt-et-apres-bilan-et-perspectives-de-lintelligence-artificielle-4126.html
https://www.senat.fr/travaux-parlementaires/office-et-delegations/office-parlementaire-devaluation-des-choix-scientifiques-et-technologiques/les-nouveaux-developpements-de-lintelligence-artificielle.html
https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:52017IP0051&from=IT
https://www.europarl.europa.eu/topics/fr/topic/artificial-intelligence