Droit, IA Intelligence Artificielle, master Droit de la Santé Numérique et Intelligence artificielle, Impact AI, Artificial Intelligence Act, protection des droits fondamentaux, droits fondamentaux, UNESCO, CAI Committee on Artificial Intelligence, Comité sur l'intelligence artificielle, Future of Life Institute, principes fondamentaux
L'Intelligence artificielle (IA) est une technologie de pointe conçue pour imiter l'intelligence humaine et effectuer des opérations complexes dans un temps réduit afin de favoriser l'efficacité des taches et optimiser la prise de décision. Cependant, l'effet disruptif de cette technologie, conjugué à son mode de fonctionnement complexe et souvent opaque, fait de l'IA une arme à double tranchant, dans la mesure où tout usage détourné implique des conséquences néfastes sur les plans socio-économique et politique.
De ce fait, différentes initiatives ont appelé à mettre en oeuvre des mesures concrètes et adaptées pour garantir le déploiement d'une IA éthique et responsable.
[...] Le projet de règlement précise aussi les obligations qui incombent aux différents intervenants sur la chaine de valeur de l'IA. Les fournisseurs de ces systèmes sont tenus en outre d'une obligation de conformité et d'une analyse de qualité continue, et ce pour garantir la qualité des données collectées, la robustesse, l'exactitude et la cybersécurité. Ces régimes juridiques sont néanmoins discutables, dans la mesure où les dispositions de l'article 5 prévoient l'emploi des technologies de reconnaissance faciale et de détection des émotions à des fins d'enquête judiciaire, et ce, à travers une autorisation ex-post en présence d'une situation « à risque dûment justifié », ce qui en définitive porterait atteinte aux droits fondamentaux. [...]
[...] La tâche semble ardue en présence d'une opacité scientifique quasi-totale et du changement de paradigme apporté par l'émergence de l'IA générative, laquelle remet en cause notre rapport même au savoir et risque d'accentuer les clivages technologiques. En conséquence, certains établissements d'enseignement ont introduit l'éthique dans les recherches et la conception des systèmes d'IA pour promouvoir des technologies responsables. En outre, la Future of Life Institute qui avait établi les principes fondamentaux de l'IA éthique, appelle aujourd'hui à suspendre les recherches de pointe en la matière pendant 6 mois compte tenu du « risque civilisationnel » qu'elle représente. Quelle sera donc la réaction des acteurs publics ou privés de l'écosystème de l'IA ? [...]
[...] D'où la nécessité donc d'établir une évaluation d'impact éthique préalable, telle que rappelée par la Recommandation et de prévoir des organes de surveillance compétents pour contrôler la proportionnalité des fonctionnalités des systèmes déployés à l'encontre des risques encourus et émettre des avis et recommandation en la matière. L'IA Act instaure à cet effet le Comité Européen d'Intelligence Artificielle qui doit opérer en concordance avec des autorités nationales compétentes. Enfin, si la Recommandation fait de la transparence et de la collaboration multipartite des principes fondamentaux, l'IA Act les consacre à différentes échelles. [...]
[...] D'autre part, les deux textes favorisent une gouvernance souple et inclusive en matière d'IA, qui assure, non seulement un mécanisme de certification et de conformité sous la surveillance d'une autorité compétente, mais encore, la participation des différents acteurs du secteur tels que les pouvoirs publics, les industriels ou les établissements de recherche. Cet apport se manifeste à travers le collectif « Impact AI », dont l'objectif principal est de promouvoir une IA éthique et responsable et d'assurer le dialogue entre les parties prenantes, en organisant des conférences et des compagnes de sensibilisation ou en accompagnant les entreprises dans leurs stratégies IA. En tout état de cause, l'ensemble de ces initiatives met en exergue la place centrale de l'humain, en admettant que l'objectif de l'IA soit d'améliorer les conditions de vie humaine. [...]
[...] À ce titre, « Impact AI » a développé un guide IA de confiance, qui pourrait in fine, être considéré comme un Code de conduite. Ce guide concrétise la mise en commun d'efforts publics et privés, et prévoit des modalités stratégiques et opérationnelles applicables dans le cadre de la gouvernance IA des entreprises. Ainsi, le modèle de gouvernance et de promotion d'IA éthique développé par les initiatives traitées doit répondre à un double objectif : garantir l'adaptabilité du cadre réglementaire aux réalités du marché et promouvoir une IA éthique sans compromettre l'innovation. [...]
Bibliographie, normes APA
Citez le doc consultéLecture en ligne
et sans publicité !Contenu vérifié
par notre comité de lecture