> Observatoire de l'Intelligence artificielle

L’Observatoire de l'Intelligence artificielle de Paris 1 Panthéon-Sorbonne vise à fédérer les actions menées par différentes équipes de recherche de l’université sur le développement de l’intelligence artificielle (IA) dans différents champs disciplinaires dont l’informatique, les mathématiques, le droit, l’histoire, la géographie, la philosophie, l’économie ou encore la gestion, la sociologie et les arts, afin d'explorer l'impact social de l'intelligence artificielle en adoptant une approche réflexive et multidisciplinaire.

Ce projet est porté par Stéphane Lamassé (Maître de conférences en histoire et humanités numériques), Camille Salinesi (Professeur en informatique) et Célia Zolynski (Professeure de droit privé).

Licence Creative Commons (3/5) Les développements canadiens vers un encadrement de l'IA

21 avril 2023
Durée : 00:31:02
Nombre de vues 14
Nombre d’ajouts dans une liste de lecture 0
Nombre de favoris 0

Organisé le 21 avril 2023 par l'Observatoire de l'IA de l'université Paris 1 Panthéon-Sorbonne, le colloque « Intelligence artificielle et droits fondamentaux : regards transatlantiques » avait pour objectif de présenter une approche de droit comparé relative aux impacts des systèmes d’intelligence artificielle sur les droits humains. En effet, ces dernières années, de nombreux rapports et avis ont été publiés sur la manière de réglementer et de réguler l’intelligence artificielle (IA). La Commission européenne a présenté une proposition de règlement sur l'intelligence artificielle actuellement en discussion au sein du Conseil et du Parlement européen. De plus, des travaux ont été menés au sein d’un comité sur l’IA du Conseil de l’Europe. D’autres initiatives sont aujourd'hui conduites au niveau international, notamment aux États-Unis, mais aussi au Canada.

Actuellement chercheur invité du Berkman-Klein Center for Internet and Society à Harvard University, Florian Martin-Bariteau a dirigé un ouvrage collectif au côté de Teresa Scassa intitulé « Artificial Intelligence and the Law in Canada », publié en 2021 aux éditions LexisNexis (1). Il est professeur agrégé à la Chaire de recherche de l’Université en technologie et société à l'Université d’Ottawa.

Dans son intervention dans le colloque cité plus haut, Florian Martin-Bariteau commence par présenter les principales réglementations existantes au Canada en matière d’IA. Bien que le Canada ne dispose pas d’un encadrement comparable au droit européen, il demeure possible de mobiliser le droit existant pour assurer un cadre de responsabilité pour les utilisations de SIA et les cas de comportements nuisibles. Par ailleurs, la directive sur la prise de décisions automatisée de 2019 (2) impose un avis préalable pour qu’une décision administrative soit rendue sur le fondement d’un système automatisé et nécessite un test avant le déploiement de ce système et tout au long de son utilisation notamment par le biais d’une analyse d’impact relative aux algorithmes. Toutefois, il ne s’agit pas d’un cadre contraignant et cet avis ne s’applique qu’à certaines décisions prises par des SIA.

Florian Martin-Bariteau poursuit en expliquant le projet de loi sur l’IA et les données de juin 2022 et actuellement discuté au Parlement. Ce texte, annoncé comme une réponse aux enjeux de l’IA, repose principalement sur des obligations d’information et de transparence avec une approche par les risques. Il a été remarqué que l’intégralité des dispositions est renvoyée à des textes délégués à de futurs règlements qui seront adoptés par le gouvernement fédéral canadien. En outre, l’essentiel des dispositions s’applique aux SIA à très haut risque.

(1) Florian Martin-Bariteau et Teresa Scassa (dir.), Artificial Intelligence and the Law in Canada, LexisNexis, 2021.
(2) Gouvernement canadien, Directive sur la prise de décisions automatisée, 2019, https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592.

Mots clés : canada droits fondamentaux ia intelligence artificielle replay

 Informations