AccueilDroitFaut-il réguler l'Intelligence artificielle ?

Faut-il réguler l'Intelligence artificielle ?

« Les robots n'ont pas d'éthique. L'éthique, c'est nous qui l'inventons ». Il y a donc urgence à se former aux enjeux posés par les algorithmes afin de les réguler. C'est le constat ressorti du débat organisé par le Club des juristes, le 12 octobre dernier à Paris, intitulé « Droit et Intelligence artificielle : quels impacts ? ».
Faut-il réguler l'Intelligence artificielle ?

Droit Publié le ,

Le débat humain Vs machine n'est pas nouveau, mais refait surface avec les progrès en matière d'intelligences artificielle (IA). L'homme contre les robots de Bernanos, publié en 1947, qui ressort en librairie, et le succès d'Homo Deus de Yuval Noah et de la série Westworld en témoignent.

Le temps d'une soirée, le think tank juridique a réuni la crème des experts des enjeux juridiques et déontologiques que pose l'utilisation de l'IA. Un événement qui s'inscrit dans le débat public sur les enjeux éthiques des algorithmes lancé par la CNIL.

Amal Taleb, vice-présidente du Conseil national du Numérique, introduit les débats en revenant sur le rôle de ce comité consultatif qui adresse les enjeux numériques de demain dans leurs aspects politique, social et juridique. Elle assure que l'instance fait « la promotion d'un numérique ancré dans sa culture européenne », avec une vision orientée vers la tradition constitutionnelle des Etats membres européens qui défendent les libertés fondamentales.

Besoin de formation

Pour Amal Taleb, il faut pouvoir « s'approprier l'IA, permettre aux travailleurs de la comprendre, de la domestiquer et de l'utiliser ». Il faut donc se former. Tout le panel semble unanime sur ce besoin de formation.

« Il faut concevoir ces machines comme étant des aides pour les humains mais qu'il faut utiliser avec attention », explique Laurence Devillers, professeure en informatique appliquée aux sciences sociales, spécialiste de l'interaction homme-machine. Après avoir détaillé les piliers de l'IA (perception, décision, action, apprentissage), elle a averti l'audience sur les incidences éthiques graves de cette interaction et le risque de manipulation (nudging).

« L'éducation est un levier essentiel » selon Marc Mossé, directeur des affaires publiques et juridiques de Microsoft, car « la vraie question est celle des usages de la machine », ce qu'on décide d'en faire.

Franca Salis-Madinier, secrétaire nationale de la CFDT Cadres membre d'un comité du CESE européen ayant rendu un avis sur l'IA au printemps dernier qui traite la question majeure de savoir ce que nous voulons comme société, confirme en répondant « une société avec l'Homme aux commandes et pas les machines ».

L'autre question est celle de l'impact énorme de l'IA sur le monde du travail. France stratégie prédit ainsi une de disparition de 10 % des emplois actuels. La formation est donc « vitale » pour s'adapter à l'IA. Il y a même « urgence » pour Eric Bothorel, député de la majorité présidentielle.

Laurence Devillers, Benoît Georges, Florence Chafiol, Marc Mossé et Eric Bothorel. © A.P.

Besoin de régulation

Si les intervenants ne sont pas tous d'accord sur la façon d'encadrer et de réguler les algorithmes, tous s'accordent sur cette nécessité.

« On a déjà suffisamment de bases juridiques pour réussir à gérer l'IA avec ce que l'on a », estime Maître Florence Chafiol, associée August & Debouzy, en citant notre droit de la responsabilité, et de la protection des données à caractère personnel.

On peut, par exemple, appliquer aux robots la responsabilité du fait des choses ou des animaux. « Il y a le juridique d'un côté et l'éthique de l'autre », distingue l'avocate, pour qui il n'y a pas un besoin de réformer le droit mais plutôt un besoin de régulation éthique. « Les robots n'ont pas d'éthique. L'éthique, c'est nous qui l'inventons » ajoute Franca Salis-Madinier.

L'avocat américain Winston Maxwell, spécialiste de la protection de la vie privée sur internet qui a contribué au rapport du Conseil d'Etat sur les droits fondamentaux à l'ère du numérique, partage cette analyse. Selon lui, ça n'a pas de sens de réguler l'IA avec un nouveau droit, il suffit pour le moment de traiter au cas par cas ses enjeux juridiques. La jurisprudence et quelques textes de droit sectoriel comme la loi de 2015 sur les voitures autonomes feront l'affaire.

La chercheuse Laurence Devillers n'est pas d'accord. Selon elle, « on a besoin de régulation » donc il faut travailler sur l'éthique et le juridique en réfléchissant à des garde-fous. Elle a ainsi participé à la rédaction de plusieurs rapports (alliance Allistene, CNRS).

Si le parlementaire Eric Bothorel n'est « pas obsédé par l'idée de faire une loi pour réguler l'IA », car il y a « déjà beaucoup de textes satisfaisants », celui-ci propose d'adapter les instances pour régler les problèmes spécifiques et complexes qu'elle génère et évoque la création d'une Cour spéciale du numérique.

Besoin d'expérimentation

L'avocat Winston Maxwell met en avance la nécessité pour les entreprises de faire des études d'impact lorsqu'elles créent des algorithmes, pour les montrer au législateur et pourquoi pas à des instances de contrôle éthique.

Il y a « des machines dont on n'a pas besoin », souligne Franca Salis-Madinier et des « choses qu'on ne doit pas développer en IA » ajoute Marc Mossé, qui met en avant le besoin d'expérimentation et de travail collaboratif avec les Etats et les laboratoires publics et privés.

D'ailleurs, Microsoft a créé fin 2016, avec ses compères géants de la tech (Google, Apple, Facebook, IBM, Amazon...), « l'alliance IA », une sorte de forum permanent ouvert à tous (assurent-ils), où l'on réfléchit aux bonnes pratiques, notamment éthiques, à promouvoir dans l'IA.

L'éthique devrait être décidée au niveau étatique et pas dans les entreprises selon Laurence Devillers, choquée par ces pratiques.

Pour le député, le souci est que les entreprises européennes soient écartées du débat. Pour remédier à cette discrimination il faudrait faciliter l'investissement en capital-risque, c'est pourquoi le Gouvernement souhaite donner la capacité aux entreprises de lever des fonds afin de créer ses propres GAFAM.

Tout cela coûte cher, en temps comme en argent. En effet, Marc Mossé a comparé avec malice le budget total alloué par l'ancienne mandature au projet France IA et le budget annuel de Microsoft de 10 milliards d'euros, plus de 10 fois supérieur.

Partager :
Abonnez-vous
  • Abonnement intégral papier + numérique

  • Nos suppléments et numéros spéciaux

  • Accès illimité à nos services

S'abonner
Journal du 20 mai 2022

Journal du20 mai 2022

Journal du 13 mai 2022

Journal du13 mai 2022

Journal du 06 mai 2022

Journal du06 mai 2022

Journal du 30 avril 2022

Journal du30 avril 2022

S'abonner
Envoyer à un ami
Connexion
Mot de passe oublié ?