AccueilActualitéRégion Île-de-France & Grand ParisComment la France prépare-t-elle son entrée dans le « championnat de l'IA » ?

Comment la France prépare-t-elle son entrée dans le « championnat de l'IA » ?

Au lendemain de la publication du rapport Villani se tenait, à Paris, le sommet de l'IA : l'occasion de présenter les objectifs et les défis à relever par la France en matière d'Intelligence Artificielle.
Cédric Villani
© wikimedia commons - Cédric Villani

ActualitéRégion Île-de-France & Grand Paris Publié le ,

En septembre dernier, le Premier ministre, Edouard Philippe, a chargé Cédric Villani, mathématicien médaillé Fields et député de l'Essonne, une mission sur l'Intelligence Artificielle. Menée de septembre 2017 à mars 2018, avec l'aide de Marc Schoenauer, Yann Bonnet, Charly Berthet, Anne-Charlotte Cornut, François Levin et Bertrand Rondepierre, la mission Villani débouche sur un rapport, présenté la veille du sommet de l'Intelligence Artificielle.

Pour Cédric Villani, ce colloque sur l'IA devait être introductif et très international. Le sommet « AI for Humanity », qui se tenait au Collège de France, marque l'aboutissement de la mission Villani sur l'IA. C'était aussi l'occasion de présenter les objectifs et de marquer l'entrée de la France et de l'Europe dans la compétition.

Mounir Mahjoubi, secrétaire d'Etat chargé du Numérique, a rappelé que l'intitulé « Intelligence Artificielle pour l'humanité » incarne la volonté du Gouvernement, qui s'est fixé deux objectifs : la performance et l'humanité. Pour le secrétaire d'Etat, la France et l'Europe peuvent devenir des références mondiales de l'IA. Cependant, ce dernier souligne qu'il convient, parallèlement aux progrès, de se poser la question des conséquences, du sens et de l'évaluation de l'impact sur les humains. Ces objectifs sont au cœur du rapport Villani.

« Lorsque l'on parle d'IA, on se retrouve toujours à parler de l'Intelligence humaine, qui se met au service de la transformation de la société », remarque le député de l'Essonne à l'ouverture de ce colloque. Un ton annonçant la teneur des interventions de cet événement inédit. Ce sommet s'articulait autour de trois axes : la recherche et la formation, les impacts sociétaux et la politique économique. Pour répondre aux questions attachées à ces grands thèmes, des experts du monde entier étaient réunis : chercheurs, professeurs, médecins, ou encore entrepreneurs.

Des membres du Gouvernement ont également pu se pencher sur certaines problématiques de l'IA. Frédérique Vidal, ministre de l'Enseignement supérieur, de la Recherche et de l'Innovation, a parlé de l'attractivité de la recherche publique au côté de Yann Le Cun, directeur du laboratoire de recherche de l'IA de Facebook. Mounir Mahjoubi s'est exprimé sur le sujet « La donnée, le citoyen et l'IA », et Bruno Le Maire, ministre de l'Economie et des Finances, clôturait cette matinée avec une intervention sur l'émergence des champions de l'IA.

Préjugés et dérives de l'IA

Parmi les nombreux thèmes abordés par la mission Villani, l'un d'entre eux retient toute notre attention, puisqu'il soulève la question du droit, des normes et valeurs sociales face ou avec l'IA. Après avoir traité la question de la politique économique, de la recherche, de l'emploi et de l'écologie, l'équipe de chercheurs s'est enfin penchée sur une éthique pour l'IA.

Les progrès considérables de l'IA et la question de son influence sur nos vies quotidiennes sont actuellement au centre du débat public. Selon le rapport Villani, « Ce débat a principalement pris la forme d'une large réflexion sur les enjeux éthiques liés au développement des technologies d'Intelligence Artificielle et plus largement des algorithmes ». La mission évoque notamment les « algorithmes du quotidien », qu'elle définit comme étant « ceux qui organisent nos fils d'actualité, guident nos décisions d'achats ou déterminent nos programmes d'entraînements sportifs ».

Comme à chaque avancée scientifique, le législateur se retrouve à nouveau devant cette balance, qui oppose l'exploitation des progrès scientifiques et technologiques, d'un côté, et les intérêts individuels et valeurs sociales, de l'autre. La mission Villani invite à une mobilisation de l'ensemble des acteurs de l'IA : membres de la communauté scientifique, Pouvoirs publics, industriels, entrepreneurs ou encore organisations de la société civile.

Un cadre basé sur cinq recommandations

Le rapport Villani propose « un cadre éthique pour le développement de l'IA » fondé sur cinq piliers. Tout d'abord, l'équipe de chercheurs constate la nécessité d'accroître la transparence des systèmes autonomes, en investissant notamment massivement dans la recherche sur la vulgarisation. Le but est donc à la fois de rendre les mécanismes accessibles et compréhensibles pour tous, et ainsi de lutter contre l'effet « boîte noire ». La mission considère également que « la constitution d'un corps d'experts dotés des compétences requises semble nécessaire pour procéder à des audits d'algorithmes ». Cependant, l'équipe souligne que la capacité d'évaluation et d'audit des IA doit également émaner de la société civile.

Ensuite, selon le rapport Villani, il convient de penser l'éthique dès le commencement. Il s'agirait donc de former toute personne qui contribue à la conception, au développement et à la commercialisation de systèmes d'IA. Chercheurs, ingénieurs et entrepreneurs doivent apprendre à agir « de manière responsable », leurs activités ayant de forts impacts socio-économiques. La mission propose un élargissement des compétences des professionnels, en ajoutant l'enseignement de l'éthique et des sciences sociales à la formation des ingénieurs et informaticiens.

Le rapport constate l'existence « d'angles morts » dans la législation nationale et européenne, en matière de protection des individus. Selon l'équipe de chercheurs, ces failles découlent du fait que la loi Informatique et Libertés et le RGPD ne traitent que des données à caractère personnel. L'Intelligence Artificielle ne mobilisant pas que des données personnelles, beaucoup d'activités échappent aux règles, alors même qu'elles ont des impacts significatifs sur les individus. Pour remédier à cette situation, Cédric Villani et ses confrères invitent à « rendre l'action de groupe effective », en intégrant notamment dans cette action la réparation du préjudice subi.

L'équipe donne aussi des pistes pour « garder la main ». L'IA engendre des bouleversements colossaux dans des domaines très divers. Elle est très attractive dans le secteur bancaire-assurance, puisqu'elle permet, par exemple, de prédire les probabilités de défaut de paiement des emprunteurs. Le rapport relève que les institutions (Justice, Police, Armée) commencent également à déployer des systèmes d'analyse prédictive. Une exploitation de l'IA dans l'exercice de fonctions régaliennes soulève d'importantes problématiques éthiques. Le rapport présente deux mesures fondamentales pour affronter ces changements : encadrer l'utilisation des algorithmes prédictifs et mettre en place un observatoire sur la non-prolifération des armes autonomes.

Enfin, la mission Villani recommande d'instaurer un Comité consultatif national d'éthique pour les technologies numériques et l'Intelligence Artificielle. La création d'une telle institution permettrait d'organiser le débat public, « de façon lisible, construite et encadrée par la loi ». Ce comité pourrait émettre des avis « élaborés en toute indépendance », afin d'aiguiller les chercheurs et autres acteurs économiques et industriels. Les membres de la mission évoquent un comité ouvert sur la société avec, à la fois une saisine institutionnelle (par le président de la République, le Gouvernement, le Parlement, par un établissement d'enseignement supérieur, etc.) mais aussi une saisine citoyenne. Il aurait pour vocation de faire vivre le débat éthique dans la société.

Ce sommet international de l'IA soulève donc une multitude d'interrogations. Un cadre éthique suffira-t-il, d'une part, à protéger efficacement les citoyens, et d'autre part, à lutter contre les angoisses et spéculations qui entourent l'IA ? Il semblerait qu'une réforme de plus grande ampleur relative à un encadrement juridique soit nécessaire.

La structure du rapport

Le rapport, intitulé « Donner un sens à l'Intelligence Artificielle, pour une stratégie nationale et européenne », est composé de six parties. La diversité des sujets traités donne à voir le vaste champ de l'Intelligence Artificielle.

Partie 1 : Une politique économique articulée autour de la donnée

Partie 2 : Pour une recherche agile et diffusante

Partie 3 : Anticiper et maîtriser les impacts sur le travail et l'emploi

Partie 4 : L'Intelligence Artificielle au service d'une économie plus écologique

Partie 5 : Quelle éthique de l'IA ?

Partie 6 : Pour une Intelligence Artificielle inclusive et diverse

Un budget conséquent : 1,5 milliard

Emmanuel Macron a présenté la stratégie nationale en faveur de l'IA dans la foulée de la remise du rapport Villani. À la fin du mois de mars dernier, le président de la République a annoncé fièrement « un investissement massif d'un peu plus de 1,5 milliard d'euros sur l'Intelligence Artificielle au cours du quinquennat à travers divers appels à projets ». Ce plan gouvernemental a ainsi pour objectif de « faire de la France un leader de l'IA ». Un budget conséquent comparé à ceux alloués par les grandes puissances du secteur (lire l'étude comparative sur les stratégies nationales en matière d'Intelligence Artificielle rédigée par la Direction générale du Trésor, sur l'Allemagne, la Chine, la Corée, les États-Unis, le Japon, le Royaume-Uni, la Suède, la Suisse).

Ce budget est néanmoins pas si impressionnant quand on connait le montant engagé par certaines grandes entreprises. Ainsi, le budget annuel investit dans l'IA par Microsoft est de 10 milliards d'euros,
selon Marc Mossé, directeur affaires publiques et juridiques de la branche européenne du groupe.

Hasard du calendrier

La sortie du rapport Villani coïncide avec la révélation de l'affaire « Cambridge Analytica », qui a conduit Mark Zuckerberg à rendre des comptes aux utilisateurs de Facebook. La société Cambridge Analytica a sondé les données de 270 000 personnes via un questionnaire de personnalité. L'ensemble de ces données collectées a permis à l'entreprise de réaliser un profilage des personnes (intérêts, goûts et orientations politiques). En jouant sur l'algorithme de Facebook (mécanique des « likes ») qui vend ses espaces publicitaires, Cambridge Analytica a pu sélectionner des contenus présentant une orientation pro Donald Trump et les mettre en top list dans le fil d'actualité de millions de gens.

Partager :
Abonnez-vous
  • Abonnement intégral papier + numérique

  • Nos suppléments et numéros spéciaux

  • Accès illimité à nos services

S'abonner
Journal du 09 décembre 2022

Journal du09 décembre 2022

Journal du 02 décembre 2022

Journal du02 décembre 2022

Journal du 25 novembre 2022

Journal du25 novembre 2022

Journal du 18 novembre 2022

Journal du18 novembre 2022

S'abonner
Envoyer à un ami
Connexion
Mot de passe oublié ?