Le président sortant de l'IFCLA (International Association of Computer Law Associations), André Meillassoux, actuellement à la tête de l'Afdit (Association française de droit de l'informatique et de la télécommunication) a ouvert avec grand plaisir ces deux journées de colloque sur le droit des nouvelles technologies.
Un environnement global
Avec une approche comparative, les 45 intervenants européens et américains y ont présenté les nouvelles tendances de leurs pays.
De grands acteurs français ont pu intervenir devant ce parterre international, notamment Sophie Nerbonne, directrice adjointe des affaires juridiques, internationales et de l'expertise des représentants de la Cnil (Commission nationale de l'informatique et des libertés), venue présenter un premier bilan 15 jours après la mise en œuvre du RGPD, ou encore le professeur de droit privé Pierre Berlioz, directeur de l'EFB (Ecole de formation des barreaux), ayant donné un éclairage sur l'encadrement juridique des nouvelles technologies.
Une table ronde très européenne a abordé le sujet brûlant du RGPD, « tout en prenant en compte l'impact du Brexit et en s'attachant aussi à examiner les conséquences juridiques des flux souvent étroitement liés d'une manière ou d'une autre avec les USA », explique Marie-Hélène Tonnellier, présidente de l'IFCLA.
Les aspects responsabilité légale des technologies disruptives ont aussi été abordés, que ce soit pour les objets connectés (IoT), l'intelligence artificielle (IA) ou dans le cadre des projets de voitures autonomes.
Un focus spécifique sur les avancées de la blockchain a été fait par trois spécialistes, notamment comme moyen de protéger l'innovation en matière de propriété intellectuelle.
Des intervenants ont aussi abordé les nouvelles clauses des contrats informatiques et la gestion des failles de sécurité qui anime tant d'acteurs. Les audits de licence informatique sont ainsi devenus une nouvelle source de revenus pour les avocats spécialisés.
Cette conférence s'adressait en priorité « à des juristes, des DPO, des opérationnels des systèmes d'information ou des personnes en charge de la mise en œuvre de nouvelles stratégies de changement via la technologie. Généralement les participants viennent chercher un éclairage de haut niveau sur des sujets souvent complexes avec une forte dimension internationale. C'est un lieu d'échange, de networking, de réflexion », souligne Marie-Hélène Tonnellier.
Parmi ces différents sujets traités dans une démarche scientifique et prospective, une véritable réflexion s'est dégagée sur le droit international des technologies du futur.
Un besoin d'encadrement
Il ressort des exposés le besoin de poser un cadre légal au développement de ces technologies. Si l'émergence de nouveaux droits et de réglementation originale n'apparaît pas comme une nécessité, il semble néanmoins impératif d'adapter le droit classique.
Vikram Khurana, avocat du cabinet Bristows, a fait la présentation des différents risques juridiques liés au déploiement de l'IA en entreprise. Pour l'expert, il existe huit risques majeurs. D'une part, la faiblesse de la performance, la mauvaise utilisation ou même l'abus, la dépendance aux données et le non-respect de la vie privée et de la protection des données personnelles. De l'autre, on trouve l'exigence de transparence, le risque de discrimination, la nécessité d'avoir une main-d'œuvre qualifiée, et le fameux risque contractuel.
L'avocat a ainsi prodigué des conseils afin de savoir comment gérer ces enjeux engendrés par l'utilisation de l'IA. La gestion du risque juridique se fait avant tout avec la conformité dès la conception, par le biais d'une étude d'impact en identifiant et en répartissant le risque. Ensuite, il faut décider du déploiement de l'IA, en protégeant les données utilisées tout en assurant leur traçabilité et la qualité des standards appliqués. Il s'agit de respecter les principes d' ”accountability”, et de ”legal by design”.
« Attention à l'effet boîte noire », a-t-il lancé à la salle, rappelant que les algorithmes doivent être transparents. Ce sujet fait d'ailleurs débat, c'est pourquoi le futur réserve un encadrement serré et important de l'industrie de l'IA selon l'expert.
« La clé est de reconnaître que l'IA ne peut pas se développer et atteindre son plein potentiel si nous n'avons pas confiance », a expliqué Bradley Joslove, avocat associé du cabinet Franklin, dans son exposé sur l'encadrement du profilage dans le RGPD et son impact sur le développement de l'IA et du machine learning.
Si certaines utilisations de l'IA sont « des choses superbes » comme IBM Watson Health, AIME, Global Fishing Watch... il y a « un côté obscur et des inquiétudes » liées à son développement.
Le RGPD essaye de parer ces risques et ces appréhensions en bornant l'utilisation de nos données personnelles, notamment grâce à l'article 5.1 qui contraint les organisations à minimiser la quantité de données collectées et la durée de sauvegarde.
En outre, l'article 22 interdit d'utiliser un algorithme qui prenne des décisions seul, a rappelé l'expert assez confiant pour l'avenir, soulignant même que certains scientifiques sont en train de développer des IA éthiques, en leur apprenant des concepts moraux et déontologiques.
IFCLA, un réseau juridique international et moderne
L'International association of computer law associations (IFCLA), dont l'Afdit est membre fondateur, a été créée en 1986 par plusieurs associations et mouvement de droit des nouvelles technologies. Elle est donc née du regroupement de professeurs de droit, d'avocats, de juristes ou de passionnés de technologie ayant une forte sensibilité juridique.
« L'IFCLA est une association d'envergure internationale qui existe depuis plus de 20 ans et dont les membres sont répartis dans plus de 15 pays. Les avocats, les juristes, les spécialistes des nouvelles technologies, qui participent aux travaux de l'IFCLA apportent un regard comparatiste qui est un vrai plus par rapport à d'autres conférences qui se concentrent sur une vision nationale », explique Marie-Hélène Tonnellier, sa présidente.