Ancienne cadre au sein du « Civic Integrity Team » de Facebook et experte en algorithme, Frances Haugen a répondu, le 10 novembre dernier, aux questions des sénateurs, après s’être prêtée au même jeu devant les parlementaires un peu plus tôt ce jour-là. « Presque personne en dehors de Facebook ne sait ce qu’il se passe à l’intérieur de Facebook. », a-t-elle déploré d’emblée devant la Commission des affaires européennes.
Chef de produit dans de grandes entreprises technologiques depuis 2006, elle a travaillé sur les produits algorithmiques et les systèmes de recommandations, chez Google, Pinterest et Facebook notamment. Elle a ainsi pu analyser les différents défis de ces entreprises et les choix opérés pour y répondre. Frances Haugen a alors constaté que les choix des dirigeants de Facebook étaient dangereux pour les enfants, la sécurité publique et la démocratie en générale, ce qui l’a poussé à donner l’alerte. « Nous sommes ici à cause des choix délibérés que Facebook a fait. Les développeurs pourraient rendre Facebook et Instagram plus sûrs mais ils le refusent pour continuer à faire des bénéfices », a-t-elle relevé.
La violence causée par la recherche du profit
En 2019, Frances Haugen a rejoint Facebook comme chef de produit pour la désinformation civique puis le contre-espionnage et a pu constater qu’à de nombreuses reprises, ce géant du numérique a fait face à des conflits entre ses bénéfices et la sécurité publique qu’il a toujours résolus en faveur de ses propres profits. « Cela a donné un système qui amplifie la division, l’extrémisme, la polarisation qui fragilisent les sociétés dans le monde entier », a-t-elle ajouté. Dans certains cas, les discours en ligne ont généré des actes de violence, « qui ont fait des victimes, voire des morts ». Dans d’autres, leur machine à optimiser les profits a engendré l’automutilation, la haine de soi, notamment dans certains groupes d’individus plus fragiles comme les adolescents.
« L’algorithme choisit toujours le contenu le plus clivant et le plus violent et l’amplifie », a expliqué la lanceuse d’alerte. En effet, ces contenus ont plus de chance de faire réagir l’utilisateur et plus celui-ci réagit, plus il passe du temps sur le réseau et donc consomme de la publicité. La sénatrice Catherine Morin-Desailly l’a d’ailleurs interrogé sur ce sujet. « Les algorithmes ont-ils été conçus dans cette intention originelle de faire exclusivement du profit, auquel cas peuvent-ils être corrigés, ou bien est-ce irréparable et le modèle économique définitivement toxique et pervers ? », lui a-t-elle demandé. Frances Haugen a estimé que si Facebook connaît plein de solutions qui fonctionneraient dans le monde entier, il préfère ne pas les utiliser lorsqu’elles induisent une baisse des revenus, notamment ceux générés par la publicité.
Une réaction forte des Etats encouragée
Selon la lanceuse d’alerte, quand le commerce entre en conflit avec les intérêts du peuple, les Etats démocratiques doivent réagir d’une unique manière, en prenant des mesures fortes et en promulguant de nouvelles lois. A ce titre, elle a estimé que la loi européenne sur les services numériques, dite Digital Service Act (DSA), actuellement examinée par le Parlement européen, pourrait devenir une référence mondiale en matière de protection de la population et inspirer les autres Etats. « La loi doit être forte et son application ferme pour ne pas perdre l’occasion d’aligner l’avenir de la technologie et de la démocratie. Il faut maintenir la pression », a-t-elle insisté. Elle a insisté sur l’importance, à l’avenir, de demander des comptes aux entreprises pour les préjudices sociaux qu’elles provoquent et d’établir de nouvelles règles axées spécifiquement sur le modèle commercial lui-même.
Plan d’action en trois étapes
Actuellement, personne ne peut comprendre les choix destructeurs de Facebook aussi bien que lui-même. C’est pour cela que l’entreprise devrait, selon la scientifique, réaliser des audits et des contrôles externes. « Facebook ne peut pas être jury, juge, procureur et témoin à la fois », a insisté la lanceuse d’alerte. La transparence est essentielle pour une réglementation efficace, ce qui implique aussi que les analystes aient accès aux données dont ils ont besoin pour travailler, tout en respectant la vie privée des utilisateurs.
Frances Haugen a alors proposé un plan d’actions axé sur trois principes. Tout d’abord, chaque plateforme devrait être tenue responsable des dommages causés par ses produits et services et devrait publier son analyse de la sécurité de ces derniers. Ensuite, un régulateur devrait sonder le public et les groupes de la société civile pour comprendre quels sont les angles morts non examinés. Enfin, les entreprises devraient être tenues d’articuler un plan pour traiter chaque préjudice, qui serait audité et contrôlé pour s’assurer de sa mise en œuvre. « À maintes reprises Facebook a tenté d’aplanir des scandales en déclarant simplement : nous y travaillons. Cette dynamique doit changer », a-t-elle conclu.