AccueilDroitActualité du droitL'intelligence artificielle, potentielle clé de lecture des signaux faibles

L'intelligence artificielle, potentielle clé de lecture des signaux faibles

Gaëtan Le Bris, étudiant en dernière année à l'EDHEC Business School, LLM in Law & Tax Management
L'intelligence artificielle, potentielle clé de lecture des signaux faibles

DroitActualité du droit Publié le ,

Chacune des tendances passées et à venir est une réponse à une attente, un besoin, une crainte. Nous sommes ainsi à l'origine de tout ce qui se créée, la substance de l'avenir. Pourtant, nous ne pouvons le deviner, faute de savoir suffisamment nous analyser, nous et nos semblables, dans le passé comme dans le présent. C'est ce défaut d'analyse qui constitue l'une des problématiques-clés au cœur de la théorie des signaux faibles (en anglais “weak signals”).

Les signaux faibles sont des bribes de données et d'informations permettant d'anticiper un événement ou une tendance. D'une certaine manière, ce sont des alertes - ou tout du moins des éléments d'alertes - permettant de ne pas se laisser surprendre par la tournure que peuvent prendre les événements. Cela peut être la réception d'un télégramme de l'ambassadeur américain au Japon avertissant son pays, en 1941, d'une potentielle attaque surprise des japonais sur Pearl Harbor. C'est également l'aperçu au même moment d'un sous-marin non identifié au large d'Hawaii, ou encore la perte de vue d'une flotte japonaise ayant quitté l'Asie.

Généralement, nos sociétés observent un phénomène, puis l'expliquent selon la manière dont il s'est produit. Nous nous approprions – ou tout du moins tentons de nous approprier – ces événements du passé afin de les comprendre et éviter une nouvelle fois de se laisser surprendre. Si bien que ce type d'information, comme celles données en 1941, nous paraît aujourd'hui sans équivoque. Mais alors pourquoi les Américains n'étaient pas préparés le 07 décembre 1941 à l'éventualité d'une attaque surprise du Japon sur Pearl Harbor, et ce malgré les signaux reçus ?

L'homme en conflit avec sa propre humanité

C'était déjà le cas pour l'attaque de Pearl Harbor, cela s'est répété pour chacune des crises économiques et financières qui ont secoué nos sociétés. Peu de mésaventures ne sont liées qu'à la fatalité, et beaucoup auraient pu être évitées. La perception de l'homme est sujette à d'innombrables biais liés à sa nature humaine, tant sur le plan individuel que collectif. Sur le plan individuel parce que l'homme s'appuie sur des schémas de pensés préconçus, tirés d'expériences antérieures. Il évacue rapidement les données qui vont à l'encontre de ces schémas et cherche à se procurer des informations corroborant ses propres postulats. Sur le plan collectif car l'homme vit en communauté, où la majorité est trop souvent source de vérité. Il aborde ainsi une information avec des œillères qui le dissuadent d'entrer en contradiction avec le groupe. C'est notamment ce qui nous empêche de détecter certains signaux faibles. Ces biais ont amené les généraux américains à ne pas prendre au sérieux les signaux annonçant l'attaque de Pearl Harbor, ou les plus grandes banques mondiales à rire au nez des rares financiers annonçant l'effondrement du marché résidentiel pour 2007.

En tant qu'être humain, il est difficile de distinguer l'information quotidienne répétitive, claire et récurrente (i.e. données financières, articles de presses, etc.), de l'information stratégique pour laquelle il existe des données diffuses et peu nombreuses qui échappent trop souvent aux preneurs de décisions. Par ailleurs, quand bien même ces informations stratégiques entrent sur le radar des managers qui les détectent, ces derniers ne savent pas nécessairement comment les interpréter. Si elles sont incompatibles avec leurs préconceptions et idées reçues, ils risquent de les ignorer.

Ces données nous entourent et nous accablent sans que nous ne sachions quoi en faire. C'est d'autant plus vrai à l'heure du Big data où la quantité de données disponibles a explosé ces dernières années et continue de croître de manière exponentielle. 90 % des données créées dans le monde l'auraient été entre 2016 et 2018(1), et ce volume de données doublerait tous les trois ans(2).

Or, plus nous avons de données et d'informations à notre disposition, plus nous avons peur de passer à côté d'une opportunité. C'est particulièrement vrai dans le monde des affaires où certains managers se démènent pour identifier les données pertinentes qui les aideront à prendre les décisions stratégiques appropriées. En effet, le monde évolue, si bien qu'aucune entreprise ne veut louper le tournant décisif d'un marché comme l'a fait Kodak avec le numérique ou Nokia avec le smartphone. Cela l'est également dans le monde du droit. D'une part pour les sujets de droit qui pourraient analyser les différentes informations et données dans le but d'anticiper une tendance législative ou jurisprudentielle à venir. D'autre part pour le législateur qui pourrait anticiper plus en amont les tendances du monde qu'il tente de régir, afin de ne pas se laisser distancer par les acteurs d'un marché.

L'intelligence artificielle au service de l'anticipation

Une question se pose alors : les machines pourraient-elles nous permettre de surmonter les éventuels biais liés à notre propre humanité ? Au vu des avancées récentes en la matière et des espérances de la communauté scientifique, il semblerait que l'intelligence artificielle puisse nous épauler dans notre quête d'anticipation des tendances futures. En pratique, une intelligence artificielle permettrait d'agir en amont.

Dans un premier temps, en identifiant des données pertinentes à côté desquelles la plupart d'entre nous passeraient. Prenons l'exemple de deux photographies dont l'unique élément les différenciant est un pixel modifié. Si un être humain observe ces deux images, il ne verra généralement pas de différence, quand l'intelligence artificielle, elle, identifiera le pixel en question et différenciera les deux photographies. C'est spécifiquement ce degré de précision dans le traitement des données qui permettrait d'identifier une information stratégique éparse, obscure et rare parmi la masse d'informations quotidiennes. Qui plus est, l'intelligence artificielle a une capacité de traitement des données largement supérieure à celle de l'homme d'un point de vue quantitatif, lui permettant d'ingérer une masse de données plus importante en un temps record. Dans un second temps, l'intelligence artificielle analyserait les données et informations potentiellement stratégiques en étant dépourvue de tout préjugé ou parti pris.

Si nous nous en tenons au champ juridique, il pourrait s'agir d'une machine reliée à l'ensemble des informations et données disponibles sur internet, notamment à l'ensemble des textes de lois, jurisprudences ou sites spécialisés en droit, mais également à ce que les individus écrivent sur les réseaux sociaux (à condition que ces données soient publiques) et autres sites internet.

Il est d'ores et déjà possible d'inculquer certaines connaissances aux machines via les techniques de Machine Learning en place, tel que le principe du Supervised Learning. Ce dernier permet à un superviseur d'entrer dans l'interface de la machine des labels, qui sont des outputs reliés à certains inputs, c'est-à-dire des conséquences ou conclusions prédéfinies selon des entrées ou saisies elles-mêmes prédéfinies. Il semble alors concevable d'inculquer à une machine, sur la base d'expériences et tendances déjà observées, comment réagir à certains mots-clés et à leurs relations, compte tenu d'erreurs potentielles fréquentes sur internet (i.e. grammaire, orthographe). Celle-ci pourrait, via des modèles de traitement de textes, lire chaque texte, analyser les mots et leur répétition, ainsi que la relation entre ces mots. Selon les conséquences ou conclusions attachées aux combinaisons de mots prédéfinies sur la base de schémas déjà produits, la machine pourrait alors alerter sur la naissance ou l'évolution d'une tendance nouvelle avant que l'homme ne s'en aperçoive lui-même. Concrètement, il pourrait s'agir par exemple d'apprendre à une machine qui détecte, dans la masse d'informations et de données à laquelle elle est reliée, une récurrence anormale dans l'utilisation de termes péjoratifs associés à une décision de justice ou à une loi (l'input), à envoyer une alerte aux personnes intéressées (l'output).

De surcroît, en plus des expériences passées entrées dans la machine, cette dernière pourrait potentiellement apprendre de manière autonome, selon ses propres expériences, des schémas spécifiques pouvant déboucher sur une certaine évolution à venir.

Au bout de la chaîne se trouverait toujours un être humain, qui devrait analyser la situation d'après ce que la machine lui délivrerait afin de prendre une décision. Toutefois, les informations stratégiques seraient cette fois-ci pré-détectées et contextualisées pour faciliter la prise de décision.

Ces réflexions sont évidemment spéculatives et dépendent d'obstacles liés au Big data, tels que la question de l'accès aux données et celle de leur stockage. De même, les machines ne peuvent à l'heure actuelle comprendre certains traits humains comme l'ironie ou les doubles négations. Cependant, comme dans de nombreux domaines, l'intelligence artificielle et la richesse croissante des données disponibles à travers le monde sont une aubaine, source d'espérance. Peut-être un jour pourrons-nous, faute de lire l'avenir, au moins le prévoir.

Partager :
Abonnez-vous
  • Abonnement intégral papier + numérique

  • Nos suppléments et numéros spéciaux

  • Accès illimité à nos services

S'abonner
Journal du 17 mars 2023

Journal du17 mars 2023

Journal du 10 mars 2023

Journal du10 mars 2023

Journal du 03 mars 2023

Journal du03 mars 2023

Journal du 24 février 2023

Journal du24 février 2023

S'abonner
Envoyer à un ami
Connexion
Mot de passe oublié ?