AccueilDroitActualité du droitLe droit de la santé à l’heure des nouvelles technologies

Le droit de la santé à l’heure des nouvelles technologies

Le carnet de santé numérique, la plateforme Doctolib, l’essor de l’intelligence artificielle…, de nombreuses avancées technologiques récentes sont intervenues dans le secteur de la santé et interrogent sur le cadre juridique actuel en la matière.
Le droit de la santé à l’heure des nouvelles technologies
© Edhec

DroitActualité du droit Publié le , Sami el Aiba et Perrine Maillet, étudiants au sein du LL.M. Law and Tax Management, EDHEC Business School

Les nouvelles technologies désignent, de manière générale, l’ensemble des avancées techniques et technologiques liant l’homme et la machine. On peut parler de nouvelles technologies pour parler d’innovations ou d’évolutions, mais également pour parler des nouvelles technologies de l’information et de la communication (NTIC) qui sont l’ensemble des techniques informatiques qui permettent, sous de multiples formes, la communication, le stockage et la production d’informations. Elles sont présentes dans tous les domaines, y compris dans celui de la santé. Cela répond dans un premier temps à un objectif unique, qui est d’améliorer le parcours de santé du patient. Les nouvelles technologies permettent ainsi d’offrir de nouvelles possibilités et de nouvelles avancées médicales.

De l’apparition de la « e-santé » au développement de solutions technologiques au service de la santé

Dès les années 2000, le terme « e-santé » (la santé en ligne) a fait son apparition. Il s’agissait d’utiliser les nouvelles technologies au profit de la santé, dans le but d’améliorer la prévention, de faciliter le diagnostic, et de perfectionner les interventions, les traitements et les suivis médicaux. Les services de « e-santé » ont été développés au sein de l’Union européenne avec la création du réseau européen « e-Health », et en France avec la création des premiers services de « e-santé » dont le but était de donner aux patients un meilleur accès aux soins, ainsi qu’un suivi personnalisé grâce aux données auxquelles les professionnels de santé auraient accès.

Création d’un cadre législatif approprié

En 2011, à la suite de la loi du 10 août 2011[1] venant modifier la loi « Hôpital, patients, santé et territoire – HPST » du 21 juillet 2009, est lancée une campagne de partage massif des informations de santé entre les différents secteurs de la santé. Cette initiative, appelée « hôpital numérique », a pour but de coordonner les systèmes d’information et de communication hospitaliers de tous les établissements hospitaliers. Par la même loi HPST, est également instaurée la télémédecine. Cette pratique, désormais codifiée dans le Code de la santé publique, recouvre plusieurs domaines :

  • la téléexpertise ou l’expertise à distance par des professionnels de santé du dossier médical d’un patient ;
  • la télésurveillance médicale, c’est-à-dire le suivi à distance par un professionnel de santé de l’état de santé d’un patient atteint d’une maladie chronique par le biais de dispositifs médicaux collectant les données du patient à son domicile ;
  • la téléassistance médicale ou l’assistance à distance d’un professionnel de santé médical à un professionnel de santé non médical ;
  • la régulation médicale qui consiste en une aide médicale urgente ou en téléconseils personnalisés ;
  • ou encore la téléconsultation, qui est la consultation à distance par un patient d’un professionnel de santé.

Ainsi, la « e-santé » a pour objectif de réformer les systèmes de santé en les rendant plus efficaces et plus personnalisés pour les patients. Cela a été le cas dans le domaine de la santé mentale ou des addictions où le recours aux professionnels de santé était rare et a été facilité par les technologies de l’information et de la communication, et ce grâce aux informations récoltées sur les personnes visées.

Cet exemple montre que l’utilisation des nouvelles technologies de l’information et de la communication engendre une augmentation considérable dans la production, le traitement et l’utilisation de données numériques. Les systèmes d’intelligence artificielle utilisent ces données pour partager des informations aux professionnels de santé, proposer un parcours de soin adapté aux patients, innover dans certains domaines de la recherche médicale. C’est le cas par exemple des données récoltées sur des patients atteins de la maladie d’Alzheimer, qui sont utilisées par des outils d’intelligence artificielle pour la recherche médicale contre cette maladie. Ces données provenant de leurs parcours de soin, la question du consentement de ces personnes atteintes d’Alzheimer peut se poser, alors même que le consentement est la clé de voute du traitement des données personnelles selon le RGPD. Le partage massif de données relatives aux patients, entre les professionnels de santé, soulève également la question du secret médical et de la relation entre le patient et le professionnel de santé. Cette utilisation de données doit ainsi être encadrée afin d’assurer au patient un respect de ses droits et préserver la confiance entre le patient et les professionnels de santé.

B) Développement des technologies au service de la santé des patients

Plus récemment, la question de l’utilisation et de la protection des données personnelles de santé des patients a été soulevée à nouveau à la suite de la création du carnet de santé numérique qui est, selon la définition donnée par le gouvernement, un « espace numérique individuel mis à la disposition par l’État et l’Assurance maladie pour permettre à chaque citoyen de stocker ses informations médicales et les partager avec les professionnels de santé qui les soignent ». Ce dossier médical partagé (DMP) créé par le décret du 4 août 2021[2] permet de stocker les informations du patient, que ce soient les traitements, les résultats d’examens, les antécédents médicaux ou les comptes rendus d’hospitalisation, ainsi que de les partager avec les différents professionnels de santé afin d’améliorer le suivi médical du patient.

Le gouvernement précise que les données sont hébergées en France, sur les serveurs de la société Atos. Cela dit, la création du DMP génère des risques supplémentaires de protection des données personnelles de l’utilisateur. Par ailleurs, le DMP est créé par défaut pour toute personne disposant d’un compte de sécurité sociale Ameli. Il est cependant possible de s’opposer à sa création.

Au-delà des services proposés par l’État, de nombreuses applications mobiles de santé ont émergé, proposant aux utilisateurs des programmes alimentaires ou des programmes sportifs, un suivi lié à la grossesse ou encore un suivi de la consommation de tabac ou d’alcool. Leur développement soulève plusieurs questions, notamment quant à la protection de la santé de l’utilisateur. Le manque de fiabilité de ces applications représente un réel enjeu et il n’existe pour autant aucun contrôle par une autorité de santé qui permet de vérifier les informations et conseils partagés. Aussi, la question de l’utilisation et de la confidentialité des données de santé récoltées auprès des utilisateurs se pose. Pour rappel, ces applications doivent être soumises aux règles en vigueur concernant la protection des données personnelles.

Ces dernières années ont par ailleurs été marquées par l’essor des objets « connectés », en particulier les célèbres montres permettant de récolter des données sur les utilisateurs, tel que leur rythme cardiaque. Ces objets connectés disposent de nombreuses données de santé et il existe les mêmes risques en termes d’utilisation de ces données que pour les applications. La CNIL, dans un Avis sur l’Internet des objets du 2 octobre 2014[3], a ainsi rappelé que les utilisateurs de ces objets étaient protégés par les règlements applicables en matière de protection des données personnelles.

Les nouvelles technologies ne sont pas uniquement utilisées dans une optique de partage et de communication de l’information, mais également dans un but d’innovation et de développement de nouvelles techniques médicales. Ainsi, l’intelligence artificielle a une place importante dans la chirurgie actuelle et dans toutes les avancées en termes d’interventions chirurgicales. Les nouvelles technologies peuvent être utilisées pour accompagner le chirurgien et pour réduire l’intervention de ce dernier sur le corps du patient. Les nouvelles techniques d’intervention réduisent ainsi l’atteinte à l’intégrité physique du patient et les risques de complication. Malgré l’amélioration louable de ces innovations technologiques pour la médecine moderne, la question de l’encadrement juridique de certaines pratiques se pose. Par exemple, lorsqu’il ne s’agit plus de guérir un patient mais plutôt d’utiliser des implants corporels pour corriger des dysfonctionnements de naissance (personne aveugle ou sourde).

L’émergence des nouvelles technologies dans le cadre des interventions chirurgicales interroge également sur leur efficacité et leur fiabilité et les risques sur la santé du patient en cas d’erreur ou d’échec. La question de la responsabilité du professionnel de santé devient également un enjeu en cas d’erreur de ce dernier lors de l’utilisation de ces nouvelles technologies pendant une opération.

Si les nouvelles technologies permettent de nouvelles avancées dans le domaine de la santé, elles soulèvent de nouveaux risques juridiques et il n’existe pas encore de cadre législatif couvrant l’intégralité de ces risques dans le droit objectif. C’est pour ces raisons qu’il est du rôle du l’État - ou plus largement de l’Union européenne - d’encadrer ces pratiques et de prévoir un cadre juridique permettant le progrès grâce aux nouvelles technologies tout en réduisant les risques liés à leur utilisation. Aujourd’hui, il s’agit notamment de l’Artificial Intelligence Act ou « AI Act », du Règlement général sur la protection des données (RGPD) ou encore des lois bioéthiques.

L’encadrement juridique actuel des nouvelles technologies dans le domaine de la santé

L’évolution récente et rapide des nouvelles technologies dans le secteur de la santé et l’avènement progressif de l’intelligence artificielle, amènent à s’interroger sur le cadre légal permettant de contrôler cette évolution et les nouveaux sujets qui en résultent. Est en particulier visée l’évolution des différentes technologies ayant un impact sur le domaine de la santé - et plus précisément en matière de bioéthique - ou encore sur le sujet des données personnelles de santé, représentant un enjeu spécifique.

Des lois et des réglementations pour préserver l’être humain et ses droits fondamentaux

La récente loi n°2021-1017 du 2 août 2021 relative à la bioéthique[4] est ainsi particulièrement intéressante. Outre certaines évolutions sociales concernant l’assistance médicale à la procréation (AMP)[5] ou encore à l’égard du droit d’accès aux origines[6], certains garde-fous ont été mis en place afin d’instaurer des limites face aux nouvelles technologies.

La loi bioéthique prévoit ainsi en son article 17 un meilleur encadrement de l’outil d’intelligence artificielle par le corps médical avec l’obligation d’information du patient quant à son utilisation et l’interprétation qui en résulte (est visé « un dispositif médical comportant un traitement de données algorithmique dont l'apprentissage a été réalisé à partir de données massives »)[7], dans le respect des principes éthiques.

L’intelligence artificielle n’est pas le seul domaine encadré ; l’article 16 de cette même loi prévoit que l’examen des caractéristiques génétiques constitutionnelles d’une personne se voit également limité à des « fins médicales ou de recherche scientifique » avec une obligation de consentement du patient, sans compter l’interdiction du démarchage publicitaire de ce type d’examen[8]. D’autres interdits sont également rappelés dans le domaine de la recherche comme le clonage humain à but eugénique, reproductif ou thérapeutique, dont l’interdiction figure au Code civil[9]. En effet, même si depuis de nombreuses années les technologies biologiques permettent de reproduire l’être humain par clonage, en divisant un embryon ou en remplaçant le noyau d’une cellule, la loi interdit ce type de pratique notamment au titre que la reproduction génétique d’êtres humains identiques porterait atteinte à la dignité et à l’intégrité humaine.

En neurosciences, les finalités des techniques d’imagerie cérébrale sont bien précisées dans la loi et visent des fins médicales, de recherche scientifique ou le cadre particulier des expertises judiciaires, à l’exception notable pour ce dernier cas de l’utilisation de l'imagerie cérébrale fonctionnelle[10]. En dehors des cas visés par la loi, les techniques d'imagerie cérébrale ne peuvent être utilisées. Enfin, l’article 19 de cette loi bioéthique prévoit la possibilité de l’interdiction par décret des techniques « ayant pour effet de modifier l'activité cérébrale et présentant un danger grave ou une suspicion de danger grave pour la santé humaine »[11].

Ainsi, à l’échelle française, la dernière loi bioéthique pose un cadre législatif encadrant l’utilisation des nouvelles technologies sur le corps humain et dans le domaine de la santé. Cette législation est nécessaire pour limiter les risques induis par ces nouvelles technologies.

A l’échelle européenne, la question des nouvelles technologies en santé est également un sujet de préoccupation. A l’ère de l’essor de la digitalisation, et alors que la question de la protection des données de santé est plus que jamais d’actualité en cette période de pandémie de la Covid-19, le Règlement général sur la protection des données (RGPD)[12], entré en vigueur en 2018, est assez fondamental en la matière. Cette règlementation sur la protection des données personnelles s’applique ainsi aux entités traitant des données de santé, dont le règlement donne même une définition particulièrement large incluant les données personnelles concernant la santé physique ou mentale d’une personne (pathologies, prescriptions…).

Au vu de leur caractère particulier, les données de santé relèvent d’une catégorie distincte : les données personnelles dites « sensibles »[13]. Elles bénéficient ainsi d’une protection renforcée nécessitant, hors exemptions (telles que l’intérêt public), une obligation de consentement du patient quant à leur traitement. Des exigences multiples sont prévues dans le cadre du traitement des données personnelles, comme l’information des patients sur le traitement qui est fait de leurs données, la limitation de l’accès et de la conservation de ces données, un registre tenu en interne, une collecte des données pertinentes, adéquates et limitées ou encore la garantie de la sécurité de ces données sensibles. Le champ d'application du RGPD est ainsi particulièrement large et permet d’englober les différents modes de traitement des données personnelles.

Toutefois, avec le développement de l'intelligence artificielle, il parait important de prévoir un cadre encore plus restrictif et précis s’agissant des nouvelles technologies. C’est l’une des raisons qui ont conduit la Commission européenne à travailler sur un nouveau règlement et à communiquer le 21 avril 2021 une proposition concernant l’intelligence artificielle (l’Artificial Intelligence Act ou « AI Act »)[14]. Il permet notamment d’encadrer l’utilisation de l’intelligence artificielle dans le secteur de la santé. L’objectif étant que les systèmes en question soient contrôlés et encadrés au sein du marché de l’Union européenne.

Cette proposition de règlement crée une hiérarchie des risques entre les systèmes dotés d'intelligence artificielle. La distinction s’établit entre les risques inacceptables (utilisation interdite), élevés (utilisation soumise à certaines exigences) et faibles (obligation de transparence). Une deuxième distinction est par ailleurs prévue : si des systèmes d'intelligence artificielle à risque limité sont utilisés dans des contextes sensibles relevant de la liste des risques élevés, ils devront respecter des obligations de conformité strictes ou, dans le cas où ils relèveraient de la liste des risques inacceptables, seront interdits.

Les systèmes d’intelligence artificielle utilisés dans le domaine de la santé, par leur caractère sensible, risquent d’être considérés comme relevant des outils présentant un risque élevé. Les exigences à prévoir sont donc notamment l’établissement d’un système de gestion des risques, d’une documentation technique préalable à la mise sur le marché ou encore une surveillance humaine pendant la période d’utilisation de l’outil.

Des sanctions particulièrement dissuasives sont prévues par l’AI Act en cas de manquement des systèmes d’intelligence artificielle aux obligations explicitées, notamment une amende administrative pouvant aller jusqu’à 20 millions d’euros ou, si l’auteur de l’infraction est une entreprise, jusqu’à 4 % du chiffre d’affaires annuel total.

Un encadrement juridique au regard des évolutions technologiques récentes existe - ou est en cours de création - bien que certains sujets restent encore à traiter. Pour cette raison, la question de l’insuffisance du cadre juridique actuel et de la difficulté de régir certaines problématiques issues des nouvelles technologies dans ce secteur à risque peut aussi légitimement se poser.

L’insuffisance ou le manque de cadre juridique dans l’utilisation de certaines technologies

En effet, le cadre législatif actuel est lacunaire voire inexistant dans certains domaines liés à l’utilisation des nouvelles technologies. C’est le cas notamment en matière de responsabilité médicale.

La question s’était dejà posée avec les premiers véhicules motorisés dotés d’intelligence artificielle, tels que les voitures sans conducteur ou les voitures avec une assistance à la conduite. Il était alors question de la responsabilité en cas d’accident ou de dommages matériels ou corporels causés à un piéton par exemple. Qui était alors responsable ? Le concepteur du système d’assistance à la conduite ? Le conducteur alors qu’il n’avait pas le contrôle du véhicule ?

Aujourd’hui les mêmes questions se posent quant à la responsabilité médicale liée à l’utilisation des systèmes d’intelligence artificielle sur les patients.

La responsabilité médicale lors de l’utilisation d’un système d’intelligence artificielle

Qui est responsable en cas de dommage irréparable causé au patient : le concepteur de la technologie d’intelligence artificielle ? Le professionnel de santé l’utilisant ? Dans le domaine médical il peut s’agir de robots chirurgiens, d’outils de médecine prédictive qui ne détecterait pas une maladie ou qui diagnostiquerait à un patient en parfaite santé une maladie incurable, ou encore de logiciels d’aide à la décision en matière médicale. Le médecin peut-il valablement se fier aux systèmes d’intelligence artificielle et se reposer sur ces derniers dans le cadre d’un diagnostic ? Lors de l’utilisation de ce type d’outils que se passe-t-il en cas d’erreur ou de dysfonctionnement des systèmes d’intelligence artificielle ? Qui serait alors responsable en cas de dommage ?

Actuellement il serait difficile de mettre en œuvre le régime de la responsabilité de droit commun, du fait des choses ou encore du fait des produits défectueux dont les conditions sont précisément définies par le Code civil[15] et pour lesquels il parait compliqué de remplir toutes les conditions. Ainsi, dans la majorité des cas aucun régime de responsabilité existant ne permettrait au patient d’être indemnisé de son dommage.

Plusieurs solutions ont déjà été proposées. Tout d’abord, la question s’est posée de savoir si la responsabilité du concepteur du système d’intelligence artificielle en cas de défaut du système mis sur le marché pourrait-être engagé. Ici le concepteur pourrait répondre que le propre des systèmes d’intelligence artificielle est le Deep Learning et qu’ainsi le programme évolue en fonction de ce qu’il apprend lors de son utilisation. Ou alors le professionnel de santé pourrait-il être responsable, notamment s’il a manqué à son devoir de prudence et de vigilance lors de l’utilisation des systèmes d’intelligence artificielle ? En effet, le professionnel de santé qui utilise des logiciels de médecine prédictive ou d’aide à la décision médicale ne doit pas se contenter de la solution donnée par le système d’intelligence artificielle mais doit apporter son expertise médicale, et il pourrait ainsi être rendu responsable en cas d’erreur. Cela dit, dans les cas où il n’y a pas de défaut du système ou pas d’erreur de ses utilisateurs, comment réparer le dommage subi par le patient ?

Une autre solution proposée a été de reconnaître la personnalité juridique aux systèmes d’intelligence artificielle afin d’engager directement leur responsabilité. Ici plusieurs problèmes se posent. D’abord, cela reviendrait à reconnaître à ces systèmes des droits et libertés individuels, ce qui n’est pas concevable ni réalisable. Cela soulèverait également des problèmes du point de vue des principes juridiques essentiels qui président à notre système actuel. Ensuite, et c’est sans doute le point le plus important, les systèmes d’intelligence artificielle ne disposant pas de patrimoine propre dès lors qu’ils ne sont pas dotés de la personnalité juridique, cette solution ne règle pas la question de la responsabilité et de l’indemnisation des patients victimes. Une alternative pourrait être la création d’un fonds d’indemnisation qui ne permettra peut être pas de désigner un responsable - notamment lorsqu’il n’y a pas de défaut dans la conception ni d’erreur dans l’utilisation - mais qui permettra de réparer le dommage subi par le patient. Néanmoins, il conviendra de déterminer qui contribuera à ce fonds d’indemnisation.

La question de la responsabilité médicale et de l’indemnisation des victimes en cas de dommage subi par un patient reste ouverte et il faudra nécessairement encadrer juridiquement cette question dans les années à venir.

Par ailleurs, dans le cadre de la crise sanitaire de la Covid-19, de nombreuses situations ont mis à jour des nouveaux cas d’utilisation de l’intelligence artificielle pour lesquels le cadre légal reste insuffisant. C’est le cas par exemple des caméras « intelligentes » et des caméras thermiques.

L’utilisation des caméras « intelligentes » et thermiques dans le cadre de la crise sanitaire

Il s’agit de caméras utilisées dans le cadre de la crise sanitaire par des entités publiques ou privées dans le but de mesurer la température corporelle, ou de s’assurer du respect de la distanciation sociale et du port du masque. Ces caméras « intelligentes » ou thermiques ont certes permis de lutter contre la propagation du virus mais il convient d’émettre quelques réserves quant à leur utilisation. La CNIL met en garde[16] les entités utilisant ces dispositifs non seulement quant à la protection des données personnelles mais également des données de santé puisque les caméras thermiques relèvent la température corporelle. Pour rappel les employeurs n’ont pas le droit de posséder ou d’utiliser les données de santé de leurs employés au risque de porter atteinte au respect de leur vie privée. La CNIL pointe également du doigt l’absence de texte juridique en droit français pour l’utilisation de ce type de dispositif, et recommande ainsi la mise en place d’un « encadrement textuel adéquat qui est requis dès lors que des données sensibles sont traitées ; ou que le droit d’opposition ne peut pas s’appliquer en pratique dans l’espace public. ».

L’application « TousAntiCovid » et l’utilisation des données personnelles

De la même façon, de nombreuses critiques relatives à la protection des données personnelles ont émergé lors de la mise en place du pass sanitaire ou vaccinal. Effectivement, l’utilisation quasi-obligatoire et systématique de l’application mobile « TousAntiCovid » mise en place par le gouvernement, et le téléchargement sur celle-ci des certificats de vaccination et de rétablissement, génèrent une quantité de données sensibles qui devront être effectivement protégées.

La question de la protection des données personnelles lors de la crise de la Covid-19 s’est également posée dans le cadre des campagnes de vaccination.

Doctolib : exemple-type du croisement entre nouvelles technologies et santé

En cette période de pandémie, un acteur du monde de la santé et des nouvelles technologies a fait l’objet d’une attention particulière : la plateforme de mise en relation avec des professionnels de santé, Doctolib. Par sa place importante dans le cadre de la politique vaccinale française et sa croissance exponentielle (60 millions d’utilisateurs) elle est venue interroger sur la protection effective des données personnelles de santé.

Les données transmises à la plateforme sont de deux sortes (données personnelles d’identification classiques et données de santé telles que les rendez-vous ou encore les ordonnances) et leur gestion a fait largement réagir, au vu de la position quasi-monopolistique de la plateforme sur son marché. La confidentialité et le traitement de ces données sensibles font partie des enjeux fondamentaux. Malgré les garanties de Doctolib en la matière (usage non-commercial des données, cryptage des données ou encore contrôle par les utilisateurs), certaines polémiques récentes ont pu écorner son image et interroger sur l’insuffisance potentielle du cadre légal actuel, en particulier le RGPD ou la Loi Informatique et Libertés[17].

Un exemple intéressant est le scandale intervenu en 2021 auquel avait dû faire face la plateforme, accusée de transférer les données personnelles de ses utilisateurs allemands - à des fins marketing - à Facebook et au service de publicité en ligne Outbrain. La plateforme avait toutefois déclaré par la suite avoir cessé cette pratique et ne plus utiliser de cookies de marketing externe, qui n’aurait par ailleurs jamais concerné le transfert de données de santé, mais uniquement le transfert des données personnelles d’identification. Doctolib a également dû récemment faire face aux accusations d’associations cherchant à obtenir l’annulation du partenariat stratégique entre la plateforme et l’État français concernant la vaccination contre la Covid-19. Ces associations estimaient que l’hébergeur des données choisi par Doctolib, l’américain Amazon Web Services, représentait un risque pour les utilisateurs français au vu de la politique américaine sur le transfert des données personnelles. D’autant plus que la Cour de Justice de l’Union européenne (CJUE) dans un arrêt du 16 juillet 2020 dit « Schrems II »[18] avait invalidé le système américain « Privacy Shield » et donc le régime de transfert des données entre l’Union européenne et les États-Unis, ce système ne répondant pas aux normes du RGPD et n’offrant pas une protection suffisante aux données en comparaison au RGPD. Toutefois, une récente décision du Conseil d'État en date du 12 mars 2021[19], a jugé que les garanties apportées par Doctolib et son hébergeur étaient suffisantes, justifiant son refus de suspendre le partenariat entre la plateforme et l’État français.

Les règles encadrant Doctolib sont peut-être établies et validées par le Conseil d’État, mais il semble que certains sujets restent sensibles et notamment celui de la protection des données personnelles de santé des utilisateurs.

Pour conclure, les enjeux liés à l’utilisation des nouvelles technologies et de l’intelligence artificielle dans le domaine de la santé sont extrêmement importants. Le législateur doit s’assurer qu’un cadre juridique précis est posé afin d’éviter tout risque pour le patient qui est en position de vulnérabilité dans sa relation avec le professionnel de santé. Les règles doivent être strictement définies et il peut être dangereux qu’elles soient modifiées au gré des situations, comme cela a pu être le cas durant la crise de la Covid-19. En effet, outre les exemples évoqués précédemment, on a pu constater un assouplissement des règles relatives à la téléconsultation pendant la crise sanitaire. Ainsi, si auparavant il fallait que le patient ait été orienté par son médecin traitant vers le médecin téléconsultant, et que le médecin téléconsultant ait vu le patient lors d’une consultation physique au cours des douze derniers mois précédant la téléconsultation pour que celle-ci soit prise en charge par l’Assurance Maladie, ce n’est plus le cas depuis la crise de la Covid-19. Cet assouplissement a été mis en place pour permettre une meilleure prise en charge des patients pendant la pandémie mais déroge tout de même à des règles qui avaient été fixées dans le but de protéger le patient dans ses relations avec le corps médical.

Ainsi, si les nouvelles technologies permettent des avancées considérables dans le domaine de la santé, le patient doit rester au cœur des préoccupations juridiques et sa protection doit rester la priorité.

Chronique « Droit, Juriste et Pratique du Droit Augmentés »

Cette chronique a pour objectif, de traiter de questions d'actualité relatives à cette transformation. Dans un contexte où le digital, le big data et le data analytics, le machine learning et l'intelligence artificielle transforment en profondeur et durablement la pratique du droit, créant des « juristes augmentés » mais appelant aussi un « Droit augmenté » au regard des enjeux et des nouveaux business models portés par le digital.

Avec son Augmented Law Institute, l'EDHEC Business School dispose d'un atout majeur pour positionner les savoirs, les compétences et la fonction du juriste au centre des transformations de l'entreprise et de la société. Il se définit autour de 3 axes de développement stratégiques : son offre de formations hybrides, sa recherche utile à l'industrie du droit, sa plateforme de Legal Talent Management. https://www.edhec.edu/fr/ledhec-augmented-law-institute


[2] Décret n°2021-1048 du 4 août 2021 relatif à la mise en œuvre de l’espace numérique de santé : https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000043914270

[3] CNIL, Communiqué G29, Avis sur l'Internet des objets, 2 oct. 2014 : https://www.cnil.fr/sites/default/files/atoms/files/ldconsentement_wp259_rev_0.1_fr.pdf

[4] Loi n°2021-1017 du 2 août 2021 relative à la bioéthique :

https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000043884384/

[5] Article 1 de la Loi n°2021-1017 du 2 août 2021

[6] Articles 5 à 7 de la Loi n°2021-1017 du 2 août 2021

[7] Article L.4001-3 du Code de la santé publique : https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000043890272

[10] Article 18 de la Loi n°2021-1017 du 2 août 2021 et article 16-14 du Code civil : https://www.legifrance.gouv.fr/codes/section_lc/LEGITEXT000006070721/LEGISCTA000024324448/#LEGISCTA000024324457

[12] Règlement général sur la protection des données : https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=OJ:L:2016:119:TOC

[13] Article 9 du RGPD - Traitement portant sur des catégories particulières de données à caractère personnel

[17] Loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés : https://www.legifrance.gouv.fr/loda/id/JORFTEXT000000886460/

[19] CE, Juge des référés, 12 mars 2021, 450163 https://www.legifrance.gouv.fr/ceta/id/CETATEXT000043261200

Partager :
Abonnez-vous
  • Abonnement intégral papier + numérique

  • Nos suppléments et numéros spéciaux

  • Accès illimité à nos services

S'abonner
Journal du 02 décembre 2022

Journal du02 décembre 2022

Journal du 25 novembre 2022

Journal du25 novembre 2022

Journal du 18 novembre 2022

Journal du18 novembre 2022

Journal du 11 novembre 2022

Journal du11 novembre 2022

S'abonner
Envoyer à un ami
Connexion
Mot de passe oublié ?