Les chercheurs débattent de la nécessité d’une réglementation fédérale pour lutter contre les risques associés à la technologie dans les soins de santé.
Aux États-Unis, la plupart des adultes utilisent la technologie pour améliorer leur santé. Près de 60 % naviguent sur Internet pour obtenir des informations médicales et plus de 40 % reçoivent un traitement par télémédecine. Mais malgré la promesse des soins de santé basés sur la technologie, 6 Américains sur 10 ne sont pas à l’aise avec le fait que leurs prestataires de soins de santé s’appuient sur l’IA pour diagnostiquer les maladies et recommander des traitements.
L’IA peut améliorer la qualité des soins de santé en aidant les médecins à vérifier les diagnostics et à détecter les maladies plus tôt. Par exemple, des chercheurs ont découvert que la technologie de l’IA peut aider à prédire le risque de cancer du sein d’une patiente. De même, la combinaison de l’expertise des médecins avec les algorithmes d’IA peut améliorer la précision du diagnostic.
Mais les systèmes d’IA peuvent échouer, et si les humains deviennent trop dépendants du logiciel, une faille fondamentale dans un algorithme pourrait entraîner plus de patients blessés que l’erreur d’un seul médecin. De plus, les algorithmes d’IA intègrent les biais des données disponibles. Par exemple, les patients noirs reçoivent en moyenne moins d’analgésiques que les patients blancs. Un algorithme formé pour recommander des traitements contre la douleur à partir de ces dossiers de santé pourrait suggérer des doses plus faibles d’analgésiques pour les patients noirs, quels que soient leurs besoins biologiques.
Dans le même temps, la technologie peut aider les communautés mal desservies à accéder aux soins de santé. Ces communautés manquent souvent de médecins qualifiés et d’installations médicales standards, ce qui augmente le risque de maladie et d’erreurs de diagnostic. À titre d’exemple, la télémédecine améliore l’accès à des soins de qualité en permettant aux patients de rencontrer leur médecin en ligne et de surveiller leurs signes vitaux à distance.
Actuellement, aucune loi fédérale ne réglemente l’utilisation de l’IA dans les soins de santé. La Food and Drug Administration (FDA) des États-Unis examine la plupart des produits qui utilisent des technologies ou des logiciels d’IA pour les patients, mais n’a pas encore déterminé si l’utilisation de l’IA dans les soins de santé est sans danger pour les patients. Au lieu de cela, la FDA approuve les appareils compatibles avec l’IA via un processus appelé examen 510(k). Lors d’un examen 510(k), les fabricants doivent démontrer que leur technologie est « substantiellement équivalente » aux produits déjà disponibles sur le marché. Ce processus permet d’approuver les appareils basés sur l’IA même s’ils ne se sont pas révélés sûrs ou précis lors d’essais cliniques.
L’année dernière, l’administration Biden s’est engagée à superviser le développement responsable de l’IA, y compris dans les domaines liés à la santé. Le décret du président Joseph R. Biden sur ce sujet exige que les prestataires de soins de santé informent les utilisateurs si le contenu qu’ils fournissent est généré par l’IA et n’a pas été examiné par un médecin. De plus, les prestataires de soins de santé ont la responsabilité d’atténuer les risques potentiels posés par la technologie et de veiller à ce que la technologie élargisse l’accès aux soins.
Les experts médicaux ont également exprimé leur inquiétude quant aux problèmes d’auto-diagnostic des jeunes, dont discutent les influenceurs faisant la promotion de la télémédecine sur les réseaux sociaux. Actuellement, la FDA n’exige pas que les sociétés de télémédecine divulguent des informations sur les risques potentiels de leurs services et, en tant que « annonceurs », les sociétés bénéficient de protections en matière de liberté d’expression.
Les partisans d’une plus grande réglementation de la technologie dans le domaine médical affirment que les prestataires de télésanté échappent à la réglementation en se présentant comme des plateformes de communication reliant les patients et les médecins, plutôt que comme des prestataires de services médicaux. Les sociétés de télémédecine conservent leur indépendance vis-à-vis des prestataires de soins de santé, ce qui leur permet d’éviter toute responsabilité légale pour les actions des prestataires de soins de santé.
Lors de ce séminaire de samedi, les universitaires proposent une série de propositions pour réglementer l’utilisation de la technologie dans les soins de santé.
Les algorithmes d’IA sont intrinsèquement biaisés, mais il n’existe aucune réglementation fédérale qui traite du risque de diagnostics biaisés lorsque l’IA est utilisée dans les soins de santé, a déclaré Natalie Shen, diplômée de la faculté de droit de l’Université de Seattle, à Seattle Tech. le Journal du droit de l’environnement et de l’innovation. Shen explique qu’en l’absence d’action fédérale, les États prennent l’initiative d’adopter des lois pour lutter contre l’IA et d’autres systèmes de prise de décision automatisés dans le secteur de la santé. En analysant les approches du New Jersey et de la Californie, Shen explore comment les futures lois des États pourraient étendre la couverture au secteur de l’assurance maladie privée et imposer des exigences d’évaluation continues à mesure que la technologie de l’IA évolue, et recommande des améliorations aux futures lois des États. Dans un article paru dans la Virginia Law Review, Chiara M. Bridges de la Berkeley Law School soutient que l’éducation des patients sur les risques de biais algorithmiques basés sur la race devrait être une condition préalable avant d’utiliser l’IA dans les soins de santé. Bridges explique que les personnes de couleur sont plus susceptibles de faire confiance aux médecins et aux prestataires de soins de santé, et donc plus susceptibles d’être sceptiques à l’égard de l’IA médicale. De plus, les algorithmes médicaux sont développés principalement sur la base des « populations générales » blanches, a déclaré Bridges, ce qui rend leurs prédictions moins précises pour les communautés de couleur. Elle pense que la divulgation des risques liés à l’IA augmentera le dialogue patient-médecin dans les communautés de couleur, encouragera davantage de patients de couleur à utiliser la technologie et, à terme, prétend être en mesure de corriger les biais causés par les algorithmes existants. Pour poursuivre le processus de suivi des performances, nous demandons à Joana Gonçalves-Sá du Complexity Science Hub et à Flávio Pinheiro de la NOVA Information Management School dans le chapitre « Perspectives interdisciplinaires sur l’intelligence artificielle et le droit ». Gonçalves-Sá et Pinheiro proposent des améliorations au Total Product Lifecycle, le programme pilote de la FDA qui suit les risques de sécurité de l’IA. Dans le cadre de ce programme, les entreprises d’IA peuvent obtenir un « statut de pré-qualification » si elles peuvent démontrer qu’elles sont capables de développer des algorithmes de haute qualité et de surveiller en permanence leur efficacité après leur entrée sur le marché, expliquent Gonçalves-Sa et Pinheiro. La FDA devrait également examiner la fiabilité des ensembles de données et des techniciens qui forment les outils d’IA, ont déclaré Gonçalves-Sa et Pinheiro, ajoutant que les régulateurs devraient également examiner la fiabilité des ensembles de données et des techniciens qui forment les outils d’IA. Ils préconisent de réduire les barrières juridiques. aider les gens à accéder aux services. Parker, de la faculté de droit de l’Université de Chicago, a écrit dans un article récent paru dans la Columbia Science and Technology Law Review : Parker a déclaré que les organisations communautaires telles que les églises noires peuvent aider certaines personnes à surmonter leur méfiance à l’égard des prestataires de soins de santé, mais lorsque les églises noires sont impliquées, cela peut conduire à un conflit entre les croyances de l’église et les besoins médicaux du patient. Il souligne qu’il existe une possibilité. qu’il peut y avoir une contradiction entre les deux et que l’Église pourrait être tenue responsable de faute professionnelle médicale. En réponse, Parker, dans une note publiée dans le Washington Journal of Law, Technology and Arts, a averti que l’Église n’avait aucune préoccupation éthique ou juridique quant à la connexion des personnes aux services de télésanté nécessaires. Elle suggère d’assouplir ou d’ajuster les barrières réglementaires pour éviter toute responsabilité. La faculté de droit Elizabeth Haub de l’Université Pace affirme que les réglementations laxistes de la Drug Enforcement Administration des États-Unis sur les prestataires de télésanté exacerbent les traitements de santé mentale inadéquats et augmentent la prescription excessive de médicaments. Alors que les modèles commerciaux des prestataires de télémédecine peuvent rendre le traitement plus pratique et plus abordable, les modèles de soins rapides qu’ils proposent « restreignent la fourniture de soins de santé aux patients et la vente de substances contrôlées aux clients », ce qui brouille les frontières entre les deux. En effet, ces entreprises tombent dans une zone grise réglementaire. Ils revendiquent leur indépendance vis-à-vis des prestataires de soins de santé et refusent de fournir des services médicaux. Mais ils vendent activement des stimulants aux consommateurs, facilitant ainsi les prescriptions douteuses après une brève évaluation virtuelle, a déclaré la candidate au ministère de la Justice, Nora Klein, dans une récente revue de la loi Belmont, selon laquelle les régulateurs devraient combler les lacunes de la loi qui autorisent la vente directe au consommateur (DTC). ) les sociétés pharmaceutiques. influencer indûment les utilisateurs des médias sociaux ; Klein souligne que les sociétés pharmaceutiques s’adressant directement aux consommateurs contournent les réglementations publicitaires de la FDA en partie en se qualifiant d’entreprises sans autorité réglementaire de la FDA. Par conséquent, ces entités sont soumises uniquement aux réglementations en matière de publicité de la FTC, qui sont difficiles à appliquer, a noté Klein. Elle fait valoir que le modèle DTC est néfaste car il est plus susceptible de provoquer des erreurs de diagnostic et des complications pour les patients que les services médicaux traditionnels. Pour résoudre ce problème, Klein propose que la FDA oblige les sociétés pharmaceutiques DTC à divulguer des informations importantes sur les médicaments aux consommateurs.
Le séminaire du samedi est une fonctionnalité hebdomadaire conçue pour documenter le contenu présenté lors de séminaires en direct mettant en vedette des experts en réglementation. Chaque semaine, The Regulatory Review publie un bref aperçu d’un sujet réglementaire sélectionné, suivi d’une distillation de recherches récentes et d’articles universitaires sur ce sujet.