L’IA exerce illégalement la médecine |
Au Québec, seuls les professionnels qualifiés peuvent faire des gestes à portée diagnostique ou thérapeutique, rappellent les auteurs, pour qui il est temps de réagir face aux agents d’IA qu’ils comparent à des charlatans.
Sam Altman, le PDG d’OpenAI, disait en juillet dernier lors d’un évènement organisé par la Réserve fédérale américaine1 que les capacités diagnostiques de l’intelligence artificielle (IA) surpassaient dorénavant celles des médecins. Il y a, en effet, des développements importants, voire spectaculaires, pour plusieurs applications d’IA spécialisées en santé.
Toutefois, comme l’indiquent des études récentes, les applications destinées au grand public, tant pour la santé mentale2 que pour la santé physique3, présentent des risques encore très mal maîtrisés. Et ce, c’est sans compter les évènements tragiques rapportés régulièrement par les médias, dont des suicides4, qui apparaissent liés à des interactions avec des agents conversationnels alimentés par l’IA, comme Gemini ou ChatGPT, en vue d’obtenir du soutien psychologique.
Cette réalité soulève une question fondamentale : qui devrait encadrer les applications destinées au grand public qui permettent d’obtenir des avis diagnostiques ou thérapeutiques ?
En principe, on sait que dès qu’il s’agit d’instruments médicaux, un processus d’homologation, comme celui qui relève de Santé Canada, est prévu avant que le produit puisse être mis en marché. Mais manifestement, pour les applications grand public, ce processus apparaît plutôt inopérant pour l’instant.
On devrait alors pouvoir miser sur le Code des professions et les autres lois relatives à l’encadrement de la médecine et des diverses professions du secteur de la santé. Historiquement, de telles lois ont été adoptées pour protéger le public contre le charlatanisme en matière de santé et non pas pour accorder un privilège social ou économique à un groupe donné.
Ces lois visent ainsi à garantir que seuls des professionnels qualifiés font des gestes à portée diagnostique ou thérapeutique. Bien qu’elles aient été conçues à une époque où l’on ne concevait le risque que sous l’angle d’interactions humaines, les règles établies sont relativement claires quant aux limites qu’il ne faut pas franchir, même pour les entreprises qui rendent les applications d’IA accessibles au public.
Que signifie l’exercice illégal de la médecine en lien avec l’IA ?
Au Québec, la définition juridique du « diagnostic » est particulièrement large. Les tribunaux considèrent qu’il s’agit de toute démarche visant à identifier une maladie, un trouble ou un dysfonctionnement à partir de symptômes ou de méthodes scientifiques, y compris l’anticipation de malaises probables.
La « prescription », quant à elle, est comprise comme toute recommandation thérapeutique. En pratique, même en l’absence d’un diagnostic explicitement formulé, le simple fait de recommander un traitement peut suffire à conclure qu’un diagnostic a été posé.
Les développeurs se rassurent en ajoutant des clauses de non-responsabilité ou des mises en garde affirmant que l’outil d’IA ne remplace pas une consultation avec un professionnel qualifié. Or, au Québec, la jurisprudence mentionne plutôt que de telles déclarations ne suffisent pas à écarter un constat d’exercice illégal.
La définition des activités professionnelles réservées peut varier d’un pays ou d’une province à l’autre, mais comme l’indique un texte paru récemment dans le Globe and Mail5, les questions qui se posent au Québec en cette matière existent également ailleurs au Canada.
Et le constat est le même, soit celui d’une forme d’inertie collective, d’autant plus que, contrairement à l’Union européenne et à d’autres pays plus avancés sur le plan législatif à ce sujet, nous ne disposons pas encore au Canada d’un cadre juridique global visant à encadrer et gérer le risque des développements liés à l’IA.
Protéger le public sans compromettre l’innovation
Faut-il alors intenter des poursuites pour interdire ou freiner l’essor des applications de santé fondées sur l’IA ? D’une part, si la finalité première des règles sur l’exercice illégal est la protection du public, il n’y a aucune raison de créer une zone d’exception spécifique pour les entreprises technologiques.
Mais il faut aussi reconnaître que des outils d’IA hautement performants peuvent, dans certains contextes, améliorer l’accès aux soins et alléger la pression sur les systèmes de santé.
Au Québec, à défaut de tester les règles déjà établies en matière d’exercice illégal des professions dans le cadre de poursuites contre les entreprises qui rendent disponibles des technologies à risque, nous avons l’occasion, avec l’exercice de modernisation du Code des professions qui est en cours, de réfléchir à ce que devrait être un encadrement propre à cette nouvelle réalité.
Il s’agit là d’ailleurs d’une orientation clairement énoncée dans la Politique gouvernementale sur les soins et services de première ligne6 qui vient tout juste d’être dévoilée. L’enjeu n’est donc pas de choisir entre innovation et protection, mais de sortir d’une certaine torpeur, de prendre la mesure des risques en cause et de mettre de l’avant une stratégie d’encadrement adaptée à cette nouvelle réalité.