top of page

Bioéthique 2026 : et si l'IA était en train de prendre le pouvoir en médecine ?

  • Photo du rédacteur: Flying Butterfly
    Flying Butterfly
  • il y a 5 minutes
  • 5 min de lecture

J'ai suivi de près les révisions successives des lois de bioéthique pendant mes années à Genopole, entre 2000 et 2018. À l'époque, les débats tournaient autour de la génétique, des cellules souches, de la médecine personnalisée. Des sujets complexes, certes — mais des sujets que l'on pouvait encore nommer, délimiter, débattre.

Aujourd'hui, un nouvel acteur s'est invité dans la salle : l'intelligence artificielle. Et elle ne demande pas la permission.


Une bioéthique confrontée à une rupture de nature

Ce qui change avec l'IA, ce n'est pas seulement la technologie. C'est la manière dont les décisions médicales se prennent.


Avant, la bioéthique encadrait des avancées biologiques identifiables : séquencer un gène, congeler un embryon, tester une thérapie cellulaire. On pouvait fixer des limites claires entre ce que la science permettait et ce que la société acceptait.


Aujourd'hui, l'innovation est algorithmique. Elle s'infiltre dans les coulisses du système de soins — dans les logiciels de radiologie, les outils de triage aux urgences, les plateformes d'aide au diagnostic. Et cette infiltration soulève une question que les États généraux de bioéthique 2026 ne pourront pas esquiver : qui décide, au fond ?


Ce que l'IA fait (vraiment) en médecine

Soyons concrets. L'IA permet aujourd'hui de détecter certains cancers du sein sur mammographie avec une précision comparable à celle de radiologues expérimentés. Elle aide à prédire les risques de sepsis aux urgences, parfois plusieurs heures avant les premiers signes cliniques. Elle optimise les plannings opératoires et réduit les délais d'attente.


Les bénéfices sont réels. Personne ne le conteste.

Mais l'AI Act européen, adopté en 2024, a eu le mérite de poser les choses clairement : les systèmes d'IA médicale sont classés « à haut risque ». Évaluation préalable, traçabilité, supervision humaine obligatoire. C'est un premier cadre sérieux.


Ce qu'il ne règle pas, c'est la question du pouvoir : qui conçoit les modèles ? Qui fixe les critères d'optimisation ? Qui contrôle les biais ?


Le problème des données : une course à deux vitesses

L'IA médicale a faim. Faim de données — dossiers patients, imageries, génomiques, objets connectés. Plus les bases sont vastes, plus les algorithmes sont performants.


De la salle d'IRM aux algorithmes de détection : l'IA s'installe au cœur du diagnostic médical.


La France a misé sur le Health Data Hub pour agréger ces données à l'échelle nationale. C'est une ambition légitime. Mais cette dynamique favorise mécaniquement les acteurs qui disposent de capacités de calcul massives — souvent des géants du numérique américains ou chinois.


La question n'est pas anodine : va-t-on confier l'infrastructure de notre médecine à des entreprises étrangères, sans garde-fous démocratiques clairs ?


Or, des données massives ne signifient pas des données représentatives — et c'est là que les choses se compliquent vraiment.


Les biais : l'angle mort de l'IA en santé

C'est en effet là que les enjeux deviennent vraiment sérieux — et souvent sous-estimés.

Un algorithme apprend à partir de données historiques. Si ces données sont biaisées, le modèle le sera aussi. Et les conséquences peuvent être graves.


Un exemple documenté : une étude publiée en 2019 dans Science a révélé qu'un algorithme largement utilisé aux États-Unis pour orienter les patients vers des programmes de soins sous-estimait systématiquement les besoins des patients noirs. Pourquoi ? Parce que le modèle utilisait les coûts de santé passés comme proxy de l'état de santé — et les patients noirs, ayant historiquement moins accès aux soins, avaient des coûts plus bas, donc semblaient en meilleure santé. Un biais structurel, invisible dans le code, aux effets bien réels.


En France, les femmes, les personnes âgées et les populations précaires sont souvent sous-représentées dans les bases de données d'entraînement. Si personne ne corrige cela, l'IA risque de produire des diagnostics moins fiables pour ces groupes — creusant des inégalités que notre système de santé s'efforce pourtant de réduire.


La bioéthique française est fondée sur la dignité humaine et l'égalité d'accès aux soins. À l'ère des algorithmes, ces principes doivent être intégrés dès la conception des systèmes, pas ajoutés en correctif après coup.


Le glissement silencieux du pouvoir médical

Le médecin conserve la décision finale. Juridiquement, c'est clair. Mais dans les faits, quand un algorithme lui signale un risque élevé, quand le logiciel hospitalier oriente le patient vers tel protocole, quand le score prédictif guide la priorisation — le cadre de la décision est déjà structuré par une machine.


Ce glissement est progressif. Il modifie les rapports de force entre praticiens, hôpitaux, industriels du numérique et autorités publiques. Et en cas d'erreur, qui est responsable ? Le médecin qui a suivi l'algorithme ? L'entreprise qui l'a conçu ? L'hôpital qui l'a déployé ? La chaîne de responsabilité devient floue — et c'est précisément là que la bioéthique doit intervenir.


Réguler, c'est bien. Gouverner, c'est indispensable.

La tradition française est claire sur ce point : les grandes mutations scientifiques doivent être précédées d'un débat démocratique. Pas régulées après coup, une fois les pratiques installées.


La révision de 2026 devra répondre à des questions concrètes : doit-on inscrire dans la loi une obligation de transparence algorithmique pour tout système d'IA utilisé en clinique ? Comment organiser un contrôle public des infrastructures de données de santé ? Comment articuler le cadre européen avec les exigences de souveraineté nationale ?


Réguler l'IA, c'est poser des garde-fous techniques. Gouverner l'IA, c'est décider collectivement de la médecine que l'on veut.


Ce que j'en retiens

Au fil de ma carrière, j'ai vu la bioéthique accompagner des ruptures majeures — toujours en cherchant à maintenir un équilibre entre ce que la science peut faire et ce que la société choisit d'accepter.


L'IA introduit quelque chose de plus insidieux : elle ne modifie pas seulement les résultats médicaux, elle modifie les conditions dans lesquelles les décisions se prennent. Sans que l'on s'en aperçoive toujours.


La médecine ne peut pas devenir un simple espace d'optimisation statistique. Elle est — et doit rester — un espace de confiance, de responsabilité, et d'humanité.


Préserver la décision humaine à l'ère du calcul prédictif, ce n'est pas un réflexe conservateur. C'est un acte politique. Et il est urgent.


Le Parlement français : la tradition bioéthique
Le Parlement français : la tradition bioéthique

Repères bibliographiques



Commentaires

Noté 0 étoile sur 5.
Pas encore de note

Ajouter une note

Formulaire d'abonnement

©2020 par Communicante éclectique, Flying Butterfly. Créé avec Wix.com

bottom of page