Show cover

Pourquoi un essai clinique ne suffit plus à rendre une IA santé crédible


On parle beaucoup d'IA en santé, d'essais cliniques, de marquage réglementaire. Pourtant, ce qui fait vraiment la crédibilité d'un outil au bloc opératoire ou en consultation se joue ailleurs : dans la manière dont il survit à sa propre obsolescence (un algorithme dure 2 ans, une molécule 15), dans la qualité des données qu'il manipule, et dans l'usage qu'en font les bons médecins. Le vrai filtre n'est pas la régulation. C'est la confiance.


Dans cet épisode, je reçois avec Guillaume Laguette deux voix qui ont chacune construit cette confiance sur le terrain : Stéphanie Allassonnière, mathématicienne et co-fondatrice de Sonio (IA en échographie fœtale), et le Professeur Éric Vibert, chirurgien hépatobiliaire à l'AP-HP, fondateur de la chaîne Innovation BOPA et co-fondateur d'Uncover (comptes rendus opératoires en temps réel). L'une a construit Sonio en co-création avec Yves Ville, l'un des KOL mondiaux de l'échographie ; l'autre teste chaque semaine les startups qui frappent à la porte de son service. Ensemble, ils dissèquent ce qui fait qu'on accorde — ou pas — sa confiance à un outil.


Ils posent un cadre exigeant : la crédibilité d'une IA santé ne tient pas à un seul levier, mais à plusieurs niveaux qui s'imbriquent. Une caution scientifique réelle (pas un KOL "logo"), une preuve d'usage qui dépasse le marquage CE, des données qui ne se baladent pas, et un essai clinique repensé pour la vitesse de la techno. Ils partagent aussi leur méthode pour distinguer une co-construction saine d'un pilote gratuit qui n'aboutira jamais, et un débat sans complaisance sur la fuite des startups françaises vers la FDA.


Dans cet épisode :

- Pourquoi la durée de vie d'un algorithme (~2 ans) rend l'évaluation clinique classique inadaptée — et ce qu'il faut faire à la place

- Le rôle du KOL : caution stratégique vs co-construction réelle (l'exemple de Sonio)

- Ce qu'Éric Vibert regarde vraiment avant d'adopter une techno au bloc — et pourquoi le "temps réel" qu'on vous vend est presque toujours du lag

- L'expérience qui a convaincu trois anesthésistes du CHU de Toulouse : ils n'ont pas pu distinguer 50 vrais patients de 50 patients générés par IA

- L'essai clinique rétrospectif comme alternative quand le prospectif est impossible (le cas des maladies rares chez le fœtus)

- Les "challenges avec et sans algo" comme nouveau mode de validation

- Marquage CE vs FDA : pourquoi le second est plus exigeant — et plus constructif

- Pourquoi Nabla est partie aux US (et ce qui empĂŞche la France de la garder)

- Mistral, Yann LeCun, Amilab : un terreau français exceptionnel qui perd ses startups

- Pilote gratuit ou pas ? La distinction entre co-construction (essentielle) et démo commerciale gratuite (illusoire)


Une discussion sans complaisance sur ce qui sépare une promesse technologique d'une adoption clinique réelle — et sur la confiance qu'il faut construire avant de pouvoir la mesurer.


Crédit :

Production : MedShake Studio

Animation : Anca Petre et Guillaume Laguette


Hosted on Ausha. See ausha.co/privacy-policy for more information.