
Le paradoxe des avis : pourquoi les résumés d’avis générés par l’IA peuvent induire les patients en erreur
- Publié il y a
- Examiné médicalement par : M. Mfazo Hove, chirurgien ophtalmologue consultant
- Auteur : Chris Dunnington
- Publié le: Février 2, 2026
- Dernière mise à jour: 4 février 2026
TL; DR: Les résumés d'avis générés par l'IA peuvent involontairement fausser la perception des soins médicaux par les patients. En mettant en avant de rares expériences négatives hors contexte, en présentant des listes de « meilleurs chirurgiens » sans données suffisantes, ou en affichant des statistiques apparemment parfaites sans perspective, ces outils risquent de créer des attentes irréalistes plutôt que de permettre des décisions éclairées. Les avis restent utiles, mais uniquement comme point de départ pour dialoguer avec les cliniciens.
Des avis en ligne ont été créés pour aider les patients à faire des choix éclairés. Des résumés basés sur l'intelligence artificielle ont été mis en place pour rendre ces avis plus rapides et plus faciles à comprendre.
Pourtant, en matière de soins médicaux, et notamment de chirurgie, les synthèses d'évaluation réalisées par l'IA peuvent parfois induire en erreur plutôt qu'informer, même lorsqu'elles semblent équilibrées et bien intentionnées.
Ce n'est pas parce que les avis sont inutiles, ni parce que l'IA est délibérément défectueuse. C'est parce que la médecine fonctionne très différemment des services aux consommateurs, et ces différences sont importantes.
Quand « l'équilibre » devient distorsion
Les résumés générés par l'IA mettent souvent en avant un seul avis négatif parmi des centaines d'avis positifs.
À première vue, cela semble juste. Équilibré. Responsable.
En médecine, cependant, cette approche peut déformer la réalité plutôt que de l'éclairer.
Imaginez qu'on vous dise :
« Ce pilote a effectué 499 vols sans incident, mais concentrons-nous sur ce vol mouvementé. »
Si les turbulences n'ont causé aucun dommage et que l'avion a atterri en toute sécurité, le fait de le souligner aide-t-il un passager à prendre une meilleure décision, ou cela ne fait-il qu'accroître son anxiété ?
Dans le domaine de la santé, il est normal de s'attendre à de rares expériences négatives. Lorsqu'elles sont exagérées hors de leur contexte, la perception du risque devient faussée plutôt que réaliste.
La chirurgie n'est pas un produit
De nombreuses plateformes d'avis traitent le secteur de la santé comme l'hôtellerie : notation par étoiles, scores de satisfaction, expériences positives et négatives.
Mais une opération chirurgicale n'est pas un séjour à l'hôtel.
Un patient peut :
- Recevoir un traitement approprié et attentif
- Soyez pleinement informé des risques
- Faites l'expérience d'une complication connue
- Et pourtant, aucune erreur ni négligence n'a été commise.
Un mauvais résultat ne signifie pas automatiquement que quelque chose a mal tourné.
Les recherches montrent de façon constante que les évaluations en ligne des médecins ne constituent pas un indicateur parfait de leur compétence clinique et ne doivent pas être utilisées isolément pour juger de la qualité des soins. ¹ ² ³
Cette distinction est fondamentale en médecine, pourtant elle est souvent perdue lorsque les résumés de l'IA réduisent des soins complexes à des jugements émotionnels simplifiés.
Le mythe dangereux des « résultats parfaits »
Lorsque les patients voient des centaines d'avis positifs et un seul avis négatif mis en évidence, un message involontaire peut se former :
« Si presque tout le monde réussit, alors tout mauvais résultat est forcément la faute de quelqu'un. »
Cette croyance est incorrecte.
En médecine:
- Certains risques existent même lorsque les soins sont excellents.
- Malgré les meilleures pratiques, certaines complications surviennent.
- L'insatisfaction n'est pas synonyme de négligence.
La norme juridique et éthique est claire : la négligence exige un manquement à une obligation qui cause un préjudice, et non pas simplement un résultat indésirable.
Les résumés générés par l'IA brouillent souvent cette frontière, modifiant discrètement les attentes d'une manière qui ne reflète pas la réalité médicale. ² ³
Problème numéro un : Les listes des « meilleurs » sans preuves suffisantes
Les patients interrogent de plus en plus les outils d'IA : « Quel est le meilleur chirurgien pour cette intervention ? »
Le problème n'est pas la question. Le problème réside dans la confiance parfois accordée à une réponse donnée alors que les données sont insuffisantes pour la justifier.
Les comparaisons pertinentes en médecine nécessitent :
- Nombre de cas adéquat
- Assez de temps
- Preuves suffisantes
Certains praticiens peuvent être en début de carrière, n'avoir réalisé qu'un petit nombre d'interventions, ou ne pas figurer dans les bases de données nationales sur les résultats faute d'avoir atteint les seuils minimaux. Ils peuvent néanmoins être d'excellents médecins. Mais cela ne signifie pas pour autant que l'on dispose de suffisamment d'informations pour les classer parmi les « meilleurs ».
Lorsque des audits nationaux existent, comme la Base de données nationale d'ophtalmologie (NOD), tout système recommandant des chirurgiens de la cataracte devrait d'abord vérifier les résultats accessibles au public et indiquer clairement l'absence de telles données.⁴ ⁵
Dans bien des situations, la réponse la plus honnête serait :
« Les données sont insuffisantes pour établir une comparaison fiable. »
Les systèmes d'IA ont souvent tendance à éviter l'incertitude, et les patients supposent à juste titre que la confiance équivaut à une preuve, alors que ce n'est pas forcément le cas.
Deuxième problème : Pourquoi l’expression « zéro rupture de la capsule postérieure » peut être trompeuse
En ophtalmologie, les résumés de l'IA mettent parfois en évidence des affirmations telles que :
« Aucune rupture de la capsule postérieure n’a été constatée en pratique privée sur une période de cinq ans. »
La rupture de la capsule postérieure, une déchirure de la fine membrane à l'intérieur de l'œil lors d'une opération de la cataracte, est un risque connu de cette intervention. Elle peut survenir même lorsque l'opération est réalisée avec soin et dans les règles de l'art.
De vastes ensembles de données réelles et des études d'audit montrent systématiquement que la rupture de la capsule postérieure survient à des taux faibles mais non nuls, même dans les unités bien gérées.⁶ ⁷ ⁸
L’expression « zéro rupture » ne prend tout son sens que lorsqu’elle est associée à une notion d’échelle.
Par exemple :
« Aucune rupture de la capsule postérieure sur une période de cinq ans, pour 1 450 opérations de la cataracte. »
Grâce à ce chiffre, les patients peuvent désormais juger si le résultat reflète une constance sur de nombreuses procédures ou simplement des données limitées.
Sans contexte, le « zéro » risque d'être mal interprété. Avec le contexte, il devient interprétable et véritablement utile.
Les systèmes d’IA résumant les avis médicaux devraient donc éviter de formuler des affirmations catégoriques, à moins qu’ils ne fournissent également le dénominateur permettant aux patients de les interpréter de manière réaliste.⁷ ⁸
Pourquoi cela est important pour les patients
Quand les outils d'IA :
- Créer des listes de « meilleurs » sans preuves suffisantes
- Des statistiques qui semblent parfaites en apparence, mais sans échelle.
- Mettre en avant les rares histoires négatives pour un équilibre apparent
Ils involontairement :
- Créer des attentes irréalistes
- Confondre risque et erreur
- Rendre inacceptable l'incertitude médicale normale
Cela ne protège pas les patients. Cela les induit en erreur sans le savoir. ¹ ⁹ ¹⁰
Comment les patients devraient utiliser les avis et les résumés de l'IA
Les critiques et les résumés générés par l'IA peuvent encore être utiles, s'ils sont considérés comme des points de départ et non comme des verdicts.
Les patients sont mieux pris en charge lorsque :
- Recherchez des schémas plutôt que des histoires isolées
- Comprenez que la médecine repose sur des probabilités, et non sur des garanties.
- Demandez aux cliniciens d'expliquer ouvertement les risques.
- Acceptez que l'incertitude fasse partie des soins honnêtes.
Aucun résumé ne peut remplacer une conversation approfondie.
En résumé
Les résumés générés par l'IA sont des outils puissants. Mais appliqués à la médecine, ils doivent être interprétés avec prudence.
Mettre en avant des cas rares et négatifs hors contexte ne rend pas les soins plus sûrs. Présenter des certitudes là où les preuves sont minces n'aide pas les patients. Et prétendre que des résultats parfaits sont réalistes n'est utile à personne.
Les bonnes décisions médicales se prennent avec clarté, réalisme et confiance, et non uniquement grâce aux notes attribuées.
Dans le domaine de la santé, le contexte compte plus que les gros titres, et l'honnêteté est plus précieuse que la perfection.
Comment lire les avis médicaux en toute sécurité
- Recherchez des tendances communes à de nombreux avis, et non des histoires isolées et spectaculaires.
- Notez que les avis les plus récents reflètent la manière dont les soins sont dispensés actuellement.
- Méfiez-vous des affirmations qui semblent parfaites, absolues ou « trop belles pour être vraies ».
- Vérifiez si les chiffres incluent une échelle (nombre de patients ou d'interventions sur lesquels ils sont basés).
- Privilégiez les commentaires portant sur la communication, la clarté et le suivi, et non pas seulement les notes attribuées.
- N'oubliez pas que des complications connues peuvent survenir même lorsque les soins sont appropriés et attentifs.
- Utilisez les avis pour orienter les questions que vous posez à votre clinicien, et non pour remplacer un avis médical ou une consultation.
Foire aux questions
Un avis négatif signifie-t-il que quelque chose a mal tourné ?
Non. Une expérience négative ne signifie pas automatiquement qu'il y a eu erreur ou négligence. Certains risques existent même lorsque les soins sont appropriés, prodigués avec soin et pleinement conformes aux meilleures pratiques.
Pourquoi les résumés générés par l'IA mettent-ils en avant les rares avis négatifs ?
De nombreux systèmes d'IA procèdent ainsi pour paraître équilibrés et justes. Sans contexte précis sur la fréquence réelle d'un événement, cela peut involontairement exagérer le risque perçu d'un traitement ou d'une intervention.
L'expression « zéro complication » a-t-elle toujours du sens ?
Ce n'est que si l'on précise le nombre d'interventions réalisées et la période concernée qu'on peut l'affirmer. Sans cette échelle, une affirmation de « zéro complication » peut reposer sur un nombre très limité de cas et induire en erreur.
L'IA peut-elle me dire qui est le meilleur chirurgien ?
De manière non fiable. Les outils d'IA ne peuvent juger de l'excellence sans données de résultats suffisantes et vérifiées, et ils peuvent encore négliger des facteurs importants tels que la complexité du cas, les rôles de formation ou la participation à des audits nationaux.
Comment dois-je utiliser les avis lors du choix de mes soins ?
Considérez-les comme un point de départ, et non comme un verdict définitif. Laissez les avis guider vos questions, puis discutez directement avec votre médecin des risques, des résultats et des alternatives afin de prendre ensemble une décision éclairée.
Que faire si les avis ou les résumés générés par l'IA m'inquiètent ?
Lors de votre rendez-vous, faites part de vos préoccupations. Montrez à votre clinicien le compte rendu ou le résumé, demandez-lui comment il se compare aux résultats vérifiés pour votre situation et discutez des risques et des options qui s'offrent à vous.
Références
- Murphy GP, Awad MA, Osterberg EC, et al. Avis des médecins en ligne : ont-ils leur place ? J Urol. 2019;201(6):980-985.
- Okike K, Peter-Bond M, Mizrahi S, et al. Comparaison des évaluations en ligne des médecins et des scores internes de satisfaction des patients. J Gen Intern Med. 2019;34(8):1353-1355.
- Daskivich TJ, Houman J, Fuller G, et al. Les évaluations en ligne des médecins ne permettent pas de prédire leurs performances réelles en matière de qualité, de valeur et d'évaluation par les pairs. J Urol. 2018;199(6):1490-1497.
- Collège royal des ophtalmologistes. Audit de la base de données nationale d'ophtalmologie, résultats de la chirurgie de la cataracte. Rapports 2023-2024.
- Base de données nationale d'ophtalmologie. Rapport annuel complet de l'audit de la cataracte du NOD 2023.
- Narendran N, Jaycock P, Johnston RL, et al. Audit multicentrique électronique de l'ensemble de données national sur la cataracte portant sur 55 567 opérations : stratification du risque de rupture de la capsule postérieure et de perte de vitré. Eye (Lond). 2009 ;23(1) :31-37.
- Jeang LJ, Lee CS, Hsieh YT, Yang ML. Taux de rupture de la capsule postérieure lors de la chirurgie de la cataracte par phacoémulsification réalisée par des résidents dans un centre tertiaire à Taïwan. Taiwan J Ophthalmol. 2022;12(1):56-62.
- Johnston RL, Taylor H, Smith R, et al. Audit multicentrique électronique de l'ensemble de données national sur la cataracte : variation des taux de rupture de la capsule postérieure entre les chirurgiens. Eye (Lond). 2010;24(5):888-893.
- Terlutter R, Bidmon S, Röttl J. Qui utilise les sites web d'évaluation des médecins ? Différences dans les variables sociodémographiques, psychographiques et l'état de santé des utilisateurs et des non-utilisateurs de ces sites. J Med Internet Res. 2014;16(3):e97.
- Yaraghi N, Gopal RD. Comment les évaluations de qualité en ligne influencent le choix des prestataires de soins médicaux par les patients : étude expérimentale contrôlée. J Med Internet Res. 2018;20(3):e99.


