Vous lisez un exemple de la newsletter TechMIX, dans laquelle Pavel Kasík et Matouš Lázňovský livrent chaque mercredi quelques commentaires et observations du monde des nouvelles sciences et technologies. Si TechMIX vous intéresse, abonnez-vous !
Les grandes entreprises adorent brandir des médicaments. Cela a l’air bien dans un communiqué de presse, et généralement personne ne s’en soucie, probablement parce que peu de gens le comprennent en détail. Par conséquent, il peut être difficile de reconnaître quand cela cesse d’être un devoir et devient intéressant. Dans le bulletin d’aujourd’hui, je vais essayer de le décomposer au moins un peu.
Commencer par l’analyse d’images
L’exemple le plus célèbre de l’implication de l’apprentissage automatique en médecine est peut-être l’analyse d’images, en particulier divers scans, rayons X, résonance magnétique, etc. Je me souviens que Google se vantait déjà en 2016 d’être capable de reconnaître le recours à des personnes formées. modèle la rétinopathie diabétique.
La recette qu’ils utilisaient à l’époque n’est plus du tout surprenante aujourd’hui : les développeurs ont pris un grand nombre d’images étiquetées par des experts et ont formé un réseau neuronal sur ces images. Il a alors pu « diagnostiquer à un niveau similaire à celui du personnel médical ». Bien sûr, c’est plus rapide.
À cette époque, il semblait certain que des réseaux neuronaux similaires envahiraient tous les cabinets médicaux et hôpitaux du monde. Geoffrey Hinton, l’une des principales figures du développement de l’IA et aujourd’hui un critique bien connu qui met en garde contre une utilisation abusive de l’IA, même alors il dit: «Il est clair qu’il faut arrêter de former la prochaine génération de radiologues.» Selon lui, ce serait une perte d’énergie, car ce métier deviendra bientôt aussi pertinent que celui de quantificateur à l’ère des calculatrices.
Mais cela ne s’est pas produit. En d’autres termes, quelque chose changeait à cet égard, mais beaucoup plus lentement qu’il n’y paraissait à l’époque. Hugh Harvey, radiologue expliquéque les radiologues font essentiellement plus que simplement s’asseoir devant un moniteur et encercler des structures sur des images : « Tout le battage médiatique autour de l’intelligence artificielle en radiologie concerne uniquement l’analyse d’images, qui n’est qu’une partie du travail d’un radiologue humain. Je connais des radiologues qui effectuent uniquement des rapports diagnostiques à temps plein.
Même si le système est absolument parfait pour détecter le cancer et d’autres problèmes – et c’est de grands progrès à cet égard –, c’est la société qui décide du diagnostic et, surtout, de la prochaine ligne d’action. Seules les personnes peuvent être responsables des décisions, du moins dans le sens actuel du terme.
De plus, il semble que les médecins ne soient pas encore experts dans l’utilisation de ces nouveaux outils : « Les radiologues n’ont pas encore pleinement exploité les bénéfices potentiels de l’assistance de l’IA, en raison d’écarts importants par rapport au modèle de référence bayésien avec des mises à jour correctes des croyances », a déclaré le médecin. recherche récente. En d’autres termes, il est difficile pour les médecins de décider comment intégrer une « voix consultative de l’IA » dans leur prise de décision, car il est difficile de prédire quand on peut faire confiance à un système d’IA.
Mais ça vaut le coup d’essayer. L’expérience de la République tchèque le confirme également : « En très peu de temps, grâce à l’intelligence artificielle, nous avons réussi à trouver une tumeur que deux radiologues n’ont pas pu détecter », explique Jan Daneš du Waltrovka Mamocenter à Prague.
D’un autre côté, une dépendance excessive aux systèmes d’IA est bien entendu également risquée. Jordan Perchik, radiologue décrire une situation dans laquelle le système d’IA évalue des images pulmonaires exemptes d’anomalies. Mais il ne le pensait pas et a décidé d’approfondir ses recherches : « Si j’avais décidé de faire confiance à l’intelligence artificielle et de continuer ma vie, la maladie n’aurait peut-être pas été diagnostiquée. »
Paradoxalement, plus ces outils connaissent de succès, plus les médecins leur font confiance. Et il est d’autant plus probable qu’ils ne remarqueront pas quelque chose qu’ils devraient remarquer. Mais en fin de compte, cela n’a peut-être pas tellement d’importance, si le taux de réussite global augmente…
Ça continue avec des mots
La vague actuelle d’intelligence artificielle a ajouté la reconnaissance d’images à ce que les patients attendaient uniquement des médecins : les mots. Et cela peut surprendre beaucoup de gens que les modèles linguistiques soient si bons dans ce qui a longtemps été considéré comme un trait exclusivement humain : ils ont des niveaux élevés d’empathie.
Donc, pour être précis : bien sûr, le système n’a pas d’empathie dans le sens où les humains ont de l’empathie. Mais ce qui est important, c’est que les systèmes basés, par exemple, sur GPT-4, peuvent imiter l’empathie de manière très convaincante.
Dans le études publié en avril 2023, un panel d’experts a évalué les réponses aux questions courantes et très spécifiques des patients. Comme d’habitude dans ce type de recherche, l’évaluateur ne savait pas quelles réponses avaient été rédigées par le médecin et lesquelles avaient été rédigées par ChatGPT.
Exemples de réponses de médecins et ChatGPT
Question: Quel est le risque de complications graves, voire de décès, après avoir avalé un cure-dent en bois ?
Au total, 195 questions ont été évaluées, chacune comportant deux réponses. Les experts ont évalué l’exactitude des faits et « l’empathie des médecins ». Les résultats sont assez clairs. Jusqu’à 79 % des experts préfèrent les réponses générées par l’IA aux réponses écrites par des humains. Les réponses des robots ont trois fois plus de chances d’être jugées correctes.
Ce qui n’est pas clair du tout, car comme je le répète souvent, ChatGPT et autres modèles ont tendance à halluciner et à bavarder. Mais lorsqu’il s’agit de réponses à des sujets de santé, les performances de ChatGPT sont suffisantes pour battre les médecins humains (selon les auteurs de l’étude, ce sont des « médecins vérifiés qui parlent sur les forums publics », mais ils cachent leur identité).
Mais ce qui est plus surprenant, c’est que les réponses générées par l’intelligence artificielle gagnent également en termes d’empathie. Alors que les réponses des médecins ont été jugées « très empathiques » ou « empathiques » seulement 4,6 % du temps, les chatbots ont généré des réponses empathiques dans 45 % du temps. On pourrait dire que le niveau d’empathie est dix fois plus élevé.
Bien sûr, certains soutiennent que c’est une empathie qui a mal tourné. Mais du point de vue du lecteur, cela n’a pas d’importance. Les lecteurs lisent simplement la réponse et y ressentent ou non de l’empathie. Les auteurs de l’étude ont déclaré qu’un tel système pourrait être utilisé pour aider les médecins à réduire leur charge de travail. A quoi ça ressemble concrètement ? Nous le verrons certainement dans les mois et les années à venir.
Dernier études mais cela montre qu’il ne faut pas prendre les chatbots au sérieux simplement parce qu’ils « lisent beaucoup ». ChatGPT et Google Bard répondent à certaines questions d’une manière qui, sans exagération, pourrait être considérée comme dépassée. Par exemple, ils répètent des stéréotypes et des préjugés concernant les patients à la peau foncée.
Le chemin vers une compréhension générale du corps humain
Presque tous les médecins que vous consultez ont dû effectuer de nombreuses recherches sur chaque partie du corps humain. Différentes écoles ont différentes manières d’enseigner aux médecins, mais il est généralement considéré comme bénéfique que tous les médecins – quelle que soit leur spécialité finale – comprennent le fonctionnement du corps dans son ensemble.
Les mêmes principes de compréhension sont recherchés par les nouveaux modèles »intelligence artificielle de santé publique», qui n’a pas pour but d’identifier une maladie particulière ou un type particulier de radiographie. Au lieu de cela, un tel modèle serait capable d’analyser plusieurs entrées et leurs combinaisons, en tenant compte de l’histoire du patient, ou même des sentiments décrits subjectivement par le patient.
Un tel outil pourrait être une aide réelle et polyvalente pour tout médecin qui peut poser à son assistant des questions telles que : « Décrivez l’entité qui apparaît sur cette image par résonance magnétique de la tête. Est-ce plutôt une tumeur ou un abcès ?
Un tel système peut également rechercher activement les recherches existantes. Ce qui est assez important, car il est actuellement diffusé dans le monde entier. environ 30 mille des revues médicales professionnelles, ce qui signifie des millions d’études par an. Comme me l’a récemment dit le célèbre oncologue tchèque Jan Starý : « Je pense que (l’intelligence artificielle) jouera certainement un rôle important dans notre domaine, car elle peut traiter d’énormes quantités d’informations et nous les fournir sous une forme ordonnée. »
Je ne suis pas médecin, mais j’ai l’expérience de la façon dont les gens perçoivent la technologie qu’ils ne comprennent pas. Je me permets donc de souligner un danger dont on n’a pas beaucoup parlé, car il est relativement faible pour le moment : à mesure que les ordinateurs deviennent les meilleurs experts du corps humain, il deviendra de plus en plus difficile de trouver des experts humains. Les décisions seront prises sur la base d’évaluations de différents systèmes adaptés à différentes données et avec différentes capacités à expliquer leurs conclusions.
« Lorsque vous l’étendez au niveau du système de santé, vous pouvez voir qu’il y a beaucoup de décisions à prendre concernant les appareils eux-mêmes et beaucoup de décisions sur la manière de les intégrer, de les acheter, de les surveiller et de les déployer », a déclaré Alan Karthikesalingam. , médecin et chercheur au bureau de Google Health à Londres. « Cela peut rapidement se transformer en soupe Ajtak. »
Vous pouvez en savoir plus dans la version complète de la newsletter TechMIX. Abonnez-vous pour le recevoir directement sur votre email tous les mercredis.
« Certified introvert. Devoted internet fanatic. Subtly charming troublemaker. Thinker. »