© Pixabay – Cyborg 2765349 Les progrès récents ont montré les capacités insoupçonnées des modèles de langage à mener des conversations riches, à planifier et raisonner. Dans cette optique, Google Research a développé Amie, un système d’IA optimisé pour le raisonnement diagnostique et les conversations. Amie a été entrainé sur un très grand nombre de situations, puis évalué. Ses performances ont été comparées à celles de vingt médecins de premiers recours, sur de nombreux axes, dont le recueil d’antécédents médicaux, la précision diagnostique et l’empathie. Des résultats globalement en faveur de l’IA Il en ressort que Amie a réalisé des conversations diagnostiques au moins aussi bien que les médecins.Les patients-tests ont dialogué à l’aveugle, via un chat textuel, sans savoir si leur interlocuteur était un vrai médecin ou Amie. Ensuite, on leur a demandé d’évaluer la qualité de leur consultation. Les médecins ont également été invités à en juger à posteriori, à l’aveugle également. Il en ressort que l’IA a montré une plus grande précision diagnostique et une performance supérieure sur 28 des 32 axes du point de vue des médecins interrogées. Sur 24 des 26 axes du point de vue des patients. Parmi ces axes, il y avait le professionnalisme, l’empathie, la précision du diagnostic différentiel, la clarté du dialogue et de la délivrance d’informations. La prudence reste de rigueur Google invite à la prudence. L’évaluation pourrait sous-estimer la valeur des conversations humaines en conditions réelles, car elle se base sur une interface de chat texte non représentative de la pratique clinique habituelle. De plus, il s’agit là d’une première étape. Transformer le prototype en un outil complètement fiable nécessitera des recherches supplémentaires importantes. Mais dans un monde où l’accès à l’expertise clinique reste limité, une IA conversationnelle empathique, sûre, utile et accessible, est une perspective fascinante. Research…