La IA resuelve mejor las dudas médicas que «Doctor Google», cuando no genera «alucinaciones»

La Voz REDACCIÓN

SOCIEDAD

Ilustración sobre la búsqueda de información a través de ChatGPT
Ilustración sobre la búsqueda de información a través de ChatGPT Dado Ruvic | REUTERS

Un nuevo estudio del CiTIUS de la USC advierte de que los modelos de inteligencia artificial ofrecen más cantidad de respuestas correctas, pero tienen tendencia a la creación de respuestas falsas

10 abr 2025 . Actualizado a las 16:45 h.

¿Es la inteligencia artificial (IA) más fiable para resolver dudas médicas que «Doctor Google»? Esta misma pregunta se realizaron los autores de un nuevo estudio del Centro Singular de Investigación en Tecnoloxías Intelixentes de la Universidade de Santiago de Compostela (CiTIUS). A través de sus hallazgos, observaron que los motores de búsqueda tradicionales ofrecen entre un 60 y un 70 % de respuestas correctas entre sus primeros veinte resultados, mientras que los modelos de IA estudiado presentaron «unha taxa de acerto superior, que oscila entre o 80 % e o 90 %», según apunta Marcos F. Pichel, primer autor del artículo.

Por tanto, según sus resultados, las inteligencias artificiales ofrecerían un mejor servicio en este ámbito, teniendo en cuenta además que, en lo relativo a los buscadores tradicionales, «moitas das páxinas recuperadas son irrelevantes ou non achegan información clara para resolver a dúbida médica». Sin embargo, los investigadores también advierten de un problema característico de la IA que dinamita su fiabilidad, «o que coñecemos como alucinacións».

Estas alucinaciones no dejan de ser «respostas falsas expresadas con gran seguridade». Es decir, una interpretación que hace la inteligencia artificial de el cómputo de información que analiza para contestar a una pregunta, en este caso, médica. Además, cuando el usuario la advierte de su error, muchas veces se limita a darle la razón y enviar una respuesta diferente.

El equipo de especialistas en Recuperación de Información, Minería de Textos e Computación de Altas Prestacións del CiTIUS analizó el grado de veracidad detrás de las respuestas a dudas sobre salud realizadas a través de internet. Por un lado, mediante la búsqueda tradicional en internet a través de cuatro motores, Google, Bing, Yahoo y DuckDuckGo. Mientras que, por otro lado, analizaron las respuestas de siete modelos de IA, entre los que destacan ChatGPT y LLaMA3, además de uno adiestrado específicamente para el ámbito médico, MedLLaMA.

«Os modelos son moi sensibles ao contexto»

«Antes falabamos do Dr. Google e agora se suman as IAs», señalan los autores, que también agruparon en tres grandes categorías los errores que comete la inteligencia artificial: aquellos que contradicen el consenso médico establecido, «os máis preocupantes»; los que surgen de una mala interpretación de la IA ante la pregunta formulada, normalmente por una falta el conocimiento básico sobre el mundo real —es decir, de sentido común—; y los que dan lugar a respuestas demasiado vagas o imprecisas que, en la práctica, no proporcionan una ayuda real a quien lo necesita.

Otro de los autores, Juan Carlos Pichel, ha subrayado la importancia de la forma en que se formulan las preguntas a la IA. «Unha pregunta ambigua xera respostas perigosas. Os modelos son moi sensibles ao contexto», exclama el científico.

El estudio evalúa distintos niveles de contexto, lo que permite observar cómo la calidad de la respuesta varía según el tipo de prompt utilizado, es decir, de la instrucción o pregunta que se le ofrece para obtener una respuesta . «Un dos riscos máis serios que detectamos co uso das IAs é que, se non entenden ben a pregunta ou carecen de contexto suficiente, poden ofrecer consellos pouco seguros», advierte Juan Carlos Pichel. El científico incide en que esto puede tener «consecuencias directas sobre a saúde das persoas» y que «unha mesma IA pode dar o salto de equivocarse a acertar, simplemente reformulando o prompt».

«O problema dos motores de busca é que devolven moita información irrelevante ou ambigua. A IA, pola contra, ofréceche unha única resposta, que pode ser boa ou estar completamente equivocada», advierte David Losada, catedrático de Ciencia de la Computación e Inteligencia Artificial.

Los investigadores concluyen que lo más importante es no fiarse ciegamente de las respuestas que ofrezcan ninguno de los dos canales de información: «No mellor dos casos, tanto buscadores como IAs cometen entre un 10 e un 15 % de erros. E, en temas médicos, esa marxe pode ser moi delicada se non se detecta a tempo. A nosa mensaxe non é elixir entre un ou outro, senón aprender a usalos ben e saber cando desconfiar».