Un estudio dirigido por investigadores de la Universidad de California, EE.UU., presentó que los chatbots pueden ser mejores que un médico para crear la impresión de un trato amable al responder preguntas de los pacientes en foros públicos en línea.
No obstante, aunque los resultados sugieren que los asistentes de inteligencia artificial (IA) pueden ayudar a redactar respuestas a las preguntas de los pacientes, los expertos resaltan que la aplicación de la herramienta en la práctica clínica debería estar supervisada por médicos. Este criterio se basa en el historial de errores básicos que comete el algoritmo y la posibilidad de incluir en sus respuestas datos incorrectos o inventados.
Además, es relevante el hecho de que el procedimiento experimental solamente haya evaluado las respuestas dadas por un solo profesional, lo que limitó el alcance de los resultados.
La investigación evaluaba la capacidad de respuesta empática de profesionales de la salud, con credenciales verificadas, y el chatbot de IA de ChatGPT. Para esto, un panel de expertos examinó cuál se desempeñó mejor al responder 195 preguntas médicas extraídas al azar de una subcomunidad pública llamada ‘AskDocs’ (Pregunta a un médico), alojada en el sitio web de foros sociales y agregador de noticias Reddit.
En el 78,6 % de los casos, los jurados eligieron las respuestas del chatbot, argumentando que tenían información de mayor calidad y un lenguaje más empático. En comparación con las respuestas del médico, alrededor de 4 veces más respuestas de ChatGPT se situaron en los niveles más altos de calidad y 9,8 veces más obtuvieron las calificaciones más altas de empatía.