comscore
Ciencia

Modelos como Chat GPT podrían detectar signos de depresión

Un estudio indicó que estos modelos tienen potencial para detectar riesgos en la salud mental.

Modelos como Chat GPT podrían detectar signos de depresión

Logotipo de Chat GPT. // EFE

Compartir

Los grandes modelos de lenguaje, como Chat GPT, tienen el potencial para detectar riesgos para la salud mental -incluida la depresión y el suicidio- en pacientes ya bajo tratamiento psiquiátrico, señaló un estudio publicado por Jama Open Network.

La investigación, realizada por un equipo coreano, indica que a pesar de que estos modelos “demuestran potencial” para detectar ese tipo de riesgos, “es esencial seguir mejorando el rendimiento y la seguridad antes de su aplicación clínica”.

El equipo examinó el potencial de grandes modelos de lenguaje, que son sistemas de inteligencia artificial entrenados con grandes cantidades de datos, por lo que son capaces de comprender y generar lenguaje natural. Lea también: Decir “por favor” y “gracias” a ChatGPT tiene millonario costo, ¿por qué?

Ese mismo potencial lo muestran los embeddings (modelos de inscrustación), una técnica de procesamiento del lenguaje natural que convierte el lenguaje humano en vectores matemáticos y que también fueron analizados por el equipo.

La investigación

El estudio se basó en datos de 1.064 pacientes psiquiátricos entre 18 y 39 años que realizaron diversas pruebas de autoevaluación y de frases incompletas.

Estas últimas consisten en proponer a un paciente una serie de oraciones inacabadas que tiene que terminar con lo primero que le venga a la cabeza y dar información subjetiva, por ejemplo, sobre el concepto que tiene de sí mismo o de las relaciones interpersonales.

Los datos fueron procesados por grandes modelos de lenguaje como GPT-4, Gemini 1.0 Pro o Google Deepmind y por otros de incrustación de texto como text-embedding-3-large OpenAI.

La investigación apunta que estos modelos “han demostrado su potencial en la evaluación de riesgos para la salud mental”, incluida la depresión y el suicidio, “a partir de datos narrativos de pacientes psiquiátricos”.

No es posible generalizar

En un comentario sobre el estudio, Alberto Ortiz, del Hospital Universitario La Paz (Madrid, España), señaló que la investigación fue realizada en pacientes que ya están en tratamiento psiquiátrico, por lo que generalizar sus resultados para aplicar esta metodología en la detección de riesgos en población común “no es posible, por el momento”.

Ortiz dijo en Science Media Centre, una plataforma de recursos científicos, que la aplicación de la inteligencia artificial en salud mental, en todo caso, tendrá que poner el foco en las narrativas subjetivas de las personas, como se hace en esta investigación.

Sin embargo, consideró que “una cosa es detectar riesgos y hacer un cribado, y otra muy distinta es tratar a las personas con sufrimiento psíquico, una tarea que va más allá de aplicar una solución tecnológica y en la que la subjetividad del profesional resulta imprescindible para desarrollar el vínculo terapéutico”.

Únete a nuestro canal de WhatsApp
Reciba noticias de EU en Google News