El famoso test de Turing fue propuesto por Alan Turing en el año 1950, como prueba para medir la capacidad de las máquinas para responder preguntas al mismo nivel de los humanos, es decir, demostrar un comportamiento inteligente. Conforme la tecnología ha ido avanzando y se ha ido superando este test, se han propuesto diferentes adaptaciones para comparar las inteligencias humana y artificial. El propio Turing hacía referencia a lo que llamó la objeción de Lady Lovelace (la auténtica gran pionera de la aplicación práctica de lo que sería la computación), ya que ésta pensaba que una máquina sería realmente inteligente cuando demostrara intención y voluntad, y que mientras tanto, los humanos tan solo seríamos capaces de crear computadoras con capacidad de ejecutar lo que nosotros les pidiéramos.
El resumen es que, aunque en algunos momentos parezca que las nuevas herramientas de inteligencia artificial tengan conciencia propia, puede que hayamos superado el test de Turing pero estamos lejos de hacerlo con la objección de Lovelace, Y es que ese matiz de ‘parezca’ puede tener importantes implicaciones a la hora de interaccionar con estas herramientas y de confiar en ellas para temas tan importantes como nuestra salud.
Del tecno optimismo al catastrofismo
Esta semana tuve la oportunidad de participar en un foro sobre la proyección de la Inteligencia Artificial en la salud, organizado por la Asociación de profesionales de las bibliotecas y centros de documentación de Ciencias de la Salud en la Comunidad de Madrid, en el que estábamos representados perfiles muy diversos del ámbito sanitario. Uno de los temas que allí se abordaron es el hecho de que, aunque herramientas como ChatGPT se comportan solamente como enormes predictores de texto, el hecho es que están consiguiendo escribir mejor de lo que lo hacemos el 99% de los humanos y van a ser tecnologías con un impacto muy elevado en todos los ámbitos, incluido el de la salud.
La reflexión de hoy viene de lejos. Cierto es que cada vez que sale una nueva tecnología tenemos una tendencia natural a polarizar el debate entre los tecnooptimistas, que piensan que la herramienta en cuestión va a ser la solución de todos nuestros problemas, y los tecnocatastrofistas, que auguran el principio del fin de la humanidad. Ya pasó con la aparición de la imprenta, con los primeros ordenadores, con Internet y ahora con el despliegue de los modelos de inteligencia artifical.
Herramientas como ChatGPT y todo lo que está por llegar en los próximos meses tienen un potencial transformador enorme y, en consecuencia, los riesgos de su uso inadecuado están al mismo nivel. El problema viene cuando todavía no hemos conseguido resolver los retos anteriores y ya tenemos otros nuevos (y más grandes) encima de la mesa…
El círculo de confianza y el acceso a información de salud
Decíamos en un post publicado en 2017 que el 60% de la población utilizaba la red como fuente de información en salud y que con las búsquedas en google llegaban algunos problemas, como que la mitad de las personas que buscan pensaba que no se podía confiar en la red para temas de salud y cerca del 45% tenía problemas para entender la información que encontraba. No tenemos nuevos datos desde entonces, pero es muy posible que el primer porcentaje haya crecido y los otros dos al menos se mantengan. Aunque también es verdad que durante este tiempo nuestros ojos se han ido acostumbrando a lo digital y hemos mejorado a la hora de identificar cuándo nos están dando información fiable y cuándo nos están vendiendo la burra (al menos lo hemos logrado con la publicidad).
Hablábamos entonces sobre el proceso de validación de contenidos de salud y que este se basa en establecer un vínculo de confianza. Algo a lo que la evolución humana nos ha hecho expertos en entornos presenciales, pero no tanto en estos nuevos contextos digitales, en los que perdemos mucha información a la hora de establecer esa relación confianza.
No damos por tanto la misma credibilidad a las máquinas que a las personas. Aunque eso puede estar a punto de cambiar.
La intimidad digital y la barrera de la confianza
¿Cuál es la principal diferencia que tienen herramientas como ChatGPT de los actuales buscadores digitales? Pues que las primeras están diseñadas para hablarnos desde la cercanía y la empatía. Si tú le preguntas a ChatGPT sobre cualquier tema de salud, no solo te va dar una respuesta sino que además te va a decir que siente mucho que te encuentres así o tengas tal problema. Y eso podría parecer que no, pero es una diferencia abismal a la hora de establecer el círculo de confianza.
Un reciente estudio publicado en JAMA (y que ha levantado un gran revuelo) comparaba las respuestas dadas a preguntas de pacientes en un foro de salud, entre las ofrecidas por un grupo de médicos y las que daba un chatbot basado en inteligencia artificial (spoiler: sale mal). El resultado apuntaba a que las respuestas emitidas por el chatbot eran superiores a las humanas, tanto en calidad como en nivel de empatía. Y es que parece lógico que prefiramos una respuesta basada en datos que además penetre en nuestra esfera emocional, a otra más técnica y puede que corta, porque quien esté al otro lado no tenga tiempo o ganas de dorarnos la píldora.
Pensémoslo bien. No nos afiliamos a un partido político, una religión o hacemos caso a un profesional sanitario sólo por los datos que nos ofrecen. Lo que compramos es el relato y lo bien que está construido, es decir, aquello que se amolda mejor a nuestros ideales o expectativas. Y alrededor de ello construimos una relación de confianza (parece que el dato solo sirve si es para reforzar al relato).
Yuval Harari apunta a una reflexión importante y es que, gracias a su dominio del lenguaje, la inteligencia artificial va a ser capaz de forjar relaciones íntimas con la gente. Quizás no tanto al nivel de lo que vimos en la película Her (o puede que sí, muy pronto lo sabremos), pero sí lo suficiente para que bajemos la guardia a la hora de confiar en ellas y que demos como verdadero aquello que nos estén respondiendo.
No va a pasar mucho tiempo para que todos consultemos a estos asistentes sobre todo tipo de cosas y los tratemos como si fueran humanos, porque al fin y al cabo emiten respuestas como si ya lo fueran. ¿Qué más nos dará entonces que no tengan voluntad o intención si igualmente vamos a confiar en ellas? Ada, esto no pinta bien.
¿Qué va a pasar entonces cuando cambiemos a Google por un asistente de voz tipo Alexa con ChatGPT integrado y vitaminado, que además irá aprendiendo de nosotros a partir de nuestras conversaciones? Me gustaría ver entonces el porcentaje de personas que piensa que no se puede confiar en estas tecnología para preguntar sobre temas de salud…
No olvidemos que uno de los grandes problemas que presentan estas tecnologías es que cuando no saben algo simplemente se lo inventan y si les pillamos en el engaño nos piden perdón educadamente y a otra cosa, mariposa. Mientras estas confabulaciones no se corrijan y sigamos preguntándoles sobre cualquier cosa, el riesgo de que obtengamos información falsa y de que nos la acabemos creyendo seguirá siendo muy alto.
En definitiva, estamos ante nuevas tecnologías que nos plantean nuevas preguntas y de momento ofrecen muy pocas respuestas. Estoy seguro de que parte de la solución pasará por mejorar las herramientas y hacerlas más precisas, pero sobre todo porque nos eduquemos como sociedad en su uso y potenciemos el desarrollo del pensamiento crítico. Aunque llevamos años pidiendo lo mismo para lidiar con Internet y tengo la sensación de que todavía no lo hemos conseguido.
Si has llegado hasta aquí, te pido un último esfuerzo (Ada Lovelace compartiría esta entrada):
Cosas mías... El mayor riesgo de la #GenAI no es tecnológico. La amenaza está en nosotros mismos utilizando tecnologías que no comprendemos… Como bien dices, sin educación y pensamiento crítico... Como especie estamos jodidos.