Inteligencia Artificial: "Estamos ante el desafío de expandir nuestra mente o convertirnos en espectadores pasivos"

Lo afirma el neurocientífico argentino residente en Chile e Irlanda, Agustín Ibañez, que acaba de publicar un artículo sobre las posibilidades y desafíos del uso de la IA en ciencia

19 de julio, 2023 | 00.05

No hace mucho, un par de investigadores del Instituto Technion, en Israel, quiso poner a prueba las capacidades de los nuevos sistemas de inteligencia artificial (IA), como el ChatGPT, para la investigación. Diseñaron un paquete de software que lo alimentaba automáticamente y se basaba en sus respuestas para refinar el documento con el tiempo. Lo pusieron en marcha y se fueron a almorzar. Durante una hora, el sistema pasó de la exploración de datos a la interpretación de los resultados y la redacción del manuscrito. Incluso desempeñó el papel de revisor y brindó comentarios constructivos sobre el texto. Al final del almuerzo, ChatGPT había generado un manuscrito claro y con un sólido análisis de datos. No era perfecto: tenía ciertas imprecisiones y los hallazgos (sobre alimentación y diabetes) no fueron novedosos, pero sí consistentes.

El caso se comenta en una reciente edición de Nature (https://www.nature.com/articles/d41586-023-02218-z) y vuelve a poner sobre el tapete los desafíos y posibilidades que plantean las nuevas tecnologías de inteligencia artificial que tantas portadas vienen ocupando en los últimos meses. Las preguntas sobre sus posibles usos, beneficios e impactos negativos están en el centro de la discusión en muchos ámbitos; y en especial, en la ciencia. A tal punto, que es tema de un artículo publicado por el neurocientífico argentino residente en Chile e Irlanda Agustín Ibáñez, que dirige el Instituto Latinoamericano de Salud Cerebral de la Universidad Adolfo Ibáñez, de Chile, y es líder del grupo de Predictive Brain Health Modeling [algo así como “Modelado Predictivo de Salud Cerebral”] del Global Brain Health Institute (GBHI, Instituto Global de Salud Cerebral), que acaba de publicarse en Trends in Cognitive Science (https://www.sciencedirect.com/science/article/pii/S1364661323001481?dgcid=author).  

Agustìn Ibañez

Este proyecto lo hacemos colectivamente. Sostené a El Destape con un click acá. Sigamos haciendo historia.

SUSCRIBITE A EL DESTAPE

“Nuestros procesos científicos se amplían y se potencian con la tecnología, ya sea clásica o de inteligencia artificial –dice Ibañez, desde Europa–. Durante siglos, herramientas externas, como lápices, lupas, calculadoras, teléfonos inteligentes e Internet nos ayudaron a navegar por mundos científicos y cotidianos de manera más eficiente. La inteligencia artificial generativa acelerará este proceso de forma increíble. La pregunta crítica, aún sin respuesta y abierta en el debate actual, es si esta nueva tecnología nos convertirá en meros espectadores o si nos pondremos al mando”.

–¿Qué es lo que cambia con los nuevos sistemas “generativos”?

–Trabajamos con inteligencia artificial desde hace mucho tiempo. La usamos para clasificar pacientes, para predecir violencia, para integrar biomarcadores cerebrales... Ésta, que funciona con grandes bases de datos y modelos de lenguaje natural, es muy diferente. Yo era bastante escéptico, fui muy crítico de esta tecnología. Pero ahora reconozco que estos sistemas son revolucionarios desde varios puntos de vista. Primero, porque el nivel de entrenamiento que tienen es incomparable con todo lo anterior. Además, tienen un acceso muy rápido a la memoria, pueden rastrear información a una velocidad enorme. Y por último, tienen capacidad de aprendizaje continuo, van mejorando día tras día. Si bien tienen muchas aplicaciones, hoy se están usando en la ciencia muchísimo más de lo que la gente imagina. Para el descubrimiento de drogas, para hacer combinaciones químicas... Hasta hay laboratorios que usan robots para hacer estudios clínicos con inteligencia artificial.

–¿Por qué resulta amenazante?

–Hay grandes desafíos, pero también oportunidades. Entre los primeros, está la posibilidad de que estos sistemas intervengan en todos los pasos de la actividad científica, desde la generación de hipótesis, hasta el análisis de datos, los gráficos, la redacción de artículos, la revisión e incluso la publicación. Ninguna tecnología previa jugó ese rol. Por supuesto, hay riesgos: por ejemplo, no tiene una fuente de validación interna. No puede decir si algo es realmente novedoso o si es relevante más allá de la información con la que está entrenada. Otro aspecto que la hace revolucionaria es que se puede aplicar a todas las disciplinas científicas. Es tan válida para la química, como para la física o la biología. También tiene enormes ventajas, por ejemplo, para los que no somos hablantes nativos de inglés. Ayuda a mejorarlo sustancialmente, a pulir la redacción. Además, permite buscar revisores…  Hay journals que ya la están usando para identificar plagios o para saber si los trabajos tienen fallas argumentativas. De alguna forma, nos está transformando en ciborgs, una combinación de humanos y máquinas. No es que sea algo nuevo. Ya incorporamos la tecnología en múltiples actividades, pero ésta lo hace en un nivel inimaginable. Por ejemplo, si uno quiere hacer un análisis de datos o una regresión logística [un tipo de estudio estadístico], estos sistemas pueden hacerlo infinitamente más rápido y con más precisión.

Portada del Washington Post sobre Inteligencia Artificial

–¿Y eso es bueno o malo?

–Por un lado, nos va a permitir focalizarnos en lo relevante, en las grandes preguntas, en el análisis crítico, y dejar que las máquinas se ocupen del trabajo monótono, automático. Pero a la vez, eso nos puede convertir en entes pasivos. Es algo que está empezando y hay que ver cómo evoluciona, no lo sabemos. Hoy día, todavía hay muchas limitaciones.

–Los ensayos que se están haciendo muestran que estos sistemas “alucinan”, con frecuencia arrojan respuestas aparentemente correctas, consistentes, pero erróneas. ¿Hasta qué punto se les pueden confiar todas esas tareas?

–Ése es un buen punto. Lo que pasa es que esos errores, las “alucinaciones”, se generan por el uso impreciso. Por ejemplo, hoy una API [Application Programing Interface] para ChatGPT específica para citas científicas y referencias nunca se va a equivocar. Hay servicios especializados en química que identifican qué compuestos son nuevos. Si uno le pregunta a un chatbot [un programa de inteligencia artificial que puede mantener una conversación] standard, puede equivocarse porque dará información de Internet. Pero si le pregunta a estas API especializadas, no. Es algo similar a hacerle preguntas a alguien que tiene una vasta cultura general. Lo más probable es que en algo se equivoque. Pero si uno tiene a disposición a un físico, a un químico, a un filósofo, y les hacés preguntas específicas de su campo de estudio, la probabilidad de error se reduce en forma drástica. Eso ya existe. Se pueden combinar chatbots que tienen distinta experticia. De hecho, ya se produjo un artículo utilizando solo inteligencia artificial. Tenía errores, pero se hizo solo con ChatGPT; si lo hubieran hecho con un AutoGPT [un administrador de proyectos que desglosa tareas en pasos y las delega a otros sistemas de IA], hubiera estado diez veces mejor. Y estos sistemas no tienen un año, ¡imaginate en diez! Los problemas existen, pero son manejables.

–¿Esto quiere decir que los investigadores se van a quedar prácticamente sin trabajo?

–Ésa es una de las cosas que uno se pregunta. Si empiezan a automatizarse las tareas  científicas, ¿quién va a leer los papers? Las máquinas los van a leer, los van a escribir, eventualmente hasta van a sugerir revisiones. Algo que parecía una distopía lejana o improbable es hoy una posibilidad real. Hay dos opciones: estos sistemas nos van a dar más tiempo para hacernos preguntas desafiantes, para abordar problemas críticos, o nos van a transformar en espectadores pasivos. No tengo respuesta. Me encantaría pensar que vamos a extender nuestra mente como nunca antes, porque podremos hacer cálculos infinitamente más complejos y condensar una cantidad de información enorme... Pero honestamente, no lo sé…

–El poder de computación y el acceso a los datos que hacen funcionar esta tecnología están en manos de cuatro o cinco grandes compañías del hemisferio Norte. ¿Qué queda para los países del Sur global?  

–Se podría pensar que esta tecnología es democrática, porque, por ejemplo, las personas que no hablan inglés hoy pueden publicar papers con un inglés bastante razonable. Un investigador que carece de una buena formación en análisis de datos puede usar una API que lo hace. Eso que hoy es tan difícil se transformará en una commodity, pero las empresas que tengan un desarrollo tecnológico muy avanzado van a generar desigualdades mayores. No sólo habrá un salto en las dimensiones de la desigualdad, sino también en su tipo.

–Siempre se consideró la creatividad como una cualidad netamente humana. ¿Las máquinas nos quitarán también ese privilegio?

La creatividad es muchas cosas y todavía no sabemos bien qué, pero una de sus características es lograr combinaciones novedosas del conocimiento para generar acciones o crear cosas que no existían. Es la capacidad de ver los problemas de maneras novedosas o, dicho de otra forma, de articular y combinar información de forma diferente a lo usual. Las máquinas van a desplegar muy bien este tipo de creatividad, porque pueden combinar cientos de miles de millones de parámetros, algo que una mente humana no puede hacer. Y generan 2000 alternativas. A lo mejor, 1900 no sirven para nada, pero 100 son muy útiles. La inteligencia artificial de los años 70, 80, 90 y la primera década de este siglo no tenía esa capacidad. Pero estas máquinas no van a tener “creatividad humana”, sino algo distinto. Es un problema de escala. Ni siquiera el músico más virtuoso puede tocar como una orquesta de 300 instrumentistas. Estamos comparando una mente de capacidad limitada, con computadoras que funcionan como miles de cerebros tontos, pero que se pueden articular, aprender y ser, además, muy flexibles. Son arquitecturas diferentes. Los sistemas de inteligencia artificial van a hacer mal muchas cosas si las hacen una sola vez, pero si las hacen un millón de veces, van a llegar a resultados excelentes.

–¿De alguna manera, van a funcionar como la evolución, haciendo una miríada de combinaciones de las que solo algunas sobreviven?

–Pero con una diferencia: estos sistemas son probabilísticos. Para mí, es el gran punto en el que se equivocó Noam Chomsky. Él hace una crítica mordaz [de la IA], pero se ve que nunca la usó, porque está pensando en modelos muy simples. Cuando uno tiene fuentes de información tan enormes como el fenómeno que está estudiando, la probabilidad tiene un rol crucial... Esa es la gran diferencia, la capacidad de considerar miles de millones de datos para ajustar una predicción. La selección natural selecciona mecanismos a posteriori, la IA lo hace a priori.

–Si todo lo que anticipa se cumple, los humanos quedaremos relegados a un papel minúsculo…

–Estamos haciendo una proyección lineal de lo que vemos. Hoy están lejos de poder hacerlo, pero tienen una capacidad de aprendizaje y desarrollo tan acelerado que uno estima que eso va a ocurrir. Ahora, es una estimación, no lo sabemos con certeza. Veremos si en cuatro años el ChatGPT tiene una súperinteligencia. Estamos en un momento en el que tenemos que aprender a usar estas tecnologías para que estén a nuestro servicio y empezar a tomar decisiones para que podamos focalizarnos en los problemas importantes, en qué dirección queremos tomar... Personalmente, estoy entre la fascinación y el terror. Creo que hay una ventana de optimismo. De lo que no dudo es en que la IA va a tener un impacto profundo, porque somos mentes corporizadas. Desde el momento en que tenemos teléfonos celulares ya no nos acordamos más de los números de otras personas, pero desarrollamos otras habilidades. Tenemos la oportunidad de expandir nuestra mente en lugar de volvernos pasivos.

–¿Nos va a cambiar la IA?

–Es una pregunta abierta, pero nos cabe a nosotros contestarla. Un problema importante es la regulación. Los que hablan de frenar esta tecnología o son mal intencionados o ingenuos. No hay forma alguna de detenerla, porque ya se está usando. Estos sistemas hay que regularlos sí o sí. Si estas máquinas logran automatizar tareas como se cree que lo van a hacer, se acabó el concepto de “trabajo” tal como lo conocemos. El trabajo humano siempre va a ser subóptimo comparado con las máquinas. Tenemos que empezar a pensar en un salario universal, porque el trabajo no tendrá valor. ¿Y quién podrá establecer la regulación? Hay que hacerlo en conjunto con las compañías, porque si demoran 2,3 4 o 5 años, los gobiernos van a llegar tarde. Y estos sistemas se pueden usar para el bien o para el mal. En los próximos años veremos cuánto de este crecimiento acelerado se mantiene; eso es clave, porque no estamos preparados. Si no lo hace, será más manejable. Pero, sin duda, va a generar una revolución.