Parece chiste, pero esta mañana, una de las figuras que le dieron el puntapié inicial a la actual era de la inteligencia artificial estaba en California, en “un hotel barato, sin conexión a Internet y con mala señal telefónica” cuando recibió una llamada de esas que ocurren una sola vez en la vida. Esa persona es Geoffrey Hinton, investigador de la Universidad de Toronto, en Canadá, y la comunicación provenía de la Academia Sueca de Ciencias. Era para hacerle saber que, junto con su colega, John Hopstein, de la Universidad de Princeton, Estados Unidos, había ganado el Nobel de Física 2024, “por sus descubrimientos y desarrollos fundacionales que condujeron al aprendizaje automático con redes neuronales artificiales”.
“Tenía programado hacerme una resonancia magnética, pero creo que tendré que postergarla”, contestó Hinton un poco en broma y otro poco en serio.
El premio de Física de este año se otorga a dos talentos que utilizaron herramientas de la física para desarrollar métodos que son la base del poderoso aprendizaje automático actual. John Hopfield creó una memoria asociativa que puede almacenar y reconstruir imágenes y otros tipos de patrones a partir de datos. Geoffrey Hinton inventó un método que puede encontrar propiedades en los datos de forma autónoma y así realizar tareas como identificar elementos específicos en imágenes, explica la información oficial.
La noticia sorprendió gratamente a los especialistas, ya que pone el foco en un área caracterizada por la interdisciplinariedad, cuyos avances a primera vista parecen fronterizos con la física. “Justo vengo dando un curso en la UBA en el que comparamos la ciencia interpretativa y la ciencia de redes. Nos preguntábamos si el Nobel se lo darían alguna vez a este tema y la verdad es que yo era un poco escéptico. Hace 30 años, cuando empecé a trabajar en esto era muy disruptivo. Es una gratificación, una gran alegría, y súper merecido”, comenta Gabriel Mindlin, investigador superior del Conicet en el Laboratorio de Sistemas Dinámicos de la Facultad de Ciencias Exactas de la UBA.
“Este premio y algunos de otros años son un primer indicio de que hay interés en destacar avances que se aplican en general a otras ramas de la ciencia –coincide Enzo Tagliazucchi, investigador independiente del Conicet y director del Laboratorio de Conciencia, Cultura y Complejidad, también en Exactas/UBA–. Quizás lo más notable es que hayan elegido a Hinton, porque es alguien que, hasta donde entiendo, nunca publicó en revistas de física. Es un científico de la computación”.
También para Laura Alonso Alemany, profesora investigadora en la Facultad de Matemática, Astronomía, Física y Computación (FAMAF), de la Universidad Nacional de Córdoba, y miembro del equipo de Ética en Inteligencia Artificial de la Fundación Vía Libre, es un premio muy merecido y que reconoce los esfuerzos de muchos. “Esto no es un logro individual –destaca–. Hubo una masa crítica no solo de personas, sino también de años de trabajo acumulados que lo hicieron posible. No fue algo de la noche a la mañana. [Baste con mencionar que] Hinton no se puede sentar, solamente puede estar acostado o de pie porque estuvo tanto tiempo en la silla desarrollando estas cosas que la columna le quedó resentida. Es un proceso de larga data que se fue acumulando, acumulando, acumulando, hasta que llegó a su madurez. Hinton y Hopfield, uno sin el otro no hubieran hecho nada. Y tampoco habríamos llegado al punto en el que estamos ahora sin que se fueran conectando las contribuciones de muchos equipos de investigación. Sus papers fueron piezas fundamentales para otra gente que siguió adelante. Las redes neuronales son sistemas complejos. No se trata solamente de una neurona conectada con otra, sino también de cuántas neuronas, cómo son las conexiones, cómo hacemos para que aprendan los pesos de estas conexiones… ¡y cómo para que ‘desaprendan’! De hecho, uno de los elementos claves ha sido cómo lograr que estas redes neuronales desaprendan y no sean como Funes el memorioso [el personaje de Borges que no puede olvidar y, por lo tanto, no puede razonar]. Ahora, el avance es exponencial, porque alguien propone un nuevo método, por ejemplo, para que las redes neuronales desaprendan y la semana siguiente lo están probando diez equipos alrededor del mundo que publican diez papers y al mes siguiente hay 100 equipos que están aplicando los hallazgos de esos diez equipos que se basaron en la propuesta de uno”.
En sus fundamentos, el comité Nobel destaca que aunque las computadoras no pueden pensar, ahora pueden imitar funciones como la memoria y el aprendizaje basándose en estructuras similares a la del cerebro humano para procesar información.
El aprendizaje automático se diferencia del software tradicional (que recibe datos, los procesa de acuerdo con una receta y arroja resultados, muy parecido a cuando alguien reúne ingredientes y produce un pastel) en que las computadoras aprenden a partir de ejemplos, lo que les permite abordar problemas demasiado vagos y complicados para ser manejados mediante instrucciones paso a paso.
“Una red neuronal es un dispositivo computacional muy sencillo constituido por unidades que pueden tomar valores discretos (como ceros y unos) y que se conectan unas con otras –explica Mindlin–. Uno pone información a la entrada de ese sistema, esas unidades van tomando los valores correspondientes de acuerdo con los ‘pesos’ de conexión entre ellas y te dan un resultado. Hasta ahí, es una manera de construir una función o una forma de asignar a un conjunto de números de entrada otro conjunto de números de salida. De alguna manera, evocan el cerebro, por eso se les dice ‘neuronales´: en el cerebro las unidades básicas de procesamiento son las neuronas que están conectadas entre sí y procesan la información. En general, estas últimas se encuentran en un estado de bajo voltaje [se comunican por impulsos eléctricos a través de neurotransmisores] hasta que de repente tienen un pico y comunican información. Hasta ahí, nada del otro mundo. Pero lo trascendente fue que, en 1986, a Hinton se le ocurrió un modo de entrenar las redes de manera tal que cuando vos les das un conjunto de ejemplos, el sistema aprende a darte las salidas correctas. Por ejemplo, yo le muestro [a la entrada de ese sistema] la foto de un canario y entreno la red para que la salida sea que una determinada unidad, que es la que voy a llamar ‘canario’, se prenda. Y después le paso 10.000 fotos distintas de canarios y entreno los parámetros de esta red para que siempre que ingrese una foto de canario se prende la neurona de canario. A continuación, hago lo mismo con un chingolo, y se prende otra neurona a la que le voy a asignar el nombre de ‘chingolo’. A diferencia de cómo se hizo siempre ciencia, en vez de explicarle a un mecanismo cuáles son las características que tienen que buscar en una foto para que sea el canario o el chingolo, le das ejemplos y la red aprende a resolver un problema, aunque vos mismo no te hayas dado cuenta cuál es el mecanismo que está detrás. Ése es el aspecto clave que está revolucionando las redes y el procesamiento de datos”.
Otro ejemplo que nos toca bien de cerca es lo que hacen estos sistemas de aprendizaje automático con nuestros “like” en redes sociales: “Uno puede decir: ‘este subconjunto de personas yo sé que le dieron like a tal cosa y votaron a un candidato, o le dieron like a tal otra cosa y votaron a otro candidato’ –destaca Mindlin–. ¿Esa es una gran especulación sociológica acerca de cuáles son sus valores, su ideología? No, simplemente se entrena el sistema con mucha información y la red construye ese complejo esquema para vincular esas observaciones con el resultado. Te permite acceder al procesamiento de una información para la cual descubrir mecanismos es casi imposible”.
De allí, que estos avances hayan transformado la forma de hacer ciencia que prevaleció en los últimos siglos; es decir, reduciendo un problema a sus componentes elementales y tratando de entender la dinámica que se establece entre ellos. “Las redes neuronales amenazan un poco nuestra manera de comprender el mundo, porque las entrenamos a través de ejemplos y aprenden a resolver problemas sin necesidad de que hagan una abstracción de por qué encuentran el resultado correcto –subraya Mindlin–. Son muy poderosas, permiten resolver problemas muy complejos y no comparten con los humanos la explicación de cómo los resolvieron. No es necesaria la programación tradicional (si pasan tales y tales cosas, entonces, esto). Lo único que hacemos es poner un conjunto de unidades, pesos, y el mecanismo de Hinton para encontrar la respuesta correcta”.
En el entrenamiento es donde entra exactamente el algoritmo digital llamado backpropagation y aplicado por Hinton. “Supongamos que le ofrecemos un ejemplo al sistema y el resultado es erróneo, ¿cómo hacemos para corregirlo y que el siguiente nos dé un poquito mejor –se pregunta Mindlin–? Hinton encontró cómo hacer exactamente eso, una forma de garantizar que con el próximo ejemplo [al sistema le] va a ir mejor. Uno le ofrece muchos ejemplos, la red se va reacomodando y cuando termina el entrenamiento, aprende a generalizar. Es decir, que cuando le das un caso nuevo, también sabe resolverlo. Todo ese proceso, el entrenamiento y el test para probar si te está dando respuestas correctas, sigue un algoritmo que propuso Hinton”.
Según la Academia Sueca de Ciencias, John Hopfield inventó una red que se entrena encontrando valores para las conexiones entre los nodos, de tal modo que las imágenes guardadas tengan baja energía. Cuando la “red Hopfield” recibe una imagen distorsionada o incompleta, trabaja paso a paso para encontrar la imagen guardada que más se parezca a la imperfecta con la que fue alimentada.
“Ambos lograron avances fundacionales –afirma Tagliazucchi–. Hopfield inventó lo que se llama una red neuronal asociativa. Esencialmente, imita la memoria asociativa humana. Uno le puede enseñar algo, por ejemplo, letras, y cuando después le muestra una forma que se le parece, termina recuperando la letra completa. Además, hizo análisis teóricos sobre la capacidad de estas redes y trabajó con biólogos estudiando cómo esas cosas ocurren en el cerebro. Esas ideas fueron una de las primeras demostraciones de que se podían utilizar ese tipo de redes neuronales para entender problemas biológicos concretos. De hecho, luego se aplicaron a muchos temas, como el de la navegación espacial [“el GPS del cerebro”], por el que en 2019 ganaron un Nobel Edvard y May-Britt Moser. Fue muy, muy influyente, y una de las primeras personas en crear estas redes y analizarlas desde el punto de vista de la física estadística”.
Aunque a fines de los años 60 resultados teóricos desalentadores hicieron que muchos sospecharan que nunca serían de utilidad real, a cuatro décadas de estos desarrollos casi todos tenemos la experiencia de interactuar (a diario, y a sabiendas o no) con redes neuronales cuando usamos el traductor automático, buscamos información en internet y, desde hace unos meses, simplemente le “hablamos” a sistemas como ChatGPT y le pedimos que nos redacte una carta, nos ofrezca una ilustración o nos produzca un video difíciles de distinguir de los producidos por personas de carne y hueso. Sus promesas son notables. “Yo estuve toda la vida trabajando en lo que llamamos ‘dinámica no lineal’, que es lo contrario: se trata de encontrar los mecanismos básicos más fundamentales para explicar un comportamiento –cuenta Mindlin–. La inteligencia artificial me generaba rechazo. Entonces, para no ser prejuicioso me propuse armar unos cursos comparando qué se puede hacer con uno y otro método, y dónde esconden estas redes su capacidad de predecir. Y claro, a poco de andar te das cuenta del increíble poder que te da procesar una cantidad de datos fabulosa, sacar conclusiones que antes eran inimaginables, y poder reconstruir dónde existen errores. Estos sistemas tienen la capacidad de encontrar correlaciones que estaríamos a años de luz de identificar por otra vía”.
Tagliazucchi comenta que las usa todo el tiempo: “Hoy por hoy, funcionan no solo para extraer información de grandes conjuntos de datos (aunque después no sabemos porqué), o a veces como modelos del funcionamiento del cerebro –afirma–. Por ejemplo, estamos utilizando algunas de las redes que desarrolló Hinton directamente como metáforas de la visión”.
¿Qué podemos esperar para el futuro? “Esa pregunta no es algo que pueda responder cabalmente una persona de ciencia, sino que la contestará mucho mejor alguien del mercado –afirma Alonso Alemany–. El hecho de que ChatGPT haya tenido la difusión que tuvo es una cuestión comercial, de marketing, y no de capacidades técnicas, que ya estaban de bastante antes. Las tecnologías están avanzando mucho y tienen grandes potencialidades, pero cuáles de ellas se desarrollarán o no tendrá mucho más que ver con temas económicos y geopolíticos. Por ejemplo, en China se usa el reconocimiento facial para adjudicar ‘puntaje social’, algo que está prohibido en Europa. Eso determina enormemente que se desarrollen unas áreas u otras. En ciencias de la salud efectivamente hay unos avances tremendos en cirugía de precisión, en detección temprana de todo tipo de enfermedades. Pero en qué áreas se desarrollan más o se desarrollan menos depende de los intereses sociales y económicos que hay detrás. Por eso, las enfermedades huérfanas que tienen muy pocos pacientes, y que ahora se podrían tratar mucho mejor porque tenemos capacidad para modelarlas mejor, con menos casos y poca representatividad estadística, no se benefician porque no hay incentivos económicos. Vamos a tener grandes mejoras en predicción temprana de cosas sistemáticas. Por ejemplo, en Europa se pueden predecir los fenómenos climáticos severos con una semana de anticipación y eso ayuda mucho en la prevención”.
Todo eso es lo positivo, pero al mismo tiempo, tienen una arista inquietante que el propio Hinton mencionó durante su comunicación telefónica de la mañana. "Esta tecnología tendrá una extraordinaria influencia en la sociedad –dijo–, comparable a la de la revolución industrial. En lugar de ser más poderosa en la fuerza física, nos excederá en nuestra capacidad intelectual. No tenemos experiencia en lo que significa tener cosas más inteligentes que nosotros".
“No solamente pueden tener ‘alucinaciones’ y dar respuestas erróneas, sino que (a mí es lo que más miedo me da) auguran un futuro lleno de inteligencias artificiales pequeñas y burócratas que decidirán sobre nuestra vida –subraya Mindlin–. Es decir, si hoy vas un banco y te niegan un crédito, podés pelear con el gerente y explicar tu caso. Lo mismo con una aseguradora de salud: si te dicen que te rechazan por una enfermedad preexistente, podés ir a la justicia. En ese sentido, las inteligencias artificiales son muy mezquinas y un poco canallas. Es decir, vos las entrenás para que dado este conjunto de pacientes te calcule si vas a ganar o perder plata, y el programa no te va a dar [ni aceptar] explicaciones. Le temo no al gran cerebro tipo Terminator, sino a todos estos burócratas, porque estamos exponiéndonos a una disciplina que no revela sus criterios. La red no te dice qué elementos tuvo en cuenta para establecer correlaciones y desde ese punto de vista es muy preocupante.Estoy seguro de que lo que votamos, lo que compramos, a quiénes conocemos, con quiénes nos peleamos, qué vemos en la tele, cómo nos entretenemos está siendo manipulado por algoritmos y está siendo programando para un objetivo, que estés más tiempo frente a los televisores, frente a las pantallas, que no duermas, que veas más videos que identifican tus gustos y te jaquean el sistema de recompensa… Es muy delicado. Y el problema de las inteligencias artificiales es que parecen muy inocentes, es tan difuso todo, que es muy difícil saber dónde intervenir. La perversión está justamente en la opacidad de los mecanismos y la dificultad para reglamentarlos”.
Tagliazucchi recuerda que Hinton renunció no hace mucho a su puesto en Google, y que uno de los motivos que dio fue tener la posibilidad de hablar libremente sobre los riesgos de la inteligencia artificial, que cuando hay intereses corporativos en juego pueden ser complejos.
“No estoy muy de acuerdo con la idea de que la inteligencia artificial puede llegar a destruir a la humanidad –afirma Tagliazucchi, también investigador en temas como la índole de la conciencia–, pero, sí, es obvio que hay problemas éticos. La inteligencia artificial sin intervención humana cae en ciclos que refuerzan prejuicios. Es decir, si vos tenés un sistema de aprendizaje automático que toma de decisiones basado en datos, y esos datos a su vez cambian cuando toma las decisiones, uno entra en un círculo vicioso en el que se refuerzan cosas que están por fuera del control del humano. De hecho, a mí me pasó en la época en que trabajé en los Estados Unidos desarrollando un sistema para ver cuándo los vendedores contrataban a alguien que estaba interesado en estudiar en una universidad. Una de las cosas que les preguntaban a las personas era su raza, si eran afroamericanos, asiáticos… El modelo me daba muy bien en cuanto a quiénes tenían que contactar para que efectivamente se matricularan, pero lo que estaba haciendo era excluir a las personas que no eran blancas. Si yo hubiese implementado ese modelo, hubiese reforzado el prejuicio racial. Ese tipo de cosas ocurren con frecuencia y es el tipo de problema que me preocupa más. Para mí, se insiste mucho sobre una idea apocalíptica que no es adecuada, que oscurece los peligros reales, los que tienen que ver con el hecho de resolver problemas concretos con sistemas que no podemos entender”.
El uso de estas herramientas también puede tener un impacto enorme en la esfera cognitiva y emocional; en particular, en chicos y jóvenes. “La tecnología, a mi entender, muchas veces es la extensión de la mente –dice Tagliazucchi–. Con la llegada de ChatGPT y otros desarrollos cada vez más potentes, muchas de las cosas que hacemos, estarán por fuera del cerebro. El ChatGPT no es algo mágico, sabe hablar porque lo entrenamos con datos de seres humanos. Cuando un estudiante lo usa, en el fondo está relegando en una herramienta algo que hacía con su cerebro. ¿Qué cosas van a quedar para los seres humanos? Ese es el tira y afloje que se viene en el futuro”.
Estos instrumentos incluso ponen en tela de juicio cuestiones geopolíticas. Dice Tagliazucchi: “Las empresas que tienen acceso a estos grandes volúmenes de datos, que son justamente las que gobiernan Internet, se vuelven cada vez más poderosas. De hecho, el Estado de derecho por el que uno se rige en el día a día, no es el mismo que acepta cuando ingresa en un sitio web. A medida que las inteligencias artificiales se vuelven más poderosas, las empresas también. Es un círculo vicioso, porque a su vez van a tener cargados cada vez más datos a los que ni siquiera el Estado tiene acceso. El Gobierno, por ejemplo, cuenta con datos demográficos, pero no accede a millones de conversaciones, de correos electrónicos, videos de instagram… Eso lo tienen Google, Facebook, X. Vamos a tener que empezar a pensar cómo se alinean los intereses de la gente con los de las corporaciones y los de los Estados. Además, este tipo de cosas se combinan con gente muy, muy experta en captar la atención, en hacer que alguien que usa un dispositivo no deje usarlo. Es algo que fue pasando muy de a poco. Veíamos a estas corporaciones como si fueran fabricantes de autos y ahora nos dimos cuenta de que fabrican cosas de distinta índole”.
Y concluye Alonso Alemany: “Comparto las preocupaciones éticas. Me parece muy preocupante cómo en el desarrollo de la inteligencia artificial se está acelerando todavía más la concentración de poder y de una forma que es muy difícil que los Estados puedan llegar a regularla para ofrecer las garantías indispensables. A lo que estamos apostando, por lo menos desde desde nuestro lugar de científicos y de sociedad civil, es a empoderar a los ciudadanos, a que puedan ejercer ciudadanía y tener una relación menos sumisa con la tecnología, con más capacidad crítica para determinar si les hace bien o no. Y que eso contribuya a poner cierto freno, que el voto de consumo al final sea un cierto mecanismo regulador. Es un proceso muy sutil y lo peor de todo es que es tremendamente cómodo. Uno no quiere renunciar a la comodidad que te ofrece la tecnología a cambio de resguardar tus datos personales. Muchas personas son conscientes de que efectivamente sus datos están siendo monetizados, expuestos por ciertas corporaciones y sin embargo, deciden no quedar excluidos. Estas tecnologías están actuando de forma muy monopólica y uno no puede exigir garantías sin afrontar unas consecuencias que pueden ser muy devastadoras, como quedar excluido, desconectado de su propia tribu”.
En una conferencia de prensa, Hopfield dijo que estos avances son comparables a la fisión atómica, que permitió el desarrollo de la energía nuclear, pero también de la bomba atómica.