El 29 de diciembre del año pasado la Fundación del Español Urgente (FundéuRAE), patrocinada por la agencia Efe y la Real Academia Española, eligió la expresión “inteligencia artificial” (IA), como “la” palabra de 2022. Pero si el año pasado se la encontraba casi en cada página, desde entonces esa reiteración se multiplicó varias veces. Basta con tipearla en el buscador del diario The New York Times, por poner un ejemplo, para constatar que en los últimos meses, casi cada dos días hay un artículo sobre algún aspecto de esta “disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”, según la definición a la que recurrió la fundación.
Con sistemas capaces no solo de dialogar y escribir ensayos sobre el tema que se les pida, de crear ilustraciones, poemas, música y canciones, no hay duda de que el tema alimenta “tecnofantasías” de todos los signos. Para analizar sus avances y el impacto que tiene y tendrá en múltiples facetas de nuestra vida, la Facultad de Ciencias Exactas de la UBA organizó un debate con especialistas y graduados de esa casa de estudios, algunos de los cuales trabajan en California y en Barcelona, con la coordinación del decano, el matemático Guillermo "Willy" Durán.
A favor y en contra
“Hay infinidad de notas en los medios y en trabajos científicos de lo que se conoce como inteligencia artificial general, que aunque no está bien definida es esta idea de una inteligencia con capacidades similares o superiores a las humanas. Creo que es importante tratar de entender sus límites”, dijo Carlos Diuk, investigador en el equipo de Ciencias Sociales Computacionales de Facebook/Meta, especialista en aprendizaje por refuerzos, neurociencia cognitiva e impacto social de la tecnología, desde Silicon Valley. El científico mostró que le planteó al Chat GPT un problema y se encontró con respuestas muy articuladas, algo que ya de por sí es impresionante, pero que una parte de ellas son “alucinaciones”; es decir, errores. Y esto no se soluciona ni con más o mejores datos, ni con más parámetros ni con más cómputo aclaró. “Estos modelos de lenguaje [llamados LLM] no ‘entienden’ lo que les estamos preguntando –subrayó–. Y la solución no es obvia ni trivial. Lo que hacen es predecir la siguiente palabra a partir de un contexto; entonces, en cada paso hay una probabilidad creciente de obtener un conjunto de respuestas erróneas”.
Para Diuk, la inteligencia artificial va a cambiar muchas cosas, pero ni tan rápido ni tan pronto como se piensa; por lo tanto, lo que necesitan nuestros países es más y mejor educación. “A veces escucho que alguien dice ‘¿para qué voy a estudiar si la inteligencia artificial me va a sacar el trabajo?’ Y yo creo que es exactamente lo opuesto. Tenemos que salir de este laberinto por arriba”, afirmó.
La búsqueda de una inteligencia artificial se disparó a partir de un paper cardinal de Alan Turing, publicado en 1950. Desde entonces, diversas líneas de investigación intentan hacer procesamiento del lenguaje, producir audio, detección de imágenes, planificación, optimización combinatoria y más. “Todo esto generó un avance, tanto copiando el comportamiento humano como en tareas muy, muy específicas. Como se dice en inglés, narrow (angostas), pero no en inteligencia artificial general –explicó Diego Fernández Slezak, profesor del Departamento de Computación de ExactasUBA, investigador del Conicet en inteligencia artificial el Instituto de Ciencias de la Computación, y Premio Konex 2023–. Uno de los casos más paradigmáticos es el ajedrez. En 1996, Gary Kasparov se enfrenta contra la máquina de IBM, Deep Blue, y pierde la primera partida, pero gana el campeonato. Le dicen que no siga adelante, porque en algún momento va a perder. En 1997, juega la revancha y pierde el campeonato. En ese momento se dijo que nadie iba a tener interés en seguir jugando. Pero hoy, aunque cualquier celular le gana a un gran maestro, el ajedrez está más vigente que nunca. Kasparov dijo algo que a mí me gusta mucho: ‘Hay que abrazar la tecnología’. Quiere decir que no la dejemos suelta, que aprendamos, que la entendamos y la usemos lo mejor posible. Opino que no hay que frenarla, pero tampoco dejarla avanzar sola”.
Un aspecto que inquieta respecto de estos nuevos avances en máquinas “inteligentes” es el de la dimensión ética o moral, los sesgos imperceptibles para legos y la inequidad en el acceso. “Estas capacidades alucinantes que nos tienen muy sorprendidos se deben en parte a que ahora tenemos modelos matemáticos enormes y súper poderosos –dijo Luciana Ferrer, investigadora Independiente Conicet en el Instituto de Ciencias de la Computación Exactas/UBA, especialista en procesamiento del habla y procesamiento de señales–. Tienen millones de millones de parámetros y requieren dos cosas: primero, una ‘brutal’ capacidad de procesamiento, de computación, ejércitos de computadoras para entrenarlos; y segundo, muchísimos datos. Esto implica que no todo el mundo los puede ‘correr’. Hay solo unas pocas empresas en el mundo que son capaces y tienen el hardware necesario, y eso significa que estamos limitados a usar lo que ellos generan. Por ahora, nosotros no podemos desarrollarlos (esperemos que en algún momento cambie) ni soñando. Podemos generar algunos modelos, mucho más modestos, más chiquitos, que funcionan bastante peor. Chat GPT, no hay manera. Y eso, tanto para la industria como para los investigadores, es un problema”.
Un desafío particularmente difícil de resolver es que se requieren muchísimos datos y la fuente más grande que existe es Internet. “Pero es un muestreo muy desbalanceado de la población mundial –continuó Ferrer–. Alrededor del 50% son en inglés y apenas habla inglés nativo el 5% de la población. Es una representación muy desbalanceada del planeta, no solo en lo que hace al idioma, sino también a la cultura. En la web hay un subconjunto muy pequeño. [En realidad] existe muchísima más variedad de lo que nosotros vemos y lo que ven estos modelos. La consecuencia es que no a todo el mundo le van a funcionar bien cuando los quieran usar y, peor todavía, a veces, algunos grupos se verán perjudicados en forma activa”.
Como ejemplo, la científica citó una tecnología de reconocimiento facial en uso en los Estados Unidos para buscar sospechosos. Cámaras de video en distintos lugares de una ciudad los buscan con un algoritmo, porque la masa de datos es gigantesca. “Y lo que pasó ya varias veces es que arrestaron al sospechoso equivocados eso ocurrió con mayor frecuencia si la persona tenía piel oscura –ilustró–, porque los algoritmos fueron entrenados mayoritariamente con hombres de piel blanca, que son los que están en Internet. Y a pesar de que se sabe que están funcionando mal, se los sigue usando”.
Vanina Martínez, investigadora del Conicet en el Instituto de Ciencias de la Computación Exactas/UBA y en el Instituto de Investigación en Inteligencia Artificial de Barcelona, especialista en ética de la inteligencia artificial, sistemas multiagente, representación del conocimiento y razonamiento, y Premio Konex 2023, se definió más bien como “tecnoescéptica”.
“No con respecto al potencial de la tecnología –aclaró Martínez–. Creo que estamos en un momento fantástico para la ciencia, la tecnología y la ingeniería. Pero hay un interrogante que está dando vueltas y es ¿cómo vamos a controlar estos sistemas? Cuando nosotros hacemos esa pregunta, pareciera que hubieran caído del cielo. Y eso habla de la sociedad que no es responsable de lo que crea. Estos sistemas los creamos nosotros y los pusimos afuera del laboratorio. No hay que perder esto de vista. No tenemos que aceptar lo que viene y tratar de doblegarlo enseñándole al usuario a hablar con el sistema para que no se desbande. No, no es así. Es nuestra tecnología, y el avance positivo o negativo se va a dar en relación con los objetivos que tenga nuestra sociedad. Pareciera que los objetivos con los que desarrollamos esta primera generación de modelos de inteligencia artificial tan potentes no están muy alineados con el bienestar social. Tenemos que plantearnos cómo vamos a avanzar, y tal vez tirarlos a la basura y quedarnos con los fundamentos científicos. Arrancar por un lado en el que sintamos que estamos en control de la tecnología desde el momento cero”.
Jorge Sanz, investigador principal en el Departamento de Inteligencia Artificial y Director de Innovación Tecnológica para Finanzas de IBM Research (FinTech), especialista en Innovación con machine learning para industrias, en tecnologías para regulación y normas legales, compartió también desde California algunas reflexiones respecto de las aplicaciones en industrias.
“Las aplicaciones de automatización en las que la inteligencia artificial juega un rol preponderante y muy promisorio –detalló– se encuentran en la biología, la química, la física, la prospección climática, etcétera. Pero cuando se trata de usar esto en las empresas y otras organizaciones, las funciones fundamentales son reducir costos y crear cosas más convenientes para el usuario. Es decir, eficacia y eficiencia. La eficiencia es reducción de costos. La eficacia es producir cosas que son mejores para el que compra. Los resultados varían por industria. Si uno mira la manufactura, en el 99% de los casos, el tipo de IA que se está empezando a utilizar, está orientado a datos y no necesariamente es un reflejo del comportamiento de la organización o de las personas. El lenguaje no es el punto de entrada de ninguno de los análisis de datos que vemos en la realidad cotidiana. Ojo, tengamos cuidado, porque el 70% de la información que usa la empresa en la toma de decisiones se basa en observaciones simbólicas que no son necesariamente basadas en lenguaje. Por favor, no reduzcamos la IA a discutir el problema del ChatGPT, porque hay un mundo por fuera de eso... Los autos de Tesla se manejan solos en autopistas y ciudades, y nadie les habla”.
Con respecto a los temas regulatorios y legales, recordó que las visiones varían sustancialmente en el mundo, con posturas de mayor o menor control, según la jurisdicción. “Hay que tener cuidado –deslizó el científico–, porque la mayoría de la información [de estos modelos] proviene de cosas que están protegidas por el derecho de propiedad intelectual o de información personal que, aunque sea accesible, puede no estar disponible para el uso que se le va a dar”.
Más allá de si la inteligencia artificial se parece o no a la humana, otro aspecto controvertido tiene que ver con su impacto en el mundo del trabajo. “Lo preocupante es que es suficientemente buena como para tomar el trabajo de muchos de nosotros, aún con las falencias que estamos encontrando, porque todos nosotros también las tenemos y porque muchas de las ocupaciones actuales están guionadas –planteó Fernando Schapachnik, profesor del Departamento de Computación de Exactas/UBA, investigador de Conicet en el Instituto de Ciencias de la Computación y director ejecutivo de la Fundación Sadosky–. Cuando una persona nos atiende en un call center, sus jefes no le indican que exprese todo tu potencial humano, sino que siga un guión, con lo cual imitar a un humano en esa situación es mucho más simple. Esto llevó a que algunos economistas se hayan vuelto a preguntar sobre una antigua cuestión que apareció en los años 90, cuando economistas y filósofos se preguntaban por el fin del trabajo. En un principio, pareció que habían perdido la discusión, porque el desempleo mundial no creció producto de la automatización industrial. Pero con el auge de la inteligencia artificial algunos volvieron a mirar los números. Y si uno mira datos de la Oficina del Censo Laboral de los Estados Unidos (que tiene muy bajo porcentaje de trabajo en negro), entre las 50 ocupaciones que ocupan a más personas, solo dos son novedosas con respecto a los últimos 60 años: ingeniería de software y arreglo de computadoras. O sea, los únicos empleos que surgieron tienen que ver con generar mayor automatización. Y si nos fijamos en la evolución salarial, entre los años 60 y los 80, la diferencia de nivel educativo tenía un impacto en el salario y las curvas evolucionaban de manera conjunta, subiendo y bajando de acuerdo con las crisis de la economía. A partir de la década del 80, las curvas se separan cada vez más (caen para los que no tienen un nivel educativo universitario y suben para los que sí). Es decir, que la automatización sí tuvo impacto en el trabajo, generó mayor desigualdad. Entonces, la pregunta es ¿qué ganamos con esta tecnología que resuelve un problema que nadie tenía? ¿Por qué no nos preocupamos por el hambre, la desigualdad, los problemas del clima? Me parece que esto hay que denunciarlo y regularlo”.
Mariela Sued, profesora asociada de Exactas/UBA e investigadora independiente del Conicet en el Instituto de Cálculo, propuso “aprovechar esta excusa para reposicionar la matemática”.
“Lo único que tengo para decirles es que, ante esto que ya es una realidad, dejemos todo para mejorar el nivel educativo de los que tenemos alrededor –reclamó–. Como docentes, tenemos una terrible responsabilidad. En mi experiencia, la posibilidad de escribir código, programar, es una excelente manera de empezar a explorar problemas lindos y difíciles, que son los que pueden atraer la atención de quienes nos rodean. Son difíciles, pero con la computadora algo se puede hacer. No sé si la computadora piensa o no piensa. Lo que creo es que nosotros, sí, y que podemos disfrutar y sentir placer pensando y entendiendo. Desde nuestro lugar como docentes, los invito a hacer que nuestros alumnos exploren en un ambiente seguro, acompañados, buscando problemas que sean interesantes, que los motiven y les den ganas de poder hacer grandes modelos matemáticos. Que tratemos de contagiar el entusiasmo y el privilegio de sentir el placer de pensar. La inteligencia artificial es una excelente posibilidad”.
Otras ideas
Fernando Schapachnik: “Tenemos que ver qué hacemos en el aula, donde uno de los pilares eran las producciones originales. No importa si está bien o está mal [que los estudiantes le pidan al ChatGPT que les redacte un trabajo]. Teníamos toda una sociedad organizada sobre esa base, y de la noche a la mañana el producto ya salió y nosotros tenemos que ver qué hacemos. Con los medicamentos no permitimos eso, tienen que demostrar eficacia y seguridad. Que algo ya esté a disposición de la sociedad, plantearlo como indefectible, es parte de la trampa. Porque no es un adelanto científico, es un producto de uno de ‘los cinco grandes’ de la tecnología. Una de las propuestas que hizo un grupo de países en el marco de la OCDE es que el valor de saber si uno está hablando o leyendo a un humano es fundamental para nuestra sociedad desde que tenemos la posibilidad de comunicarnos de manera escrita. Entonces, para presentar un modelo de estos hay que poner a disposición también algo que permita saber si un cierto producto fue generado por una máquina o por una persona. Incluso aclara que son conscientes de que esa exigencia va a poner en pausa el avance, pero eso es bueno porque nos va a dar tiempo como sociedad para reacomodarnos”.
Jorge Sanz: “No hay que temerle a nada. A pesar de las computadoras, seguimos formulando teoremas. Pero tenemos que tener cuidado con el instrumento... Si las calculadoras dieran errores en las cuentas, uno tendría que tener mucha precaución en cómo las usa. Me parece que la cuestión no es reprimir, porque esto ya salió. Lo que hay que hacer es replantearnos qué evaluar y cómo lo hacemos. Tal vez tenemos que cambiar los tests”.
Carlos Diuk: “Datos de inteligencia artificial tenemos hace rato. Google y Wikipedia existen desde hace más de 20 años. O sea, que ese impacto en la educación debería existir. Ahora, tenemos una situación en la que el ChatGPT toma eso y te lo escribe en forma de ensayo bien redactado. Esa es la mayor diferencia. Pero al mismo tiempo se equivoca en el 20% de los casos... Yo mismo, en mi uso personal, si le pido que me diga diez cosas, dos las inventa. Mi duda es cuan diferente es a lo que ya teníamos. Lo que deberíamos tener claro es que estas herramientas no se pueden usar sin la capacidad de verificar los resultados, es una locura. Van a mejorar, pero hay un límite teórico de cuánto pueden hacerlo. Todavía no veo que esto vaya a generar un cambio mayor en la educación respecto de lo que ya pasó durante 20 años”.
Jorge Sanz: “El rol de la facultad, dicho desde la humildad de la distancia, pero basándome en las experiencias de otros lugares, es orientar. Son temas muy difíciles, confusos para la gente en general y particularmente para la industria. Una comunidad confundida no sabe valorar, aprovechar las oportunidades, y motivarse para estudiar o conocer estas cosas. Es muy importante acompañar a las empresas a entender cuáles son las limitaciones de esta tecnología y cómo usarlas correctamente. Y lo más importante es la gente. Tenemos que explicar qué pueden y qué no pueden hacer”.
Luciana Ferrer: “Tenemos que entender esta tecnología, aunque pensemos que no es necesaria, aunque sea para saber cómo regularla. Y dado que no se puede volver atrás, quizás intentar que tenga menos sesgo. Lo que estamos haciendo es tratar de escalar los modelos. En esa dirección, creo que podemos aportar un montón. A [las grandes compañías internacionales] no les importa achicar los modelos, no les hace falta. A nosotros, sí. Los modelos matemáticos [que están detrás de estas tecnologías] tienen un montón de numeritos adentro que uno tiene que estimar para que representen los patrones de los datos de entrada. En los actuales, la cantidad que hay que estimar está en los millones de millones. Y para eso se necesita una cantidad bastante mayor de datos de entrada. Uno de los proyectos grandes que tenemos entre manos es tratar de que los modelos sean más chiquitos, más controlables, y más fáciles de entender y de analizar”.