Gracias al avance de la informática, la inteligencia artificial y el aprendizaje automático llegaron para quedarse. ¿Cuáles son las ventajas y las aplicaciones actuales? Lo que comúnmente se conoce como “deep learning” o “aprendizaje automático” remiten a un conjunto de técnicas, una familia de algoritmos que enseñan a las computadoras a hacer una tarea determinada. “Es un aprendizaje diferente al que realizan los seres humanos: si yo le digo a un niño ‘esto es amarillo’ tres o cuatro veces, ya lo entiende y lo aprende. En cambio, la computadora es probable que necesite unos cientos de miles de ejemplos, es un aprendizaje estadístico”, explica a la Agencia de noticias científicas de la UNQ, Emmanuel Iarussi, ingeniero en informática, Investigador del Conicet del Laboratorio de Inteligencia Artificial de la Universidad Torcuato Di Tella.
Resulta que si hay una gran base de datos, la computadora aprende a ver patrones o tendencias. Hay diferencias respecto de lo que se conoce como programación clásica. El científico explica que cuando se programa, es necesario aclarar metódicamente cada paso para que se termine realizando la tarea necesaria. “En aprendizaje automático se da vuelta eso: se le muestra al algoritmo diferentes etiquetas y se le pide que lo aprenda”, amplía. Un ejemplo sería indicar como etiquetas imágenes de perros y gatos: luego de escanear millones de imágenes, la computadora puede reconocer estos rótulos en otras fotografías que nunca antes vio. Iarussi aclara que computacionalmente es muy caro porque hay que repetirlo numerosas veces.
El aprendizaje automático utiliza algunas técnicas que se conocen desde hace tiempo pero que explotaron en el presente por dos cuestiones fundamentales. Por un lado, existe un gran número de datos; internet y las computadoras incrementaron notablemente esta disponibilidad, algo que en los años 90 era impensado. Por otro, en la actualidad se cuenta con el hardware para manejar toda esta información ya que los algoritmos de aprendizaje automático son muy demandantes.
Algoritmos por todos lados: tontos y poderosos
Hoy en día los algoritmos de aprendizaje automático ya forman parte de la vida cotidiana. Un ejemplo de esto son los sistemas de recomendación de las plataformas de entretenimiento: el algoritmo aprende de miles y miles de usuarios con determinadas características hasta que finalmente sabe qué películas o series prefiere y puede sugerir a los demás consumidores. Esto es algo relativamente simple, se pueden realizar tareas más complejas, por ejemplo, lo que se conoce como “deep fake”. En este tipo de tarea se predice cómo va a ser un video de una persona diciendo algo. Iarussi aclara, entre risas, que el problema es que “¡funciona muy bien!”. Existen millones de videos de personas hablándole a una cámara: si se separa el audio y se entrena al algoritmo para que diga una frase determinada, el resultado es un video muy real de una persona diciendo algo que no ocurrió en la realidad. Las implicancias de esto son inimaginables, se puede poner en boca de personas frases que nunca dijeron y esto es sumamente creíble.
Los algoritmos de aprendizaje automático están incluidos dentro de lo que se conoce como inteligencia artificial. Para Iarussi, “la inteligencia artificial es aspiracional, suena como una entidad casi humana y la realidad es que estamos muy lejos de eso. Vemos cosas sorprendentes, pero no tienen la capacidad de hacer cosas que hacemos los seres humanos”. Y brinda un ejemplo: “Una red neuronal que yo entreno para una determinada tarea no suele ser buena para otra. En cambio, las personas tenemos la capacidad de realizar múltiples trabajos”. Incluso, el investigador del Conicet explica que, a veces, los algoritmos suelen ser “tontos”, ya que cuando los datos no se presentan de manera similar a la aprendida, no pueden realizar la labor solicitada. “Una verdadera inteligencia artificial debería hacer muchas cosas a la vez con la misma estructura”, remata.
Todas estas aplicaciones vienen en “cajas negras” y se les otorga un poder, por momentos, excesivo. Incluso, a veces se usan algoritmos para efectuar descartes en búsquedas laborales. “Si llegan dos mil curriculum vitae, para realizar la selección más rápida se descartan varios mediante un algoritmo que se entrena con los datos de los empleados que ya se que les fue bien dentro de la empresa. Ahorra trabajo, pero es bastante oscuro el rechazo que se produce. Hay características más allá de los datos que un algoritmo no puede censar y toda esa dimensión queda por fuera”, detalla.
“A mi me gusta pensar a estas técnicas como una herramienta que aumente las capacidades, no como un reemplazo. Estas metodologías empoderan, generan una revolución similar a la que en su momento habrá generado la fotografía”, reflexiona.
La revolución biomédica
Usualmente las moléculas interaccionan entre sí y reaccionan gracias a su estructura; es una especie de juego de encastre a nivel submicroscópico. Se sabe que el comportamiento de las proteínas está determinado por su forma y es por ello que la empresa “DeepMInd”, propiedad de Google, desarrolló “Alphafold”. Este programa es un conjunto de algoritmos que realiza predicciones de la geometría espacial de las proteínas gracias al aprendizaje automático. “Es una gran base de datos de proteínas que puede predecir estructuras con mucha precisión. No se puede escribir algoritmos infinitamente complejos, pero gracias a las bases de datos se puede hacer que se aprendan tareas automáticas”, cuenta Iarussi.
El científico se entusiasma al momento de compartir algunas de sus investigaciones: “Nos contactaron especialistas que precisaban contar y diferenciar rápidamente células muertas y vivas en cultivos de cáncer de mama”. Para ello, consiguieron entrenar un algoritmo para volverlo capaz de diferenciar en imágenes de microscopías: “Ayudamos a resolver esa tarea y les pudimos dar alguna herramienta a los especialistas”.
El equipo de Iarussi también estudia la aplicación de algoritmos de generación de geometría. Un ejemplo de ello es la tomografía ósea computada, que reconstruye la geometría de los huesos, pero a muy baja resolución. “No alcanza para generar modelo 3D del hueso”, explica. Lo que se hace es entrenar un algoritmo mediante huesos escaneados a muy alta resolución. Esto no se puede realizar en personas ya que es una técnica que precisa de mucha energía y ocasionaría un daño muy grande. Sin embargo, se pueden realizar escaneos de huesos ex vivo para entrenar al algoritmo y comparar con la tomografía de baja resolución. “Si bien estamos aún muy lejos de la aplicación directa, las herramientas están mejorando a pasos agigantados”, comenta.
Por: Nadia Chiaramoni
Con información de la Agencia de Noticias Científicas