A veces puede parecer un desarrollo tecnológico reciente. Pero la historia de la Inteligencia Artificial (IA) comenzó a principios del siglo XX. Claro, después de todo, sólo se ha convertido en algo común en los últimos años, ¿verdad?
Pero sus mayores avances no se dieron hasta la década de 1950. No habrían sido posibles sin el trabajo de los primeros expertos en diversos campos.
La IA es una especialidad de la informática que se ocupa de crear sistemas que puedan replicar la inteligencia humana y las habilidades para resolver problemas. Lo hace tomando una gran cantidad de datos. Los procesa y aprende de modelos ya establecidos en el pasado, para optimizarlos y mejorarlos a futuro.
Este proyecto lo hacemos colectivamente. Sostené a El Destape con un click acá. Sigamos haciendo historia.
En este artículo cubrimos todos los principales desarrollos de la inteligencia artificial. Vamos a pasear por su historia, desde el trabajo preliminar establecido a principios de siglo XX, hasta los principales avances logrados en los últimos años.
Historia de la inteligencia artificial
La IA es una disciplina joven de poco más de 70 años, iniciada apenas en el aliento de la Segunda Guerra Mundial. Su desarrollo ha llevado a las computadoras a realizar tareas cada vez más complejas, que antes solo podían delegarse en un ser humano.
Pero la idea de la IA no es nueva ni una tecnología novedosa para los investigadores. Es mucho más antigua de lo que imaginás.
Anteriormente, los inventores hicieron cosas llamadas "autómatas" que eran de tipo mecánicos y se movían independientemente de la intervención humana. La palabra “autómata” proviene del griego antiguo y significa “actuar por voluntad propia”.
A principios del siglo XX se crearon muchos medios que se centraban en la idea de humanos artificiales. Los científicos comenzaron a preguntarse: ¿es posible crear un cerebro artificial?
Pero para los fines de este artículo vamos a mantenernos lo más cerca posible de la noción de IA en el sentido de que los humanos realmente crean y no sólo imaginan. Hablamos, entonces, de herramientas y mecanismos para ayudar a los procesos cognitivos, o automatizarlos e imitarlos.
Te contamos sobre los hechos clave que llegaron a hacer de la IA lo que es hoy en día.
Ramon Llull
En 1308, el poeta y teólogo catalán Ramon Llull completó Ars generalis ultima (El último arte general). Perfeccionó aún más su método de utilizar medios mecánicos basados en papel para crear nuevos conocimientos a partir de combinaciones de conceptos.
Llull ideó un sistema de pensamiento que quería transmitir a las demás personas para ayudarlos en los debates teológicos, entre otras actividades intelectuales. Su intención era crear un lenguaje universal, usando una combinación lógica de términos.
Esta herramienta constaba de 7 discos o círculos de papel, que enumeraban conceptos (por ejemplo, atributos de Dios como bondad, grandeza, eternidad, poder, sabiduría, amor, virtud, verdad y gloria).
Estos podían rotarse para crear combinaciones de conceptos y producir respuestas a preguntas teológicas.
El sistema de Llull se basaba en la creencia de que solo existe un número limitado de verdades innegables en todos los campos del conocimiento. Y que, estudiando todas las combinaciones de estas verdades elementales, la humanidad podría alcanzar la verdad última.
Máquina de Turing
Se puede decir que a principios de 1950, John Von Neumann y Alan Turing fueron los padres fundadores de la tecnología detrás de la IA. Aunque todavía no se había acuñado el término.
Hicieron la transición de las computadoras a la lógica decimal del siglo XIX (que, por lo tanto, manejaba valores de 0 a 9). Y la de máquinas a la lógica binaria (que se basan en el álgebra booleana, tratando con cadenas más o menos importantes de 0 o 1).
Los dos investigadores formalizaron así la arquitectura de las computadoras contemporáneas y demostraron que se trata de una máquina universal, capaz de ejecutar lo programado.
Turing, por otro lado, planteó la cuestión de la posible inteligencia de una máquina por primera vez en su famoso artículo de 1950 Computing Machinery and Intelligence.
¿Cuándo empezó la AI?
El primer trabajo que ahora se reconoce como IA fue realizado por Warren McCulloch y Walter Pits en 1943. Ellos propusieron un modelo de neuronas artificiales.
Publicaron Un cálculo lógico de ideas inmanentes en la actividad nerviosa. Allí, intentaron comprender cómo el cerebro podía producir patrones muy complejos mediante el uso de muchas células básicas que están conectadas entre sí.
Estas células se llaman neuronas y McCulloch y Pitts dieron un modelo muy simplificado en su artículo. Hicieron una importante contribución al desarrollo de redes neuronales artificiales que modelaban las características clave de las biológicas. Sin saberlo estaban cimentando las bases del procesamiento de información y el Deep Learning.
Test de Turing
Hay dificultades extremas para idear cualquier criterio objetivo de distinguir el pensamiento "original" del "mecánico".
En 1950, Alan Turing eludió el debate sobre cómo definir exactamente el pensamiento por medio de un test muy práctico, aunque subjetivo: si una computadora actúa, reacciona e interactúa como un ser sensible, entonces debe llamarse sensible.
Para evitar el rechazo perjudicial de la evidencia de IA, Turing sugirió el "Juego de Imitación", ahora conocido como el test de Turing.
Se trataba de un interrogador humano remoto. Dentro de un marco de tiempo fijo, debe distinguir entre una computadora y un humano en función de sus respuestas a diversas preguntas.
Por medio de una serie de pruebas, el éxito de una computadora en "pensar" puede medirse por su probabilidad de ser mal identificada como sujeto humano.
Dartmouth College de Stanford: Primer programa de AI
El Proyecto de Investigación de Dartmouth sobre IA fue un taller de verano ampliamente considerado como el momento fundacional de la IA como campo de investigación. Tuvo lugar en julio y agosto de 1956, en el Dartmouth College de Stanford.
El equipo de Dartmouth estaba formado por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon. Se inspiraron en la idea de que las computadoras podían diseñarse para simular la inteligencia humana y creían que esto podría tener implicaciones de gran alcance para la ciencia y la sociedad.
Se enfrentaron a numerosos obstáculos, incluido el limitado poder informático del momento y la falta de financiación. Aún así, el equipo de Dartmouth perseveró en su búsqueda de la tecnología de IA.
Trabajaron incansablemente para desarrollar “Logic Theorist”, que se consideró un avance significativo en este campo. El programa allanó el camino para una mayor investigación y desarrollo en IA e inspiró a otros investigadores a emprender proyectos similares.
Época de los 60s: Shakey
Charles Rosen, jefe del Grupo de Aprendizaje Automático del Instituto de Investigación de Stanford (ahora conocido como SRI International) desarrolló una propuesta en 1964 para construir un robot.
Dos años más tarde Shakey vio la luz. Fue el primer robot móvil con la capacidad de percibir y razonar sobre su entorno. Contaba con la inteligencia y las capacidades que, para aquel entonces, solo se habían representado en los libros de ciencia ficción y películas
Shakey podía realizar tareas que requerían planificación, búsqueda de rutas y reorganización de objetos simples. El robot influyó mucho en la robótica moderna y las técnicas de IA. Hoy reside en el Museo de Historia de la Computación.
Época de los 60s a 70s
En las décadas de 1960, el enfoque de la investigación de IA se desplazó hacia el desarrollo de sistemas expertos diseñados para imitar las decisiones tomadas por humanos en campos específicos. Estos métodos se emplearon con frecuencia en industrias como la ingeniería, las finanzas y la medicina.
En 1961 el primer robot industrial, Unimate, comenzó a trabajar en una línea de ensamblaje en una planta de General Motors en Nueva Jersey.
Para 1965, Joseph Weizenbaum desarrolló ELIZA, un programa interactivo que podía sostener un diálogo en inglés sobre cualquier tema. Weizenbaum quería demostrar la superficialidad de la comunicación entre el hombre y la máquina.
Sistemas basados en el conocimiento
Sin embargo, cuando los inconvenientes de los sistemas basados en reglas se hicieron evidentes más adelante, la investigación de IA comenzó a centrarse en el Machine Learning.
Esta es una rama de la disciplina que emplea métodos estadísticos para permitir que las computadoras aprendan de los datos. Como resultado, las redes neuronales se crearon y modelaron a partir de la estructura y el funcionamiento del cerebro humano.
Edward Feigenbaum y Joshua Lederberg crearon en 1965 el primer "Expert System". Se trata de una forma de IA programada para replicar las habilidades de pensamiento y toma de decisiones de los humanos.
Industrialización 80s
La mayor parte de la década de 1980 mostró un período de rápido crecimiento e interés en la IA, ahora etiquetado como el "boom de la IA".
Esto provino tanto de los avances en la investigación como de la financiación adicional del gobierno para apoyar a los investigadores. La industrialización comenzó a aprovechar los beneficios de esta herramienta tecnológica.
Las técnicas de Deep Learning y el uso de Expert System se hicieron más populares, lo que permitió a las computadoras aprender de sus errores y tomar decisiones independientes.
Roomba
En 2002 la marca iRobot presentó su primer robot doméstico: el Roomba, un aspirador robótico autónomo de gran éxito de ventas.
Para 2004, se habían vendido un millón de Roombas. Este robot inteligente podía navegar entre el desorden y debajo de los muebles limpiando sus pisos y regresar a su base de carga cuando terminaba.
En 1968 la revista Life se refirió al robot Shakey como la "primera persona electrónica". Además, fue elegido miembro del Salón de la Fama de los Robots de Carnegie Mellon en 2004.
Los usuarios de Roomba se beneficiaban de la capacidad de crear un horario personalizado para limpiar ciertas habitaciones en momentos clave… incluso cuando no había nadie en casa.
2011: Asistentes virtuales
Los asistentes virtuales, como Siri o Alexa, llegaron a convertirse en un miembro más de la familia. Con sólo llamarlos, pueden realizar una variedad de tareas, desde agregar artículos a las listas de compras hasta activar los sistemas de seguridad del hogar o reproducir la música de tu preferencia.
En realidad, la tecnología de reconocimiento de voz existe desde la década de 1960. Pero los asistentes virtuales, tal como se conoce hoy en día, no aparecieron hasta la década de 2010.
La presentación de Siri con el iPhone 4s en 2011 fue polarizante. Mientras que algunos se asombraron de su capacidad para responder a las preguntas y comandos de los usuarios, otros expresaron su preocupación por la seguridad.
Comenzaron las preguntas: ¿y si la inteligencia artificial llegó demasiado lejos?
En 2012, Google lanzó oficialmente Google Now en teléfonos Android, que venía con una función de voz a texto más precisa, así como la capacidad de comprender 18 idiomas y de conectarse con el historial de búsqueda y el calendario de un usuario.
En los dos años siguientes, tanto Microsoft como Amazon también presentarían sus propios asistentes de voz: Cortana y Alexa.
2015: AlphaGo
AlphaGo es un programa informático de inteligencia artificial desarrollado por Google para jugar Go, un juego de mesa de estrategia chino similar al ajedrez.
Fue el primer programa de computadora en derrotar a un jugador humano profesional de Go y el primero en derrotar a un campeón mundial. Posiblemente sea el jugador de Go más fuerte de la historia.
Se inició en 2014 como una prueba, para ver qué tan bien podía competir en Go el algoritmo de red neuronal de Google que utiliza el Deep Learning. Para el 2015 ya estaba en el mercado.
Go es conocido como el juego clásico más desafiante para la inteligencia artificial debido a su complejidad.
2020: AlphaFold
AlphaFold es un sistema de IA desarrollado por DeepMind que predice la estructura 3D de una proteína a partir de su secuencia de aminoácidos. Regularmente logra una precisión competitiva con los experimentos.
La base de datos AlphaFold cuenta con más de 350.000 predicciones de estructuras de proteínas, incluido el proteoma humano completo. Las actualizaciones posteriores adicionaron a UniProtKB/SwissProt y 27 nuevos proteomas, 17 de los cuales representan enfermedades tropicales desatendidas.
AlphaFold ha mostrado impacto en cómo mejorar la capacidad para combatir la contaminación y obtener información sobre la enfermedad de Parkinson, entre otras funcionalidades.
ChatGPT
ChatGPT o el transformador preentrenado generativo de chat (GPT), es un modelo de lenguaje creado por el laboratorio de investigación de inteligencia artificial OpenAI.
Fue lanzado al mercado en noviembre de 2022 y es solo uno de los chatbots relativamente inteligentes que existen.
Es un tipo de software de Deep Learning que puede generar un lenguaje similar al humano después de recibir cantidades masivas de material escrito existente. Podés preguntarle al bot casi cualquier cosa y pedirle que te ayude con todo tipo de tareas.
Conclusión
Como podés notar, la historia de la inteligencia artificial es de larga data y muy interesante. Pero ahora que volvimos al presente, probablemente haya una siguiente pregunta rondando en tu mente ¿qué sigue para la IA?
Mirando hacia el futuro, es probable que la IA desempeñe un papel cada vez más importante para resolver algunos de los mayores desafíos que enfrenta la sociedad, como el cambio climático, la atención médica y la ciberseguridad.
Sin embargo, existen preocupaciones sobre sus implicaciones éticas y sociales, particularmente a medida que la tecnología se vuelve más avanzada y autónoma.
Además, a medida que la IA continúe evolucionando, es probable que tenga un impacto profundo en prácticamente todos los aspectos de la vida. Desde cómo se trabaja y se comunica hasta cómo se aprende y se toman decisiones.
Para seguir leyendo más artículos como este no dejes de visitar El Destape.