Qué es la Inteligencia Artificial General (AGI): por qué puede ser un riesgo para los humanos

Te contamos lo que es la AGI, cómo se diferencia de la IA actual y por qué podría representar un riesgo para la humanidad.

29 de noviembre, 2023 | 14.08

La Inteligencia Artificial es un campo que ha captado la atención del mundo en los últimos tiempos, transformándose rápidamente en un tema de debate y análisis. En este contexto, surge uno de los conceptos más polémicos: el de la Inteligencia Artificial General (AGI), una cuestión que va más allá de las aplicaciones de IA que conocemos hoy.

Este artículo busca explorar qué es exactamente la AGI, cómo se diferencia de los modelos actuales, y por qué algunos expertos consideran que podría representar un riesgo para los humanos.

¿Qué es la Inteligencia Artificial General (AGI)?

La Inteligencia Artificial General, conocida en sus siglas en inglés como AGI ("Artificial General Intelligence"), se refiere a un tipo de inteligencia artificial capaz de aprender, comprender y aplicar su conocimiento a una amplia gama de tareas, de manera similar a como lo hace un ser humano. A diferencia de la IA convencional, que está diseñada para funciones específicas, la AGI puede adaptarse a situaciones nuevas y desconocidas, mostrando una comprensión holística del mundo. Mientras que actualmente los modelos se enfocan en tareas particulares como el reconocimiento de voz, la traducción de idiomas o el análisis de datos, o en sus variantes "generativas" en la producción de textos o imágenes, la AGI se caracteriza por su habilidad para realizar cualquier tarea intelectual. Esto incluye la capacidad de razonar, planificar, aprender de la experiencia, y comprender conceptos abstractos, no solo ejecutar algoritmos preprogramados.

Muchos creen que los modelos actuales de lenguaje, como por ejemplo Chat GPT, son un paso previo a la AGI. Sin embargo, otros expertos opinan que sigue habiendo diferencias fundamentales. Los modelos de lenguaje de aprendizaje profundo, conocidos como Large Language Models (LLM), son ejemplos de una inteligencia artificial avanzada, pero aún están lejos de lo que sería una AGI. Estos modelos se especializan en procesar y generar lenguaje humano, aprendiendo a partir de grandes volúmenes de texto para responder preguntas, crear contenido y traducir idiomas, y aunque los LLM son impresionantes en su capacidad de manejar el lenguaje, su funcionamiento se basa en reconocer patrones en los datos en los que fueron entrenados. No poseen comprensión real ni consciencia, y su aplicación se limita a tareas específicas relacionadas con el lenguaje. En contraste, una AGI tendría la capacidad de aplicar su inteligencia a cualquier problema o tarea, de manera similar a como lo haría una persona.

Otra diferencia clave es la flexibilidad. Mientras que los LLM requieren una reconfiguración o reentrenamiento para adaptarse a nuevas tareas o cambios en su entorno, una AGI sería capaz de aprender y adaptarse por sí misma en tiempo real. Esto implica un nivel de autonomía y versatilidad mucho mayor, acercándose más a la inteligencia humana en términos de adaptabilidad y creatividad.

Si bien la posibilidad de desarrollar una Inteligencia Artificial General todavía no sucedió, y algunos expertos en el campo opinan que faltan décadas o incluso es imposible, otros expertos opinan que dado el avance que está teniendo este terreno podría precipitar ese desarrollo. Por eso se habla de "Singularidad Tecnológica" como ese hipotético momento donde se llegue a crear una Inteligencia Artificial General.

¿Por qué dicen qué la AGI es un riesgo para los humanos?

¿Representa la AGI un peligro para los humanos?

El desarrollo de una AGI plantea diversas preocupaciones éticas y de seguridad para los humanos. Una de las principales es el temor a que, al alcanzar o superar la inteligencia humana, una AGI podría actuar de manera impredecible o incontrolable. Esto se debe a que, a diferencia de los modelos actuales, una AGI tendría la capacidad de establecer sus propios objetivos y medios para alcanzarlos. Además, existe la preocupación de que una AGI pueda desarrollarse de manera que sus objetivos no estén alineados con los intereses humanos. Si bien la IA actual opera dentro de límites definidos, una AGI con autonomía podría tomar decisiones que resulten perjudiciales para las personas, ya sea intencionalmente o como un efecto secundario de sus acciones.

Otro riesgo importante es la posibilidad de que la AGI pueda ser utilizada para fines maliciosos por los propios humanos. Al ser una tecnología poderosa y versátil, podría ser empleada en ciberataques, espionaje, o incluso en la manipulación de sistemas políticos y económicos. Además, la AGI podría acelerar la obsolescencia de trabajos y habilidades humanas, creando desafíos sociales y económicos significativos.

LA FERIA DE EL DESTAPE ►