La aparición de ChatGPT revolucionó lo que el público general se imaginaba acerca de Inteligencia Artificial (IA). Los medios se convirtieron en repetidoras que ponen a prueba las capacidades de esta herramienta y comprueban que sus producciones pueden ser utilizadas desde la redacción de un currículum hasta la composición de poemas de cualquier estilo. Detrás del asombro (y temor), existe la intriga: ¿la IA ya alcanzó el nivel de producción de información humano?
La disciplina de la IA comenzó siendo un nombre simpático que se le puso a toda tecnología que imita las funciones reconocidas como propias de la mente humana. A partir de este supuesto, se considera que la primera persona en crear una fue Ada Lovelace en 1840, ya que compuso el primer algoritmo destinado a ser procesado por una máquina.
Lovelace fue la responsable de crear una serie de instrucciones en base a reglas lógicas que debieron ser lo suficientemente específicas para imitar una tarea que hasta entonces solo podían hacer los humanos. Estos algoritmos que puso a prueba Lovelace son los que definen y caracterizan cómo funciona cada sistema de Inteligencia Artificial. Gracias a estos parámetros, la empresa OpenAI pudo generar hoy una herramienta como lo es ChatGPT.
¿Qué hace tan especial a ChatGPT?
Además que su fase de pruebas está abierto al público, la tecnología de ChatGPT asombra con su poder de procesamiento de lenguaje natural, es decir, la manera en que las personas usan la lengua de manera cotidiana. El modelo GPT-3 (por el cual la herramienta lleva el nombre) es un modelo particular que pone a los algoritmos del sistema a trabajar en varias etapas: primero, fueron preentrenados con una serie de datos para aprender la estructura y el contexto del lenguaje natural. Durante la siguiente etapa, OpenAI se encargó de ajustar el programa para que sus algoritmos sean utilizados para una tarea específica (traducción o respuesta a preguntas, por ejemplo) y luego que pueda generar una respuesta coherente en base a los que los usuarios le piden.
Cada vez que esta IA responde, los usuarios y desarrolladores pueden calificar el nivel de respuesta, lo que a su vez habilita a ChatGPT a recalibrarse para optimizar cómo su “aprendizaje automático” (machine learning) formula sus respuestas en las siguientes ocasiones.
La empresa OpenAI está en constante actualización del modelo y continúa alimentando a su IA con todos los datos que puede encontrar de sitios “autorizados” de Internet. Sumado a su capacidad de reconstruir el “lenguaje natural”, el famoso chat parece haber logrado encontrar la clave de cómo transmitir cualquier tipo de información para que cualquier usuario la entienda.
El límite de ChatGPT: problemas entre las máquinas y los humanos
La lógica apunta que si se ha logrado crear una herramienta que tiene “todo” el conocimiento de Internet y además puede explicarlo con lenguaje simple, al fin se ha creado una entidad con la capacidad de reemplazar el trabajo de cualquier humano. Pero Fredi Vivas, CEO de RockingData y autor de “¿Cómo piensan las máquinas?” explicó que este no es el escenario y que ChatGPT aún tiene mucho que recorrer: “Como su nombre lo indica, esta herramienta fue desarrollada para imitar la capacidad comunicativa de los humanos. Su prioridad no es ser un sabelotodo, sino más bien construir oraciones, párrafos y textos como si fuera un humano”, profundiza.
En su desglose, Vivas apunta a uno de los misterios sin resolver de la Inteligencia Artificial: el sesgo de sus datos. Ya que toda herramienta fue alimentada con datos humanos, es muy posible que sus algoritmos repitan estas perspectivas sin cuestionar su objetividad. Es por ello que a ChatGPT se le puede pedir opiniones positivas y negativas sobre el mismo hecho y reproducirá textos en base a ambas posturas.
“Existen otros modelos que están entrenados para detectar fake news; pero este está hecho para generar lenguaje natural de manera humana. Cuando, en la ciencia ficción, pensamos en una máquina con inteligencia artificial tipo Skynet (N. del R: la principal enemiga de la clásica película Terminator), técnicamente estamos hablando de lo que se conoce como inteligencia artificial general. Es decir, una IA que puede hacer de todo: generar lenguaje natural, detectar fake news, dibujar, entender imágenes, moverse, etc. Esto con la tecnología que tenemos hoy es imposible. Por eso nos tenemos que conformar con modelos que hacen muy bien una sola cosa”, apuntala el especialista.
Los humanos detrás de la cortina de OpenAI
Como la mayoría de las herramientas de Inteligencia Artificial, ChatGPT requiere que los datos que colecta para su base de datos (cuyo origen es, según OpenAI, cualquier fuente verificable de Internet) sean calibrados para liberarlos de sesgos y errores que interferirían con la formación de respuestas. Vivas comparó este proceso a lo que planteaba el escritor Jorge Luis Borges en su cuento “Funes el Memorioso”: “Funes tenía toda la información del mundo, pero no tenía la capacidad de organziarla, solo repetirla. La ‘magia’ del ChatGPT es que conoce toda la información y luego la organiza para generar contenido nuevo”, comentó.
“Es normal que un modelo utilizado por tanta gente y alimentado por tanta información contenga ciertos sesgos, que en realidad son humanos, y que tienen que ver con su entrenamiento. En estos volúmenes, es muy difícil corregirlos”, apuntó el especialista.
Según una investigación de la revista norteamericana Time, OpenAI subcontrató a una empresa que terceriza el trabajo a Kenya, para comenzar a depurarla de información violenta, sexista y racista.
Pero de esta relación, que requería censar una casi infinita cantidad de información, se produjo un conflicto muy humano. La empresa llamada Sama, localizada en San Francisco, organizó equipos de empleados contratados a menos de 2U$D por hora para “filtrar” información que manchara las respuestas. Esta purga manual de información requería que las tres docenas de trabajadores (divididos en tres equipos) leyera entre 150 a 250 pasajes de texto en turnos de nueve horas. Acorde a la investigación de TIME, el personal reportó haber estado en contacto con material que perjudicó su salud mental, ya que variaban en descripciones gráficas sobre pedofilia, homicidio, suicidio y tortura, entre otros.
Si bien la empresa subcontratada declaró públicamente proveer a sus empleados de asistencia psicológica, al poco tiempo terminó por cancelar los proyectos que tenía junto a OpenAI debido al contenido que les era requerido filtrar. Hasta el día de hoy, ambas empresas continúan en una disputa legal debido a la cancelación del contrato antes de tiempo; Sama continúa alegando que OpenAI requería el control de contenido ilegal, mientras que la empresa norteamericana afirma que esto haya ocurrido.
¿Una IA como un inesperado democratizador de información?
A pesar de la crisis económica que atraviesa actualmente el sector tecnológico, la popularidad de ChatGPT logró cautivar la atención de los inversores. Así como Microsoft invirtió diez millones de dólares para participar del proyecto de OpenAI, Google anunció que también está trabajando en una IA conversacional llamada LaMDA. Los gigantes tecnológicos chinos como Baidu, Alibaba, Jd.com y WeChat también anunciaron que están preparando una herramienta que funcione bajo sus parámetros. Mientras tanto, Meta, quien aún sufre debido a sus fallidas expectativas sobre el Metaveerso, ha declarado que por ahora desea mantenerse lejos de este tipo de herramientas.
Esta carrera tech tiene como objetivo crear el próximo gran “Google”, ya que los usuarios han encontrado en ChatGPT una manera ágil de encontrar información. Si bien todavía se requieren de nuevos procesos de refinamiento e inclusive una exploración ética profunda sobre cómo podría ser utilizada, la disciplina de Inteligencia Artificial ha dado pasos agigantados en transmitir datos de manera que cualquier usuario no solo pueda obtenerlos, sino, al fin, poder comprenderlos.