Al borde del abismo: personalidades llaman a frenar los experimentos de Inteligencia Artificial

Entre los firmantes se encuentran Elon Musk, fundador de la famosa empresa de inteligencia artificial OpenAI, y Steve Wozniak, cofundador de Apple.

30 de marzo, 2023 | 10.15

“¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos”. Estas son algunas de las preguntas y respuestas que dicta la carta abierta que lanzaron líderes tecnológicos frente al avance sin control de la inteligencia artificial en el sitio web Future of Life Institute. Llamativamente, entre los firmantes se encuentran Steve Wozniak, cofundador de Apple, y Elon Musk, CEO de SpaceX, Tesla y Twitter, y fundador de la famosa empresa de inteligencia artificial OpenAI, responsable de la creación del Chat GPT.

La carta, firmada por más de mil personas, llama a frenar los entrenamientos de la inteligencia artificial más potente que GPT-4 por seis meses. “La IA (inteligencia artificial) avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo”, cita.

El multimillonario Elon Musk es fundador de la famosa empresa de inteligencia artificial OpenAI. Créditos: Computer Hoy.

 

Durante ese lapso, los expertos deberán realizar una revisión en torno a esta tecnología y evaluar el impacto que podría tener en la sociedad. Paralelamente, el texto recomienda que se avance en la legislación y regulación de esta creación. “La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí”, sentencia.

El peligro al alcance de la mano

De manera reciente, la Agencia de Noticias Científicas de la UNQ entrevistó a Emmanuel Iarussi, científico de Conicet y miembro del Laboratorio de Inteligencia Artificial de la Universidad Torcuato Di Tella, que explicaba los riesgos que existen. En esta línea, afirmaba: “No hay antecedentes de una tecnología que nos permita crear imágenes tan reales y de manera tan masiva”.

Entre sus consecuencias, la inteligencia artificial contribuye a la desinformación mediante la manipulación de imágenes, vídeos y la voz. En este sentido, Iarussi explica que si bien hay técnicas para reconocer si una imagen fue alterada, considera que es algo “transitorio”. “Los algoritmos están siendo entrenados para ser indistinguibles, entonces es necesario que guardemos una dosis sana de escepticismo. Debemos acostumbrarnos a dudar de la verdad. La tecnología va a avanzar y van a existir cada vez menos contenidos reales”, manifiesta.

Alterar la historia

Una nota publicada en el diario El País (España) advierte sobre los riesgos que tiene reconstruir con inteligencia artificial el patrimonio cultural e histórico. Al combinar datos que están en internet pueden crear imágenes que parecen reales que muestran una historia que no fue.

En este sentido, Pablo Aparicio, arqueólogo, historiador y dueño de una empresa que realiza reconstrucciones virtuales en 3D o 2D del patrimonio, plantea al diario español: “Por mucho que le pidas que te diseñe un castillo de determinada manera, es imposible darle todos los detalles para que te haga algo preciso. Entregan una imagen que parece real o parece que podría ser real. Y ahí está el mayor problema”. Y agrega: “Ayuda mucho a transmitir en redes los fakes históricos, que no tienen nada de científico, pero que pueden parecer ciertos”.

Además, ejemplifica con el patrimonio romano: “Las inteligencias artificiales tiran de lo que es más difundido. El Coliseo no lo van a representar reconstruido ni completo, como estaba en la antigüedad, sino que lo van a representar en ruinas, como está en la actualidad, y eso también es totalmente incorrecto”, subraya Aparicio.

Quizás la carta enviada por los expertos tecnológicos llegue a tiempo para repensar el futuro de esta tecnología. “No nos apresuremos a caer sin estar preparados”, concluye.

 

Con información de la Agencia de Noticias Científicas