El presidente Javier Milei volvió a viajar a Estados Unidos para reunirse con la élite del sector tecnológico del país, es decir, la mayoría de las empresas que dirigen las plataformas más importantes de redes sociales y que están a la vanguardia de las investigaciones en la nueva frontera que obsesiona a todo el mundo: inteligencia artificial. El momento para esta visita no solo choca con los múltiples frentes que el Gobierno tiene abiertos en el Congreso, la calle y varias provincias como Misiones, por ejemplo, sino que también coincide con la creciente crisis de confianza sobre el avance frenético del desarrollo de sistemas y herramientas alimentadas por inteligencia artificial, tanto en el corto como largo plazo.
Este proyecto lo hacemos colectivamente. Sostené a El Destape con un click acá. Sigamos haciendo historia.
Solo en términos políticos -porque la discusión también se extiende al monopolio de atención que generaron las redes sociales, especialmente entre los más jóvenes, y que profundizó trastornos y problemas mentales, y situaciones abusivas o tóxicas en la sociedad-, empresas como Meta y Google, con las que se reunirá Milei, están en el ojo de la tormenta en este año electoral estadounidense por su falta de transparencia y cooperación para frenar uno de los mayores peligros que, según especialistas, enfrentan las democracias hoy: la desinformación.
La desinformación no es solamente la difusión de información falsa, sino el hecho de difundirla a sabiendas que es falsa para confundir al público o, en este caso, a los votantes. Esto no es nuevo. El escándalo de Cambridge Analytica en 2018 tuvo en el centro de la escena a Meta -por entonces se llamaba Facebook- por utilizar datos privados de esa red social para luego manipular políticamente a esas personas en medios de campañas electorales para intentar dirigir sus decisiones a la hora de votar. Uno de los lugares donde operó la entonces consultora fue en Argentina durante la campaña de Mauricio Macri.
Borrar los límites entre lo verdadero y lo falso
Pero la tecnología ha avanzado a pasos agigantados desde que se destapó el escándalo de Cambridge Analytica. Hoy se volvió común segmentar las campañas y sus mensajes y spots según los sectores socio-económicos, etarios, de género y hasta por sus preferencias culturales. La exitosa campaña electoral de Milei el año pasado fue prueba de ello. Pero mientras se discute cómo las grandes plataformas que albergan los datos privados de casi todo el mundo deben protegerlos, se desarrollaron herramientas generadas con inteligencia artificial que con solo conseguir unos segundos de la voz o la imagen de alguien puede reproducir audios, imágenes y videos que son imposibles de diferenciar de los verdaderos.
En enero pasado, miles de votantes registrados demócratas en el estado de New Hampshire recibieron una llamada con la voz del presidente y candidato a la reelección Joe Biden para no participar de las primarias que se estaban por realizar porque era mejor guardarse para los comicios generales. Era un "deepfake", como ya se bautizó a este tipo de audio o video falso generado con inteligencia artificial, y de inmediato encendió todo tipo de alertas. La Comisión de Comunicaciones Federal aprobó una resolución para prohibirlos y en los últimos días anunció que multará al responsable, un consultor demócrata que dijo que quería alertar sobre los peligros de que exista esta tecnología.
Veteranos de la escena política y de las pulseadas judiciales en Estados Unidos adelantan, sin embargo, que la prohibición de la Comisión de Comunicaciones Federal seguramente no sobrevivirá en las cortes, como sucedió con otras peleas bajo el argumento que atenta contra la libertad de expresión, establecida por la Primera Enmienda constitucional.
MÁS INFO
Pero este, además, no es un problema aislado ni se limita a las grandes empresas, que suelen gozar de la libertad de mercado para ser más opacas. El laboratorio de inteligencia digital del Instituto del Futuro publicó recientemente un informe sobre trolleo gubernamental. Lo definieron como "una nueva forma de abuso a los derechos humanos" y lo resumieron así: "El uso dirigido de campañas de odio y acoso online para intimidar y silenciar a individuos críticos del Estado". Como herramientas destacaron el "uso de bots políticos para amplificar estas campañas, el hackeo ilegal a opositores y la viralización de desinformación".
Analizaron el caso de la campaña de Donald Trump en 2016 -hoy nuevamente candidato presidencial en las elecciones de noviembre próximo-, y cómo continuó y se potenció una vez que llegó a la Casa Blanca. El trolleo del propio candidato y luego mandatario a través de sus propios tuits o retuiteando a otros usuarios, seguidores suyos o medios hiperpartidarios, que muchas veces radicalizaban el mensaje, publicando información privada de la persona a la que estaban atacando. También describieron "la evolución desde la maquinaria de trolleo electrónico (de la campaña) al aparato de un nuevo gobierno y sus declaraciones que prácticamente condonaban el acoso masivo online a altos funcionarios".
Este modelo, que para muchos dirigentes fue considerado exitoso, se fue replicando en otras partes del mundo, entre ellas America Latina: en Brasil con Jair Bolsonaro, en El Salvador de Nayib Bukele y ahora en Argentina con Milei.
Perder el control del futuro
Pero esta preocupación por los efectos de las herramientas generadas por inteligencia artificial es apenas la punta del iceberg en la crisis de confianza actual en la meca tecnológica de Silicon Valley. En las últimas semanas esta crisis estalló en otra de las empresas que se reunirá con Milei esta semana, la creadora de ChatGPT Open AI. Renunciaron las principales caras del departamento que se encarga de alinear los objetivos y los tiempos del desarrollo tecnológico con las garantías para que cada nueva herramienta sea segura en el futuro y no provoque efectos indeseados. Y en el caso de la inteligencia artificial, en especial, no se escape del control humano.
"Dejar este trabajo es una de las cosas más difíciles que he hecho, pero necesitamos de manera urgente ver cómo dirigir y controlar los sistemas de inteligencia artificial que son más inteligentes que nosotros", tuiteó Jan Leike al anunciar su salida, apenas unos días después de su colega Ilya Sutskever. A ellos le siguieron varios otros miembros del equipo, lo que desató una lluvia de rumores y especulaciones, alimentadas en gran parte en el secretismo que siempre rodeó el trabajo de Open AI y los acuerdos de confidencialidad que firman sus empleados, aún tras irse de la empresa.
MÁS INFO
Por eso, el hilo de tuits de Leike encendió todas las alarmas en Silicon Valley. "Construir máquinas más inteligentes que los humanos es una tarea inherentemente peligrosa. Open AI tiene sobre sus hombres una enorme responsabilidad frente a toda la humanidad. Pero en los últimos años, la cultura y los procesos de seguridad han quedado relegados frente a los productos más brillantes", advirtió.
Y su voz no es la única. Otro empleado que renunció el mes pasado, Daniel Kokotajlo, habló con el portal de noticias Vox: "Open AI está entrenando sistemas de inteligencia artificial cada vez más poderosos con el objetivo último de superar la inteligencia humana en todos los aspectos. Esto podría ser lo mejor que le pasó a la humanidad, pero también podría ser lo peor si no avanzamos con cuidado". "Me uní a Open AI con la esperanza de que estuviera a la altura de la situación y actuara con más responsabilidad cuanto más se acercaba a conseguir una Inteligencia Artificial General (AGI, en inglés, un sistema hipotético que supera les niveles humanos). Pero de a poco nos fue quedando claro a muchos de nosotros que esto no sucedería. Gradualmente fui perdiendo confianza en el liderazgo de Open AI y sus habilidad para manejar AGIs. Entonces renuncié", agregó en referencia al CEO Sam Altman, con quien el presidente se verá este martes.
En una charla el año pasado, los fundadores de la ONG Human Tech y creadores del documental de Netflix que advirtió sobre los efectos nocivos de las redes sociales El Dilema Social advirtieron sobre el frenético avance del desarrollo de inteligencia artificial, con anuncios cada semana, y cómo ya para ese momento algunos desarrollos habían generado herramientas y capacidades que sus creadores no habían buscado. En su exposición, Tristan Harris y Aza Raskin alertaron que, de continuar este ritmo, las elecciones de noviembre próximo en Estados Unidos serán "las últimas elecciones humanas". "Los candidatos serán humanos, claro, pero ganará quien tenga el procesador más veloz", pronosticó Harris.