Gracias Elon, pero el problema es otro

03 de abril, 2023 | 17.26

La reciente carta abierta en la que un grupo de especialistas y magnates tecnológicos hace hincapié sobre los peligros de la Inteligencia Artificial ha logrado el objetivo de llamar la atención sobre un problema que es grave y la amerita. Justamente es por eso que un amplio colectivo de científicas y científicos de América Latina publicamos hace unas semanas otra carta abierta sobre el tema, la Declaración de Montevideo

La versión sajona tiene sin duda algunos puntos importantes:

  • Los sistemas de inteligencia artificial tienen riesgos para las sociedades y la humanidad, como se ha mostrado en investigaciones y ha sido reconocido por laboratorios de esta área. La IA podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y gestionarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo.
  • [...]  debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los enriquecedores? [...] ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos por la voluntad popular. 
  • [...] Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4. 

Este contenido se hizo gracias al apoyo de la comunidad de El Destape. Sumate. Sigamos haciendo historia.

SUSCRIBITE A EL DESTAPE

Por supuesto que es bienvenida la admisión, por parte de la industria misma, de riesgos que venimos señalando desde hace tiempo. También es bienvenida, aunque tardía para la industria tecnológica, esta "puesta en valor" de la democracia. Coincidimos en que hay algo de antidemocrático si decisiones tan trascendentes no son tomadas por los órganos elegidos por los pueblos, y también en la necesidad de establecer mecanismos regulatorios (tanto a nivel nacional como internacional), para asegurar que las tecnologías de IA tengan un nivel de riesgo entendible y manejable, y principalmente, para garantizar que aporten valor social, y no sean soluciones que beneficien a unos pocos en perjuicio de las mayorías. Efectivamente es inaceptable, como señalan los firmantes del Norte, que se desarrollen sistemas cada vez más poderosos que "nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable".

No podemos dejar de resaltar, sin embargo, la soberbia que implica emplazar a la democracia con sólo seis meses. Gracias señores de la tecnología, cuánta generosidad de su parte, ciento ochenta días. Pero vamos más allá. Como señalamos en la Declaración de Montevideo, "la evaluación y mitigación de riesgos e impactos debe ser parte del proceso de diseño y debemos implementar instrumentos para prevenir, detectar tempranamente e incluso suspender la implementación de tecnologías cuyos riesgos sean inaceptables". Si el estado actual del avance de la IA resulta alarmante, lo razonable sería suspender las aplicaciones actuales de estas tecnologías, no pedir una mora en la investigación y desarrollo de las subsecuentes. 

A su vez, notamos algunas ausencias importantes: para empezar, el fenómeno de la concentración. Esta carta abierta podría haber sido un email. Un email dirigido a las pocas compañías con capacidad para producir tales sistemas, que, para sorpresa de nadie, son los grandes gigantes de la tecnología que hoy en día concentran cada vez más poder. Tampoco aparece la consecuencia directa, que es el incremento de la desigualdad. Incluso las proyecciones más optimistas, que prometen que se crearán más trabajos que los que se destruirán, permiten leer con facilidad en cuál de los "equipos" quedará América Latina: en una región donde las grandes mayorías no acceden a los estudios superiores, con ya enormes índices de desigualdad, es ingenuo pensar que la destrucción de las ocupaciones tradicionales será absorbida por la creación de empleos que requieren largas formaciones, muchas veces de postgrado.

Otro gran ausente son los derechos de las personas, que en muchos casos están consagrados en normas, cuyo cumplimiento no es optativo ni "sugerido". La Declaración de Montevideo es tajante al respecto: "La implementación de IA debe cumplir con los principios rectores de los Derechos Humanos, respetar y representar diferencias culturales, geográficas, económicas, ideológicas, religiosas entre otras, y no reforzar estereotipos o profundizar la desigualdad".

Hay otra afirmación en la carta sajona que parece progresista: "Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables". El hecho de que un sistema pueda desarrollarse, incluso si sus riesgos están controlados, no significa que deba desarrollarse, entre otros motivos, porque el hecho de que sus efectos sean positivos, es una apreciación subjetiva. Las sociedades se componen de grupos heterogéneos cuyos intereses no siempre coinciden, entonces cabe preguntarse: ¿positivos para quién?

Vale la pena resaltar, una vez más, que no hay dicotomía entre innovación y regulación. Baste como ejemplo la industria farmacéutica, fuertemente regulada, fuertemente innovadora, y con enormes márgenes de ganancia. Como plantea la declaración de Montevideo: “Proponemos desarrollar criterios y estándares que nos permitan calificar estas tecnologías según sus riesgos de manera clara y transparente, para avanzar en políticas públicas que protejan el bien común sin obturar los beneficios del desarrollo tecnológico. Desde la concepción de una solución tecnológica basada en IA y no después de creada, debemos preguntar cuál es el valor social que aporta y los riesgos que conlleva, con una mirada informada de la idiosincrasia latinoamericana".

Citando a la investigadora Sasha Costanza-Chock: “Los sistemas de IA son entrenados sobre grandes cantidades de datos generados durante siglos de trabajo creativo e intelectual por todas las personas cada día. Estos sistemas deberían pertenecer a la gente, a toda la humanidad, y no a unas pocas corporaciones con fines de lucro”. Estos datos incluyen los que todos los días se van desde nuestras computadoras y teléfonos por los cables submarinos de Las Toninas. También incluye a la inteligencia humana provista por las personas que trabajan en condiciones precarias y dañinas para que los sistemas de IA actuales funcionen como los estamos experimentando en los últimos tiempos. 

Lo dice la Declaración de Montevideo y lo reiteramos acá: No hay valor social en tecnologías que simplifican tareas a unas pocas personas generando alto riesgo para muchas otras, limitando sus oportunidades de desarrollo, su acceso a recursos y sus derechos.

Por todo lo anterior, gracias Elon, pero la moratoria debe ser sobre la puesta en producción de todas las tecnologías de IA basadas en grandes datos, incluyendo instancias con las que algunos sectores de la industria vienen experimentando públicamente sin ningún control (como ChatGPT, GTP-4 y sus aplicaciones). Y no sólo por seis meses sino por todo el tiempo que sea necesario para que nuestras sociedades acuerden y pongan en práctica democráticamente las normas que protejan a las personas frente a estas tecnologías para asegurar su bienestar, garantizar sus derechos y que no redunden en mayor desigualdad.
 

*Beatriz Busaniche, Fundación Vía Libre / Universidad de Buenos Aires

*Fernando Schapachnik, Fundación Sadosky / Instituto de Ciencias de la Computación UBA-CONICET

*Laura Ación, Instituto de Cálculo, Universidad de Buenos Aires-CONICET / MetaDocencia

*Laura Alonso Alemany, Universidad Nacional de Córdoba

*Luciana Benotti, Universidad Nacional de Córdoba-CONICET