Covers de Virus interpretados por Miley Cyrus u Homero Simpson, cuentas irreales que reciben suscripciones en Only Fans, comentarios como "¿Viste al Papa Francisco con su campera de moda? Súper canchero". La inteligencia artificial ofrece un océano de escenarios alocados que generan sorpresa, risas y tantas otras emociones. Sin embargo, también implica el desafío de controlar sus alcances en el mundo del trabajo. Entre las visiones del apocalipsis y el rol del Estado.
La OCDE publicó un estudio que sostuvo que el 11% de los trabajadores españoles está en alto riesgo de perder su empleo por un robot o una inteligencia artificial. Las ocupaciones más afectadas ahora suponen el 28% de los empleos de la media de países de la OCDE, cuando antes se mantenían en el 14%. El 28% no implica que el "riesgo de automatización" se haya duplicado, sino que, al introducir las capacidades de la inteligencia artificial en la nueva ecuación para estimar su impacto, hay más ocupaciones en las que la automatización jugará un papel fundamental.
La compañía IBM estima que unos 7.800 empleos, el 30% de su personal, podrían reemplazarse por la nueva tecnología y sigue el ejemplo de monstruos tecnológicos como Google o Microsoft, que ya despidieron a miles de trabajadores para centrarse en el desarrollo de esta nueva tecnología. Este año, el Foro Económico Mundial publicó su informe "El futuro de los trabajos" y proyectó que casi 14 millones de trabajos podrían eliminarse para 2027, debido principalmente a una mayor automatización de muchas tareas laborales.
Este proyecto lo hacemos colectivamente. Sostené a El Destape con un click acá. Sigamos haciendo historia.
¿Apocalipsis del empleo o posibilidad de futuro?
La Universidad Nacional de Rosario (UNR) dicta la Tecnicatura en Inteligencia Artificial, la primera que se imparte en una institución pública del país. Ignacio Evangelista es el coordinador de esta área y conversó con El Destape acerca de la incidencia futura de la IA en el ámbito laboral.
MÁS INFO
"Es difícil predecir con certeza. El ritmo de avance de esta tecnología hace que nuestras estimaciones cambien constantemente y, aunque no preveo un escenario apocalíptico en términos de empleo, el futuro es incierto", señaló Evangelista. En cuanto a qué empleos se verán más afectados, afirmó que es "posible que sean aquellos que implican tareas más repetitivas", pero subrayó que "el potencial de la IA como herramienta creativa lleva a cuestionar si incluso las tareas que requieren creatividad podrían verse influenciadas".
Según su mirada, las habilidades "blandas, especialmente las interpersonales, probablemente mantendrán su relevancia, o incluso podrían cobrar más importancia". Los empleos que "requieren empatía en el trato entre las personas seguirán teniendo un valor significativo, independientemente de la expansión de la IA", reflexionó Evangelista. Y cerró: "Aprender sobre IA es el único camino para adaptarse a un mundo en constante cambio. Con la formación adecuada, podemos abrazar estas transformaciones en lugar de temerlas".
Por su parte, Juan Pablo Manson, docente en la tecnicatura que ofrece la UNR, sostuvo que "es natural la preocupación creciente, en la medida que la IA va permeando y demostrando su potencial en diversos rubros".
"Es un poco exagerado pensar en destrucción masiva de empleos, ya que el trabajo es un fenómeno social, político, cultural, y sobre todo humano, y allí los procesos de transformación son más paulatinos. De todos modos no tengo dudas de que estamos al inicio de cambios importantes en lo laboral, con ganadores y perdedores, en los años por venir", sentenció. En este sentido, lanzó un interrogante: "Algo a tener en cuenta es la generación de nuevos trabajos que no conocíamos. Por ejemplo, la gobernanza de la IA. ¿Quién va a administrar en una empresa el uso, el correcto funcionamiento, calidad, y la ética de esta tecnología?".
Los estudiantes tienen inquietudes al ver el rápido avance. Incluso a pesar de estar estudiando inteligencia artificial, "algunos preguntan si tendrán trabajo al terminar la carrera", soltó Manson. Su respuesta es que "están en el mejor de los mundos, ya que conocer a esta `criatura`, saber como entrenarla y utilizarla en aplicaciones específicas, es lo que necesitará el mercado laboral".
La autonomía del humano y el rol de los Estados
De acuerdo a una publicación de la Comisión Europea, los humanos que interactúan con los sistemas de IA "deben ser capaces de mantener una autonomía plena y efectiva sobre sí mismos". Los sistemas de IA "no deberían subordinar, coaccionar, engañar, manipular, condicionar o dirigir a los seres humanos de forma injustificada". En cambio, "deberían aumentar, complementar y potenciar las aptitudes humanas", remarca el documento.
¿Y qué sería un ejemplo virtuoso del uso de la IA? El Ministerio de Transporte de Canadá se encarga de promover un transporte seguro, eficiente y ambientalmente responsable. Cada año, el equipo de Identificación de Carga Aérea Previa a la Carga del Ministerio recibe casi un millón de registros de carga aérea previa a la carga por año, los cuales contienen información como nombre y domicilio del remitente, nombre y domicilio del destinatario, peso y número de piezas.
Cada registro puede incluir entre 10 y 100 campos, dependiendo del transportista aéreo y el modelo de negocio del expedidor. Incluso si un empleado trabajara a un ritmo poco realista de un registro por minuto, no tendría ni siquiera tiempo suficiente para revisar el 10 por ciento.
Hasta la fecha, muy pocos gobiernos tienen los recursos dedicados a verificar los registros de la carga aérea en busca de riesgos antes de la carga, y de entre aquellos que los tienen, ninguno utiliza la IA. Canadá decidió mejorar esta situación y, de ese modo, aumentar la seguridad del transporte aéreo de carga adoptando la inteligencia artificial para mejorar los procesos y procedimientos, liberando de estar forma a los empleados para que trabajen en tareas más importantes.
La dependencia comenzó explorando el uso de la IA para revisiones basadas en riesgos de los registros de carga aérea, que podrían ampliarse a otras áreas en caso de que fueran exitosas. El interrogante es cómo aplicar modelos de esta categoría en la Argentina y qué papel jugará el Estado para regular los "desafíos artificiales".
Fernando Peirano es el presidente de la Agencia Nacional de Promoción de la Investigación, el Desarrollo Tecnológico y la Innovación (Agencia I+D+i). Según su mirada, "existe una alta probabilidad que los ingresos se definan aún más por el nivel de educación y la tarea que cada uno ejerza, con lo cual puede ser un mercado laboral donde no falte trabajo", pero "sí se agudice la polarización entre empleos en condiciones más vulnerables y empleos bien remunerados donde los trabajadores posan de situaciones muy distintas a las del resto".
"Se necesita una regulación de la inteligencia artificial para graduar el ritmo de avance, mitigar problemas y riesgos, por ejemplo, asociados a algoritmos poco transparentes o sesgados o mal entrenados", enfatizó el funcionario. Al mismo tiempo, agregó que "en algún sentido, también podría expandirse los servicios asociados a los cuidados y a la atención al cliente y todo lo que tenga que ver con tareas no rutinarias".
"También una regulación que favorezca que algunos servicios como el acceso a la salud o el acceso a la educación se vean beneficiados por estos cambios a partir de una redistribución del aumento de productividad que genere en algunas actividades más rutinarias", amplió. En esa línea, remarcó que esos aumentos de productividad deben apuntar a "homogeneizar la calidad de estos servicios, eliminando cierto grado que existe actualmente de heterogeneidad cuando uno requiere educación o requiere salud".
De momento, las perspectivas son prescriptivas. La Unión Europea ya dio paso para hacer cumplir una regulación estricta de la IA, redactando nuevas salvaguardas que prohibirían una amplia gama de casos de uso peligrosos. Por ejemplo, prohibiciones de programas masivos de reconocimiento facial en lugares públicos y algoritmos policiales predictivos que intentan identificar a futuros delincuentes utilizando datos personales.
El esqueleto de la normativa también requiere la creación de una base de datos pública de sistemas de IA de "alto riesgo" implementados por autoridades públicas y gubernamentales para que los ciudadanos europeos puedan estar informados sobre cuándo y cómo se ven afectados por esta tecnología.