Cuando la actriz estadounidense Natalie Morales realizó una búsqueda en Google de "Latina teen" (adolescente latina) en 2019, describió en un tuit que todo lo que encontró fue pornografía. Su experiencia podría ser diferente ahora.
La unidad de Alphabet Inc ha recortado los resultados explícitos en un 30% en el último año en las búsquedas para "adolescente latina" y otras relacionadas con la etnia, la preferencia sexual y el género, dijo el miércoles a Reuters Tulsee Doshi, jefa de producto del equipo de Inteligencia Artificial (IA) responsable de Google.
Doshi dijo que Google puso en marcha un nuevo software de IA, conocido como BERT, para interpretar mejor cuándo alguien busca resultados subidos de tono o más generales.
Este contenido se hizo gracias al apoyo de la comunidad de El Destape. Sumate. Sigamos haciendo historia.
Además de "adolescente latina", otras consultas que ahora muestran resultados diferentes son "la chef lesbienne", "dormitorio universitario", "instructora de yoga latina" y "autobús de lesbianas", según Google.
"Todo ha sido un conjunto de resultados excesivamente sexualizados", dijo Doshi, añadiendo que eran potencialmente impactantes para muchos usuarios.
Morales no respondió de inmediato a una solicitud de comentarios a través de un representante. Su tuit de 2019 decía que había estado buscando imágenes para una presentación, y que había notado un contraste en los resultados de solo "adolescente", que describió como "todo lo normal de un adolescente", y pidió a Google que investigara.
El gigante de las búsquedas lleva años abordando los comentarios sobre contenidos ofensivos en sus herramientas publicitarias y en los resultados de las búsquedas de "hot" y "ceo". También recortó los resultados sexualizados de "chicas negras" después de que un artículo de 2013 de la autora Safiya Noble planteara su preocupación por las representaciones dañinas.
El miércoles, Google añadió que en las próximas semanas utilizaría una herramienta de IA llamada MUM para empezar a detectar mejor cuándo mostrar recursos de apoyo relacionados con el suicidio, la violencia doméstica, la agresión sexual y el abuso de sustancias.
MUM debería de distinguir en expresiones como "lugares de suicidio en Sídney" una consulta para saltar y no de viaje, y ayudar con preguntas más largas, como "por qué me atacó cuando le dije que no lo amaba" y "las formas más comunes de suicidio", señaló Google.
(Editado en español por Javier López de Lérida)