Meta difuminará los mensajes de Instagram con desnudos para proteger a los adolescentes

11 de abril, 2024 | 05.11

Instagram probará funciones que difuminen los mensajes que contengan desnudos para proteger a los adolescentes y evitar que los estafadores potenciales lleguen a ellos, dijo el jueves su matriz Meta en un intento de disipar las preocupaciones sobre el contenido nocivo en sus aplicaciones.

El gigante tecnológico está sometido a una creciente presión en Estados Unidos y Europa por las acusaciones de que sus aplicaciones crean adicción y han alimentado problemas de salud mental entre los jóvenes.

Meta dijo que la función de protección de los mensajes directos de Instagram utilizaría el aprendizaje automático en el dispositivo para analizar si una imagen enviada a través del servicio contiene desnudos.

Este contenido se hizo gracias al apoyo de la comunidad de El Destape. Sumate. Sigamos haciendo historia.

SUSCRIBITE A EL DESTAPE

La función se activará por defecto para los usuarios menores de 18 años y Meta avisará a los adultos para animarles a activarla.

"Como las imágenes se analizan en el propio dispositivo, la protección contra desnudos también funcionará en los chats cifrados de extremo a extremo, donde Meta no tendrá acceso a estas imágenes, a menos que alguien decida informarnos de ellas", explica la empresa.

A diferencia de las aplicaciones Messenger y WhatsApp de Meta, los mensajes directos en Instagram no están encriptados, pero la empresa ha dicho que planea desplegar la encriptación para el servicio.

Meta también dijo que estaba desarrollando tecnología para ayudar a identificar las cuentas que podrían estar potencialmente involucradas en estafas de extorsión sexual y que estaba probando nuevos mensajes emergentes para los usuarios que podrían haber interactuado con tales cuentas.

En enero, el gigante de las redes sociales había declarado a (link nL4N3DZ30R) que ocultaría más contenidos a los adolescentes en Facebook e Instagram, añadiendo que así les resultaría más difícil encontrar contenidos delicados como el suicidio, las autolesiones y los trastornos alimentarios.

Fiscales generales de 33 estados de EE.UU., entre ellos California y Nueva York, demandaron a la empresa en octubre (link https://www.reuters.com/legal/dozens-us-states-sue-meta-platforms-harming-mental-health-young-people-2023-10-24/), alegando que engañó repetidamente al público sobre los peligros de sus plataformas.

En Europa, la Comisión Europea ha solicitado información a (link https://www.reuters.com/technology/meta-snap-must-detail-child-protection-measures-by-dec-1-eu-says-2023-11-10/) sobre cómo protege Meta a los niños de contenidos ilegales y nocivos.