Desbloquea el Editor’s Digest gratis
Roula Khalaf, editora del FT, selecciona sus historias favoritas en este boletín semanal.
El regulador de medios del Reino Unido ha expuesto sus expectativas de que las empresas de tecnología protejan a los usuarios menores de edad de contenidos dañinos en línea a medida que entre en vigor una nueva legislación estricta.
El miércoles, Ofcom describió más de 40 medidas, como la verificación de la edad y una mejor moderación, que los servicios en línea deben implementar para mantener seguros a los menores de 18 años y cumplir con los requisitos legales entrantes.
«Nuestros códigos propuestos asignan firmemente la responsabilidad de mantener a los niños más seguros en las empresas de tecnología», dijo la directora ejecutiva de Ofcom, Melanie Dawes. «Tendrán que dominar algoritmos agresivos que envían contenido dañino a los niños en sus feeds personalizados e introducir controles de edad para que los niños obtengan una experiencia adecuada para su edad».
Estos códigos forman parte de la Ley de Seguridad en Línea del Reino Unido, aprobada en octubre y considerada uno de los marcos legislativos más amplios y estrictos para Internet.
Las medidas «van mucho más allá de los estándares actuales de la industria», dijo Dawes, y agregó que, una vez que las leyes entren en pleno vigor, Ofcom «no dudará en utilizarlas». [its] poderes para hacer que las plataformas rindan cuentas”.
La ley otorga a Ofcom poderes sustanciales para imponer multas elevadas y responsabilidad penal a las empresas de tecnología que no protejan a los menores de 18 años. El documento de Ofcom llega días después de que el regulador tomara medidas enérgicas contra Onlyfans, una plataforma de streaming utilizada por trabajadores sexuales, por temor a que el proceso de verificación de edad del sitio no bloquee el acceso de los niños a la pornografía.
Los códigos de Ofcom se aplicarán a todos los servicios de Internet a los que puedan acceder los niños, incluidas las redes sociales y los motores de búsqueda. En particular, los servicios en línea deben evitar que los niños encuentren material suicida y autolesivo, así como pornografía y asuntos relacionados con los trastornos alimentarios. Las empresas deben minimizar la exposición de los niños a otros contenidos dañinos, como violencia, acoso y desafíos virales peligrosos.
«Esto es urgente», dijo Gill Whitehead, quien dirige la implementación de seguridad en línea de Ofcom. «Por lo tanto, estamos trabajando con las empresas más grandes y riesgosas de manera individualizada para asegurarnos de que comprendan lo que se necesitará para cumplir con esta nueva ley y que estén implementando algunas de esas cambios tan pronto como sea posible.”
Las plataformas tecnológicas también están obligadas a identificar a una persona responsable del cumplimiento de estas normas de salvaguardia.
Recomendado
Whitehead dijo que los grupos tecnológicos más grandes ya estaban asumiendo sus nuevas responsabilidades y haciendo cambios con anticipación.
Por ejemplo, destacó que Meta, propietaria de Facebook e Instagram, cambió sus funciones de mensajería en enero para evitar que los adolescentes sean contactados por personas a las que aún no siguen o con las que no están conectados.
Dijo que estos cambios se hicieron para abordar el acoso, ya que los depredadores a menudo adoptan un enfoque «disperso» para enviar mensajes a los niños.
Instagram y TikTok han introducido recientemente herramientas de verificación de edad que estiman la edad de los usuarios basándose en selfies para evitar que menores de 13 años utilicen sus productos.
Los códigos anunciados el miércoles están ahora abiertos a consulta y estarán finalizados dentro de un año. Después de eso, los servicios tendrán tres meses para realizar evaluaciones de riesgos antes de cumplir con las reglas.