Las redes sociales, bajo lupa: la Unión Europea pide los algoritmos a YouTube, Snapchat y TikTok
Lo relacionado con la privacidad en las diferentes plataformas sociales, cada vez está más en boca de todos. La UE toma cartas en el asunto para cuidar y proteger a los ciudadanos del viejo continente frente a este tipo de servicios online.
Y es que multitud de estamentos gubernamentales consideran que las funciones de privacidad y seguridad existentes en determinadas redes sociales, no son suficientes. Aquí hablamos de plataformas tan conocidas como TikTok o YouTube. Tanto es así que en estos instantes la Comisión Europea está presionando a las principales plataformas de estas características para que sean mucho más transparentes.
Aquí se refieren a que deberían dar más información acerca de cómo sus algoritmos recomiendan contenidos a los usuarios que tienen cuenta. De ahí que en estos momentos la Comisión ha mandado solicitudes de información a los máximos responsables de estas plataformas en virtud de su nueva Ley de Servicios Digitales o DSA. En concreto, se han puesto en contacto con los administradores de YouTube, Snapchat y TikTok.
Esta es una petición que se ha llevado a cabo debido a que la mencionada Comisión Europea quiere conocer los detalles del funcionamiento interno de los sistemas de recomendación. Estos son los empleados por las empresas internamente, y también se quiere aclarar cómo se evitaron los posibles riesgos asociados a todo ello. Esto incluye el contenido ilegal tales como drogas o mensajes de odio, daños a las elecciones, y abuso de menores.
Basándose en esta petición por parte de la DSA, tanto a la web YouTube como Snapchat tendrían que proporcionar información sobre los estándares que impulsan sus algoritmos de recomendación. A todo esto se le suman las medidas adoptadas para reducir la publicación de contenidos que pueden tener efectos adversos sobre la salud mental de los usuarios.
La UE cuida de los ciudadanos al usar YouTube o TikTok
De manera paralela, se ha pedido a TikTok que envíe las políticas internas que impiden el comportamiento poco adecuado que podrían influir en las elecciones o los debates. También han perdido a la red social de vídeos que proporcione más información sobre las medidas que adoptó para evitar la manipulación del servicio por parte de actores maliciosos.
Deben aclarar cómo funcionan sus algoritmos internos para mitigar los riesgos relacionados con las elecciones, y las falsas noticias de los medios de comunicación. Para que nos hagamos una idea, las tres empresas mencionadas tienen hasta el 15 de noviembre para responder a las consultas de la Comisión.
De este modo, las respuestas ayudarán a los reguladores a determinar si las empresas cumplen con las normas de la DSA sobre transparencia. Todo ello en torno a la creación algorítmica de los riesgos contra los usuarios. Según la nueva ley, la falta de cooperación o las respuestas incompletas podrían dar lugar a multas cuantiosas.
Asimismo, las nuevas normas de la DSA también introducen requisitos de transparencia para las plataformas digitales, que tienen más de 45 millones de usuarios activos mensuales. Un alto funcionario de la UE afirma que la investigación de la Comisión está enviando un mensaje urgente para cambiar las prácticas relacionadas con los sistemas de recomendación de contenidos.