TikTok ha comunicado que más de 175 millones de personas en Europa utilizan la plataforma cada mes. En paralelo, prevé invertir cerca de 2.000 millones de euros a escala global antes de que finalice el 2024 para reforzar la seguridad de su comunidad.
Esta información se dio a conocer durante el Foro Europeo de Seguridad, celebrado esta semana en el nuevo Centro de Transparencia y Responsabilidad de Dublín. En el evento se abordaron actualizaciones en los productos, la colaboración con expertos externos y el impulso del diálogo entre distintos actores del sector, con el objetivo de mejorar la protección de los usuarios y sus datos.
En cuanto a la verificación de edad, la empresa establece un mínimo de 13 años para acceder a la plataforma. Con el fin de hacer cumplir este requisito, aplica medidas como mecanismos neutrales para el control de la edad, limitaciones en la creación de nuevas cuentas tras fallar en las verificaciones, y el uso de tecnología (léase IA) para detectar perfiles sospechosos, además de contar con moderadores formados para identificar y eliminar cuentas que no cumplan con la edad mínima. Cada mes se retiran alrededor de seis millones de cuentas en todo el mundo por no cumplir esta norma.
La garantía de la edad de los usuarios es un asunto complejo que involucra a múltiples partes. Por ello, este año TikTok se asoció con organizaciones como WeProtect Global Alliance, Centre for Information Policy Leadership y Praesidio Safeguarding, además de otras plataformas y entidades, para debatir enfoques conjuntos que refuercen la seguridad de los menores respetando sus derechos.
Con dicho objetivo, la compañía china evalúa el uso de tecnología de aprendizaje automático (machine learning) para mejorar la detección de cuentas potencialmente gestionadas por menores de 13 años. Si se sospecha que un perfil no cumple con la edad mínima, se remite a un moderador especializado para su revisión y posible eliminación, manteniendo una vía de apelación en caso de error.
Paralelamente, tras consultar a expertos, la compañía ha adoptado cambios en el uso de filtros para los contenidos creados por adolescentes. Una investigación realizada junto con la organización Internet Matters analizó la influencia de estos recursos en la percepción de la propia identidad entre los jóvenes.
El estudio señaló la diferencia entre los filtros para las imágenes meramente humorísticos, y aquellos destinados a modificar la apariencia. Como respuesta, se implementarán limitaciones en el uso de ciertos filtros para menores de 18 años, se ofrecerá más información sobre cómo transforman la imagen, y se actualizarán las directrices para los creadores de filtros en la plataforma.
Asimismo, TikTok ampliará el acceso a líneas de ayuda locales cuando un usuario denuncie contenido relacionado con el suicidio, la autolesión, el odio o el acoso. Esta iniciativa, que se aplicará en trece países europeos, facilitará apoyo profesional mientras se evalúa el contenido denunciado. El despliegue se basa en una experiencia previa en Francia, donde la colaboración con la organización E-enfance fue reconocida por las autoridades locales.
En el apartado de la protección de datos, TikTok continúa implementando el programa Project Clover, concebido para reforzar las medidas de seguridad sobre la información de los usuarios europeos. Recientemente se alcanzaron hitos significativos, como la puesta en marcha del centro de datos en Noruega y el inicio de la migración de los datos de usuarios europeos a este enclave. Así, la información se almacena por defecto en servidores ubicados en Estados Unidos, Irlanda y Noruega.
Finalmente, la firma ha introducido barreras de seguridad adicionales para controlar el acceso a los datos y ha empezado la monitorización continuada por parte de la empresa NCC Group. Estas medidas se suman a la supervisión independiente de la ciberseguridad, con el fin de vigilar la integridad y el cumplimiento de los protocolos establecidos.