YouTube retiró cerca de 1.67 millones de canales y el total de los videos que estaban disponibles dentro de ellos. (Foto: EFE)
YouTube retiró cerca de 1.67 millones de canales y el total de los videos que estaban disponibles dentro de ellos. (Foto: EFE)

YouTube retiró más de 58 millones de videos y 224 millones de comentarios durante el tercer trimestre debido a violaciones a sus políticas, según indicó Google, dueño de la plataforma, en un esfuerzo por mostrar avances para solucionar problemas de contenido.

En dicha línea, el buscador de contenidos audiovisuales retiró cerca de 1.67 millones de canales y el total de los videos que estaban disponibles dentro de ellos (50.2 millones).

Cabe señalar que funcionarios gubernamentales y grupos de interés en Estados Unidos, Europa y Asia han estado presionando a YouTube, Facebook y otros servicios de redes sociales para que identifiquen y retiren rápidamente contenido extremista o de odio, que sus críticos han dicho que incita a la violencia.

La Unión Europea (UE) ha propuesto que los servicios online enfrenten elevadas multas a menos que retiren material extremista dentro de la hora posterior a recibir una orden gubernamental de hacerlo.

Un funcionario del Ministerio de Asuntos Internos de India, que habló el jueves bajo condición de anonimato, dijo que las firmas de redes sociales acordaron atender los pedidos de las autoridades para remover contenido inaceptable dentro de las 36 horas.

Este año, YouTube comenzó a emitir reportes trimestrales sobre los esfuerzos de cumplimiento. Respecto a los últimos trimestres, la mayor parte del contenido retirado fue spam, informó la compañía.

Herramientas automatizadas de detección ayudan a YouTube a identificar rápidamente el spam, el contenido extremista y la desnudez. Durante septiembre, el 90 % de los casi 10,400 videos retirados por extremismo violento así como los 279,600 videos removidos por temas de seguridad infantil recibieron menos de 10 visitas, según la plataforma de videos. 

Pero YouTube enfrenta un desafío mayor con material que promueve retórica de odio o comportamiento peligroso.

Las tecnologías automatizadas de detección para esas políticas son relativamente nuevas y menos eficientes, así que YouTube depende de los usuarios para reportar videos o comentarios potencialmente problemáticos. Esto significa que el contenido podría ser ampliamente visto antes de ser retirado.

Por ello, Google agregó miles de moderadores este año, expandiéndolos a más de 10,000, con la esperanza de revisar de manera más rápida los reportes de los usuarios.

Fuente: Reuters

Contenido sugerido

Contenido GEC