Cargando...
La plataforma, que en los últimos meses tuvo que hacer frente a diferentes controversias, amplía así su grupo de control, última medida de una serie de iniciativas tomadas hace un año para lograr filtrar contenidos en un sitio donde se cargan 400 horas de nuevas filmaciones por minuto.
Ese camino ya se intentó en Facebook.
“Los auditores humanos se vuelven esenciales, tanto para remover contenidos como para adiestrar los sistemas de inteligencia artificial; el juicio humano es fundamental para tomar decisiones que tengan en cuenta el contexto de cualquier contenido”, explicó Susan Wojcicki, CEO de YouTube.
Wojcicki añadió que, desde junio, fueron revisados manualmente alrededor de dos millones de vídeos con contenidos violentos de extremistas, contribuyendo a entrenar la tecnología ’machine learning’ (aprendizaje automático) para identificar vídeos similares en el futuro.
“Seguiremos haciendo crecer de manera significativa nuestros equipos -subrayó Wojcicki- con el objetivo de llevar en 2018 a más de 10.000 el número total de personas que en Google trabajan para dirigir los contenidos que podrían violar nuestras normas ”.
La plataforma, además del control humano, recuerda que se confía también en sistemas de inteligencia artificial que “permiten remover alrededor del 70% de los vídeos de extremismo violento dentro de ocho horas de carga”.
YouTube está también trabajando sobre los comentarios y en intensificar la colaboración con organizaciones que en todo el mundo se ocupan de la seguridad de los niños “para señalar comportamientos y cuentas de depredadores sexuales”.
La referencia está en las polémicas que estallaron recientemente sobre frases con fondo pedófilo en las búsquedas de vídeos y en contenidos inapropiados para niños enmascarados de cuentos de hadas y dibujos animados. Otro tema sensible para Google y para YouTube es el de publicidad, la porción más sustancial de sus ganancias.
En los últimos meses, la compañía quemó casi 23.000 millones de dólares por algunos comerciales de grandes empresas terminaron en vídeos con contenidos violentos o terroristas. “Anticipamos criterios más estrictos y mayores controles manuales, y reforzaremos nuestro equipo de anunciantes de publicidad para asegurarse de que los anuncios aparezcan solo donde está previsto”, explicó Susan Wojcicki.
"Queremos proteger nuestra comunidad y ser un paso adelante respecto a los malintencionados”, concluyó la número 1 de la sociedad.
El camino tomado por YouTube es similar al recorrido por Facebook hace unos meses. De hecho, el fundador de Facebook, Mark Zuckerberg, decidió no basarse sólo en algoritmos, sino también en fortalecer un equipo de control, 3.000 auditores a los 4.500 ya existentes.
Un desafío no menor para una plataforma que cuenta 2.000 millones de usuarios.