Internet
Google no confía en su IA y utilizará más personas para moderar los vídeos de YouTube, ¿por qué?
Los de Mountain View apartan un poquito a la inteligencia artificial que, hasta ahora, ha sido la responsable de aprobar o bloquear los vídeos que se suben a su plataforma.
Publicidad
Google siempre ha confiado en sus algoritmos para realizar casi cualquier tarea que cree que es posible automatizar y, en muchas ocasiones, le ha servido de excusa perfecta para no tener que dar demasiadas explicaciones. Y en YouTube, ese sistema de filtros es especialmente importante ante la extraordinaria cantidad de vídeos que se suben a cada minuto: hasta 400 horas. ¿Cómo es posible llevar algún tipo de control?
Aunque Google siempre ha mantenido un equipo de moderación compuesto por personas, el trabajo más importante lo lleva la inteligencia artificial que es capaz de ver lo que hay dentro de un vídeo y decidir si es apto o no para publicarse. Y aunque los índices de error suelen ser elevados, los de Mountain View prefieren pecar de exceso para mantener a sus "usuarios protegidos".
El problema es que durante la pandemia, muchos de esos moderadores tuvieron que quedarse en casa por lo que fueron reemplazados por los algoritmos y las máquinas, que pasaron a tomar todo el papel protagonista, etiquetando todos aquellos vídeos que respetaban las condiciones de uso y dejando a un lado los que no podían publicarse. ¿El resultado? Un aumento significativo en el índice de contenidos rechazados, que según YouTube, alcanzó la cifra de 11,4 millones entre junio y agosto.
¿Qué va a hacer YouTube?
Cuando hablamos de que la plataforma de vídeos recibe cada minuto 400 horas de contenidos, esa cifra de 11,4 millones de piezas rechazadas podrían parecer pocas, pero no lo son. Se trata del número más alto de vídeos retirados desde que se inaugurara la plataforma en el año 2005, lo que ha hecho pensar a los de Mountain View que las personas deben volver al proceso para poner un poco de sentido común.
Y es que la propia compañía, a través de su director de productos, ha reconocido que “una de las decisiones que tomamos [al comienzo de la pandemia], cuando se trataba de máquinas que no podían ser tan precisas como los humanos, [es que] íbamos a errar por el lado de asegurarnos que nuestros usuarios estuvieran protegidos". Aún a pesar de que eran conscientes de que se produciría una cantidad mayor de vídeos rechazados.
Este posicionamiento de YouTube tuvo como resultado que durante esa moderación solo del algoritmo, el número de apelaciones exitosas por parte de los usuarios se duplicó, pasando del 25 al 50% a lo largo del periodo de pandemia. Ese recurso de apelar es el único camino que le queda a un creador de contenidos para convencer a la plataforma de que su vídeo es apto y respeta las condiciones de uso. Todo lo anterior ha debido convencer a los norteamericanos de que el procedimiento de utilizar solo algoritmos no está exento de errores.
De momento, los planes de Google pasan porque haya cada vez más humanos en esos procesos de moderación, no solo para verificar que se cumplen las normar marcadas en las condiciones de uso, sino también para luchar contra las fake news y la desinformación. Sobre todo ahora que en EE.UU. hay a la vista unas elecciones presidenciales para "el primer martes después del primer lunes de noviembre".
Publicidad