YouTube es una de las plataformas de ocio más importantes de España y del mundo, con millones de usuarios visitando, día tras día, esta red de Google para ver vídeos bajo demanda o contenido de todo tipo en directo.
Hace un tiempo YouTube comenzó a utilizar un algoritmos para identificar vídeos que no son adecuados para su red, como contenidos que buscan desinformar o incluso vídeos relacionados con la pederastia o con contenido sensible que no deberían estar presentes.
La plataforma usó estos algoritmos para eliminar vídeos desde el principio de la pandemia pero ha visto que, al menos de momento, esta tecnología es insuficiente y volverá a recurrir a los moderadores humanos para mejorar el trabajo y eliminar todos aquellos vídeos que no deben estar presentes en YouTube.
Un análisis rápido... pero poco preciso
La parte positiva del algoritmo de inteligencia artificial de YouTube es que es muy rápido a la hora de analizar vídeos, por lo que puede ser un buen primer paso para detectar algunos contenidos inadecuados.
Sin embargo, a la hora de juzgar qué vídeos debían estar presentes en la plataforma y cuáles no este algoritmo fallaba bastante y, de hecho, durante la pandemia borraron un total de 11,4 millones de vídeos que se tuvieron que volver a publicar porque, efectivamente, ni desinformaban ni daban ningún tipo de datos falsos cumpliendo con todas las formas.
Añadiendo de nuevo el trabajo humano se espera que ahora YouTube pueda detectar con mayor precisión los contenidos fraudulentos para eliminarlos de una vez por todas de la red.