YouTube, por ejemplo, aplica hashes a material dañino que previamente ha roto las pautas de comunidad

El deber de la protección de contenido

20 de octubre de 2019


La jefe de EMEA de YouTube, Cécile Frot-Coutaz, declaró que proteger a los usuarios del contenido dañino y extremista era la "prioridad número uno" de la plataforma para compartir videos. Sus comentarios siguen a un aumento en los esfuerzos de las empresas de medios sociales para garantizar que sus plataformas sean lugares más seguros después de una serie de controversias que han afectado a los sitios principales en los últimos años.

Sin embargo, la vigilancia del contenido es un negocio complejo y que actualmente depende en gran medida, aunque no exclusivamente, del autogobierno. Todas las plataformas tienen sus propias reglas sobre lo que es inaceptable y la forma en que se espera que los usuarios se comporten entre sí.

Las estadísticas recientes, disponibles a través de informes trimestrales de transparencia, muestran que las empresas están logrando detectar y eliminar grandes porcentajes de contenido dañino en un período de 24 horas, y gran parte de esto antes de que se haya hecho una sola vista.

También ha habido una creciente dependencia de las tecnologías de detección automatizadas para eliminar el contenido dañino y existen dos métodos principales. El primero implica la coincidencia automática por máquina y se basa en la identificación de contenido que ya se sabe que es perjudicial.

YouTube, por ejemplo, aplica hashes (huellas digitales) a material dañino que previamente ha roto las pautas de la comunidad para que no se vuelva a cargar.

Esta tecnología también se usa para evitar la carga de imágenes dañinas que han aparecido en otros sitios, al permitir que YouTube interactúe con bases de datos compartidas de la industria para aumentar el volumen de contenido que sus máquinas pueden atrapar en la etapa de carga.