Facebook usa desde hace tiempo una IA propia para detectar y eliminar contenido de odio en su plataforma. Esta IA ha sido criticada en multitud de ocasiones, siendo acusada de no funcionar bien. Parece que la propia red social es consciente de este problema, según un nuevo artículo que se ha publicado en el Wall Street Journal. Esta IA no es capaz de eliminar este contenido de odio de la plataforma.
Facebook reconoce que su IA no elimina contenido de odio
Los algoritmos no tienen la capacidad de detectar o diferenciar contenidos como vídeos, discursos racistas o peleas de gallo. Esto hace que sea incapaz de detectar y proceder a eliminar esos contenidos de odio.
Grave problema
Facebook reconoce los problemas con esta IA, aunque dice que en los últimos tres años han conseguido disminuir los contenidos o discurso de odio en casi un 50%. Esto es algo que se debe a los sistemas de IA mejorados, que ayudan a una detección mejor y más rápida, permitiendo que se eliminen lo antes posible estos contenidos. Aunque el reporte que se ha publicado ahora desvela que esa detección procede en su gran mayoría del personal humano de la red social.
Son las personas que se encargan de moderar contenidos las que detectan esos discursos de odio y proceden a su eliminación de la red social. Apenas un 5% de los contenidos que incitan al odio han sido eliminados por la IA que la red social ha desarrollado para esta finalidad. Se trata de un claro fracaso para Mark Zuckerberg, que pierde así una de sus grandes bazas.
Facebook cambia su negocio publicitario para recolectar menos datos personales
Facebook sigue insistiendo en las ventajas de esta IA y en su buen funcionamiento, aunque cada vez son más las voces y los datos que apuntan a los problemas de funcionamiento de la misma. Por eso, habrá que ver si pronto anuncian cambios o incluso dejan de usar algunas de estas tecnologías en su lucha contra los contenidos de odio.