Facebook usa IA para combatir la propagación del terrorismo

Anunciado por Facebook en una entrada de blog que su IA mejora en la detección de contenido relacionado con terroristas y, posteriormente, en su eliminación. Personalmente, nunca tuve que desplazarme por un feed de Facebook y encontrar mensajes que promovieran a grupos terroristas como ISIS y Al Qaeda, pero puedo imaginar lo aterrador que puede ser.

A través de los años Facebook hizo preguntas sobre cuán responsable es él de restringir los mensajes en su plataforma, pero ahora parece haber hecho algo importante para detenerlo.

Históricamente, Facebook ha dependido de sus usuarios para denunciar contenido que promueva el terrorismo. Sin embargo, ahora utiliza cada vez más la inteligencia artificial para identificar mensajes y eliminarlos en una hora, algo que gustará a los críticos que creen que el gigante de las redes sociales no está haciendo lo suficiente para combatir la difusión de material relacionado con el terrorismo en línea.

Uno de esos críticos, Hans-Georg Maassen, jefe de la Agencia de Inteligencia Interna de Alemania, acusó a Facebook de difundir mensajes de odio y noticias falsas, y acusó a la empresa de ser "la quinta autoridad en hacer afirmaciones, pero hasta ahora" no dispuesta "a asumir ninguna responsabilidad social". "

El blog de Facebook parece querer cambiar la narrativa y mostrar a países tan escépticos como Alemania que Facebook realmente está haciendo algo.

LEER MÁS: Facebook admite jugar con las emociones de los usuarios

“Hoy el 99,9% del terror está ligado a ISIS y Al Qaeda El contenido que eliminamos de Facebook es contenido que descubrimos antes de que alguien de nuestra comunidad nos lo etiquetara y, en algunos casos, antes de que aparezca en el sitio."- escribieron en un blog Monica Bickert, jefa de política global y Brian Fishman, jefe de contraterrorismo. “Hacemos esto principalmente mediante el uso de sistemas automatizados como la comparación de fotos y videos y el aprendizaje automático de texto. Tan pronto como nos damos cuenta del contenido terrorista, eliminamos el 83% de las copias cargadas dentro de la hora de la descarga”.

Actualmente, el algoritmo se enfoca solo en el contenido de Al Qaeda e ISIS, ya que la IA ha sido entrenada para estudiar estructuras de oraciones y funciones del lenguaje exclusivamente en las dos organizaciones. Si bien esto sigue siendo un progreso, plantea preguntas sobre de dónde proviene el contenido de otras organizaciones extremistas regionales como EDL y Britain First en el Reino Unido.

Facebook argumenta que estas organizaciones regionales no pueden ser atacadas a través de la plataforma de IA. Para que la inteligencia artificial de Facebook comprenda cuáles son estos mensajes, los expertos del foro conjunto de Facebook deberán identificar los mensajes extremistas en su plataforma y etiquetarlos.

En junio, Facebook, Microsoft, Twitter y YouTube crearon el Foro mundial en línea sobre la lucha contra el terrorismo. La cooperación de los gigantes de las redes sociales tenía como objetivo detener la propagación del terrorismo y el extremismo en sus plataformas. A través de este grupo, Facebook y su personal buscan notar cambios en la forma en que las organizaciones terroristas usan las redes sociales para difundir propaganda y luego actuar sobre esos hallazgos.

Solo el tiempo dirá si algo de esto detendrá la difusión de material relacionado con el terrorismo en el sitio web. Pero, con suerte, seguirán cumpliendo con su deber de promover un entorno en línea libre de mensajes de odio y contenido extremista.


Si quieres conocer otros artículos similares a Facebook usa IA para combatir la propagación del terrorismo puedes visitar la categoría Seguridad.

Artículos de interés

Subir

Si continuas utilizando este sitio aceptas el uso de cookies. Más información