Facebook elimina mensajes proterroristas – ExpokNews

Aproximadamente la mitad de los contenidos favorables con terroristas han sido borrados por la red social, ¡entérate!

Durante todo el 2018 Facebook ha dado mucho de qué hablar por todas las dificultades que se le han a lo largo del año. Es así que ahora con el fin de corregir su reputación y mejorarla, está haciendo diversas acciones a favor de ésta.

Una de esas acciones es eliminar contenidos que enlacen a grupos terroristas como el Estado Islámico (EI) o AL Qaeda y sus organizaciones afiliadas con su red social.

Es así que durante todo el año, según Facebook, ha eliminado a más de 14 millones de contenidos de ese tipo. En una entrada en el blog de la compañía, la jefa de Políticas Globales, Monika Bickert, y el responsable de Política Antiterrorista, Brian Fishman, indicaron que la gran mayoría de mensajes fueron eliminados a partir de abril, especialmente durante el segundo trimestre del año.


Facebook ha eliminado más de 14 millones de contenidos proterroristas.

Twittea esta frase.


Esto es lo que informaron:

La propaganda terrorista en línea es un fenómeno bastante nuevo; El terrorismo en sí no lo es. En el mundo real, los grupos terroristas han demostrado ser muy resistentes a los esfuerzos contra el terrorismo, por lo que no debería sorprender a nadie que la misma dinámica sea cierta en plataformas sociales como Facebook. Cuanto más hacemos para detectar y eliminar el contenido terrorista, más astutos se vuelven estos grupos.

El Departamento de Justicia de los EE.U. Descubrió  recientemente a un presunto partidario de ISIS que advierte a otros que tengan cuidado al publicar propaganda en Facebook, señalando nuestras métricas de eliminación de terrorismo del primer trimestre de 2018 como evidencia de que empujar propaganda en Facebook se estaba haciendo más difícil. El patrocinador de ISIS sugirió que sus compañeros propagandistas intenten adquirir acceso a cuentas legítimas que se habían comprometido para crear una solución alternativa. Otros han intentado evitar la detección cambiando sus técnicas, abandonando las cuentas antiguas y creando nuevas, desarrollando un nuevo lenguaje de código y dividiendo los mensajes en múltiples componentes.

A veces anticipamos estas tácticas, y en otros casos reaccionamos a ellas. Pero no hay duda de que la dinámica ha fortalecido nuestra capacidad para combatir con éxito el terrorismo en línea. Tenemos cuidado de no revelar demasiado sobre nuestras técnicas de aplicación debido a los cambios adversos de los terroristas. Pero creemos que es importante darle al público algún sentido de lo que estamos haciendo, lo que incluye informar inmediatamente a las autoridades en los casos excepcionales en que identificamos la posibilidad de un daño inminente.

Hemos brindado información sobre nuestras técnicas de cumplimiento en el pasado y queremos describir en términos generales algunas nuevas tácticas y métodos que están resultando efectivos.

Ahora utilizamos el aprendizaje automático para evaluar las publicaciones de Facebook que pueden indicar la compatibilidad con ISIS o al-Qaeda.

Por lo que se puede resumir que durante el primer trimestre del 2018, se eliminaron 1.9 millones de contenidos proterroristas, una cifra que se disparó hasta los 9.4 millones entre abril y junio, y que volvió a reducirse a 3 millones en el tercer trimestre.

De acuerdo con los responsables de la empresa con sede en Menlo Park, California, «en el mundo real, los grupos terroristas han demostrado una gran resiliencia ante los esfuerzos antiterroristas, así que no debería sorprender a nadie que esa misma dinámica se traslade a plataformas sociales como Facebook».

Facebook sabía que se inflaban los números de video... ¿irresponsabilidad

Facebook por su parte, dijo que se encuentra usando sistemas de aprendizaje automático (machine learning, en inglés) para detectar y eliminar mensajes que muestren apoyo al EI o Al Qaeda de la forma más rápida posible.

Para la empresa, anteriormente estas técnicas ya han tenido un impacto sustancial, puesto que, de acuerdo con sus datos, si en el segundo trimestre la media de tiempo que se tardó en eliminar nuevos contenidos fue de 14 horas, solo tres meses después ese tiempo se había reducido de forma drástica hasta «menos de dos minutos».

Del total de 14 millones de contenidos favorables con terroristas que la red social ha eliminado este año, aproximadamente la mitad son mensajes «antiguos», es decir, colgados antes de 2018, pero que seguían presentes en la red social, mientras que el resto fueron colgados a partir de enero.

Facebook contra el terrorismo

Hace un año, Facebook anunció que podría combatir el terrorismo con inteligencia artificial, esto lo lograría con un equipo de 150 personas que se encuentran enfocadas en luchar contra el terrorismo dentro de la red social, incluyendo un grupo de académicos, analistas y exagentes del orden público.

Facebook busca director de Derechos Humanos

La red social dijo que podía identificar el contenido terrorista al estar asociado con investigadores y gobiernos.

Así como al usar inteligencia artificial para combatir los ataques terroristas por internet y detectar contenidos terroristas antes de que se viralicen a través de la comunidad. Sin embargo, la inteligencia artificial tan solo trabaja para combatir el contenido terrorista del ISIS, Al Qaeda y aliados. Se espera que próximamente se expanda.

 

Acerca del autor

Janneth Del Real

Licenciada en Periodismo por la Escuela de Periodismo Carlos Septién. Ha trabajado en el periódico Mas por Más, revista SuperMujer, Pulso Pyme, Linio y en el Periódico AM de Querétaro. Actualmente desarrolla contenidos para Expoknews.

Mujer positiva que siempre busca el para qué de las cosas.