PORTAL IMPULSADO POR LAS EMPRESAS RESPONSABLES:

- Advertisement -
Noticias¿Cuánto contenido de odio hay en Facebook?

¿Cuánto contenido de odio hay en Facebook?

La mayor empresa de medios sociales del mundo, Facebook, se encuentra bajo escrutinio debido a su política de abusos, en particular en torno a las elecciones presidenciales de noviembre en EE.UU.; publicó la estimación de moderación de contenidos en su informe trimestral.

Facebook dijo que tomó medidas sobre 22.1 millones de piezas de contenido de discursos de odio en el tercer trimestre, alrededor del 95% de las cuales fueron identificadas proactivamente, en comparación con los 22.5 millones del trimestre anterior.

La compañía define «tomar acción» como remover el contenido, cubrirlo con una advertencia, deshabilitar las cuentas o escalarlo a agencias externas.

Este verano, los grupos de derechos civiles organizaron un amplio boicot publicitario para tratar de presionar a Facebook para que actúe contra los discursos de odio.

La compañía aceptó revelar la métrica de los discursos de odio, calculada examinando una muestra representativa del contenido visto en Facebook, y someterse a una auditoría independiente de su historial de aplicación.

En una llamada a los reporteros, el jefe de seguridad e integridad de Facebook, Guy Rosen, dijo que la auditoría se completaría «en el transcurso de 2021».

La métrica de Facebook

La Liga Antidifamación, uno de los grupos detrás del boicot, dijo que la nueva métrica de Facebook aún carecía de suficiente contexto para una evaluación completa de su desempeño.

Todavía no sabemos a partir de este informe exactamente cuántas piezas de contenido están siendo marcandas y si se tomaron medidas o no. Esos datos son importantes, ya que hay muchas formas de discursos de odio que no están siendo eliminadas, incluso después de ser marcadas.

Todd Gutnick, portavoz de la ADL.

Twitter y YouTube propiedad de Alphabet Inc., no revelan métricas de prevalencia comparables.

Las medidas tomadas

Rosen informó que Facebook desde el 1 de marzo hasta las elecciones del 3 de noviembre, retiró más de 265,000 piezas de contenido de Facebook e Instagram en los Estados Unidos por violar sus políticas de interferencia con los votantes.

En octubre, Facebook dijo que estaba actualizando su política de discursos de odio para prohibir el contenido que niega o distorsiona el Holocausto, un cambio en los comentarios públicos que el director ejecutivo de Facebook, Mark Zuckerberg, había hecho sobre lo que debería ser permitido.

Facebook también comentó que tomó medidas sobre 19.2 millones de piezas de contenido violento y gráfico en el tercer trimestre, frente a 15 millones en el segundo. En Instagram, tomó medidas sobre 4.1 millones de piezas de contenido violento y gráfico.

A principios de esta semana, Zuckerberg y el CEO de Twitter Inc. Jack Dorsey fueron interrogados por el Congreso sobre las prácticas de moderación de contenidos de sus empresas, desde las acusaciones de los republicanos de parcialidad política hasta las decisiones sobre el discurso violento.

Elizabeth Culliford y Katie Paul comentan en Reuters que Zuckerberg dijo en una reunión con todo el personal que el exasesor de Trump en la Casa Blanca, Steve Bannon, no había infringido lo suficiente las políticas de la compañía como para justificar la suspensión cuando instó a la decapitación de dos funcionarios estadounidenses.

La compañía también ha sido criticada en los últimos meses por permitir que los grandes grupos de Facebook que comparten falsos reclamos electorales y retórica violenta ganen tracción.

Facebook dijo que sus tasas de búsqueda de contenido que infrinja las reglas antes de que los usuarios lo reporten, aumentaron en la mayoría de las áreas debido a las mejoras en las herramientas de inteligencia artificial y a la expansión de sus tecnologías de detección a más idiomas.

En un post Facebook comentó que la pandemia de COVID-19 seguía afectando a su personal de revisión de contenidos, aunque algunas medidas de aplicación estaban volviendo a los niveles anteriores a la pandemia.

Una carta abierta de más de 200 moderadores de contenido de Facebook publicada el miércoles acusó a la compañía de obligar a estos trabajadores a volver a la oficina y de «arriesgar innecesariamente» vidas durante la pandemia.

Las instalaciones cumplen o exceden la guía de un espacio de trabajo seguro.

Guy Rosen, jefe de seguridad e integridad de Facebook.

«Mark Zuckerberg interviewed by Financial Times, Scobleizer, and Techcrunch» by Robert Scoble is licensed under CC BY 2.0

1 COMENTARIO

  1. ¡Reciba mi saludo Afectuoso!
    Asilo Vivir de Amor F.B.P., Fundación de Beneficencia Privada, tiene por objetivo dar asistencia gratuita ejecutando actos humanitarios, sin propósito de lucro a Abuelitos INDIGENTES DEBIDAMENTE COMPROBADO.

    Constituida en 2001 y autorizada ante el SAT para extender recibos deducibles de impuestos.

    Nuestra misión es ofrecer a los abuelitos indigentes alojamiento, aseo personal, alimento, vestido, atención médica, aparatos ortopédicos, terapia ocupacional, actividades recreativas y la preparación de su alma para llegar a Dios.

    Nuestro asilo depende 100% de generosos colaboradores y donadores, quienes son los que hacen posible que podamos llevar adelante nuestros programas de ayuda a los abuelitos que viven en situación de abandono, es por eso que hoy nos permitimos solicitar de un donativo. La cantidad que ustedes destinen será para nosotros de gran bendición para mantener la calidad de vida de nuestros abuelitos.

    Agradecido de antemano por su valioso apoyo, generosidad y solidaridad quedo a sus apreciables órdenes.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

PLATIQUEMOS EN REDES SOCIALES

Lo más reciente

DEBES LEER

TE PUEDE INTERESAR