RSE

Supervisión de contenido en Facebook

Supervisión de contenido en Facebook

Facebook sigue haciendo esfuerzos para detectar contenido inapropiado en su plataforma…

El año 2018 fue un periodo complicado para la red social más grande del mundo: Facebook. Y es que desde que la firma protagonizó un escándalo sobre el mal uso de su privacidad y una empresa británica vinculada a la campaña electoral del presidente Donald Trump, usara y recopilara millones de datos de usuarios de la red, así como la difusión de noticias falsas desde su portal, entre otras cosas, Facebook tiene una mala reputación.

Sin embargo, la firma comandada por Mark Zuckerberg sigue haciendo todo lo posible por recuperar su reputación y enmendar cualquier problema que surgió.

Por ello, la red social sigue alineando sus esfuerzos para detectar cualquier contenido inapropiado dentro de su plataforma.

Recientemente presentó una propuesta donde describe la forma en que operará su nueva junta de supervisión de contenidos, la cual se dedicará, entre otras funciones, a apelar decisiones vinculadas al contenido que se publica en la red social. Así, los usuarios podrán revertir las decisiones de Facebook sobre permitir o eliminar ciertas publicaciones de otros usuarios.

La junta estará conformada por hasta 40 expertos de diversos países de todo el mundo, pero no incluirá a trabajadores antiguos o actuales de Facebook ni a funcionarios gubernamentales.


Facebook sigue alineando sus esfuerzos para detectar cualquier contenido inapropiado dentro de su plataforma.

Twittea esta frase.


Sin embargo, en un borrador del proyecto explica que los profesionales pertenecientes a la junta tienen una amplia experiencia en temas como libertad de expresión, periodismo, derechos humanos, privacidad, seguridad informática y otras especialidades importantes.

Facebook dijo que la lista de miembros de la junta se hará pública próximamente, y que la permanencia de los expertos en la misma tendrá una vigencia de tres años.

Respecto a las decisiones, la firma dijo que éstas no serán reveladas públicamente y que no se comprometerá la privacidad de los usuarios involucrados en dichas decisiones.

La junta destacará sus opiniones previas antes de emitir su decisión final, un hecho que ocurre en varios tribunales judiciales.

La publicación de este borrador tiene como objetivo indagar en la respuesta de los usuarios y abrir un canal para que las partes interesadas independientes presenten sus propuestas sobre cómo debe funcionar esta junta de supervisión de contenido.

A medida que desarrollamos la junta, queremos asegurarnos de que sea capaz de emitir un juicio independiente, transparente y respete la privacidad. Después de la consulta inicial y la deliberación, hemos propuesto un alcance y una estructura básica que se describen en este proyecto de carta. También hemos identificado las decisiones clave que aún deben tomarse, como la cantidad de miembros, la duración de los términos y cómo se seleccionan los casos.

Trataremos de responder estas preguntas durante los próximos seis meses en una serie de talleres en todo el mundo donde reuniremos expertos y organizaciones que trabajarán en una variedad de temas como la libertad de expresión, la tecnología y la democracia, la justicia procesal y los derechos humanos. Organizaremos estos talleres en Singapur, Delhi, Nairobi, Berlín, Nueva York, Ciudad de México y muchas más ciudades, solicitando comentarios sobre la mejor manera de diseñar una junta que respalde nuestros principios y genere juicios independientes en casos difíciles.

Cabe mencionar que en noviembre, la firma mencionó un plan para mejorar la manera en que la empresa administra sus políticas de contenido, asegurando que formaría un grupo de supervisores independientes para algunas de las decisiones más debatidas en la red social.

Su plan presentado hace unos meses era identificar el contenido inapropiado con Inteligencia Artificial y de esta forma reducir su visibilidad.

Según declaró Zuckerberg, el trabajo de la empresa sería “mantener bajo el mal uso, mejorar constantemente con el tiempo y anticiparnos a las nuevas amenazas”, como se publicó en una nota dentro de la red social. Por ello, las medidas tomadas por Facebook consisten en “eliminar más contenido dañino, evitar que el contenido límite se propague, dar a las personas mayor control sobre su experiencia y crear supervisión y transparencia independiente en los sistemas”.

Con la Inteligencia Artificial Facebook eliminaría contenido que “glorifica la violencia o celebra el sufrimiento o la humillación de los demás”. Además pretende que se denuncie de forma proactiva el contenido potencialmente problemático e incluso actuar de manera automática e algunos casos.

Según Zuckerberg, con Inteligencia artificial se identifica y elimina un porcentaje mucho mayor de contenido dañino de forma más rápida.

Acerca del autor

Janneth Del Real

Licenciada en Periodismo por la Escuela de Periodismo Carlos Septién. Ha trabajado en el periódico Mas por Más, revista SuperMujer, Pulso Pyme, Linio y en el Periódico AM de Querétaro. Actualmente desarrolla contenidos para Expoknews.

Mujer positiva que siempre busca el para qué de las cosas.

Dejar un comentario


By submitting this form, you are consenting to receive marketing emails from: Expok, Caballocalco No. 42 Int 28, CDMX, 04100, http://www.expok.com.mx. You can revoke your consent to receive emails at any time by using the SafeUnsubscribe® link, found at the bottom of every email. Emails are serviced by Constant Contact