PORTAL IMPULSADO POR LAS EMPRESAS RESPONSABLES:

- Advertisement -
NoticiasDiscursos de odio en Threads 

Discursos de odio en Threads 

A poco más de un mes desde su lanzamiento como una alternativa a Twitter, Threads, la nueva plataforma social diseñada por Meta, la empresa matriz de Facebook, ya está recibiendo críticas por su falta de responsabilidad social en la regulación y políticas de contenido, de acuerdo con Mashable.

Si bien esta nueva red social es considerada como el competidor más cercano de Twitter, activistas y grupos de derechos humanos han alzado la voz denunciando la presencia de discursos de odio en Threads, así como la insuficiente implementación de medidas para abordar estos problemas y mantener un entorno seguro y saludable para los usuarios.

Persiste la falta de responsabilidad social en las plataformas digitales

La plataforma social recién lanzada enfrenta problemas de accesibilidad y funcionalidades, y ya está mostrando signos de discursos de odio y cuentas extremistas, similar a lo que ha afectado la reputación de Twitter. Sin embargo, es preocupante que no se hayan tomado medidas específicas ni se hayan establecido políticas claras en Threads para abordar este problema, de acuerdo con defensores de los derechos.

En una carta emitida por 24 organizaciones de derechos civiles, justicia digital y promoción democrática, como Media Matters for America y GLAAD, se critica a la empresa matriz de la plataforma por dar pasos atrás en la creación de un entorno digital más seguro para los usuarios. Las siguientes razones respaldan esta inquietud:

  1. No extender el programa de verificación de hechos de Instagram: En lugar de adoptar medidas para verificar la precisión de la información, Threads optó por no aplicar el programa de verificación de hechos de Instagram en su plataforma. Esto significa que no están haciendo un esfuerzo consciente para garantizar la veracidad de la información compartida en Threads.
  1. Ceder ante actores malintencionados: La plataforma ha cedido ante personas o entidades con intenciones negativas o perjudiciales, lo que puede permitir la propagación de discursos de odio, desinformación y otros contenidos perjudiciales.
  1. Eliminar una política de advertencia sobre desinformadores: Threads eliminó una política que solía advertir a los usuarios cuando estaban a punto de seguir a alguien conocido por difundir información falsa repetidamente. Esta eliminación podría permitir que los usuarios sigan a fuentes de desinformación sin estar conscientes de ello.
  1. Falta de pautas claras contra la incitación a la violencia: La plataforma no ha establecido pautas sólidas para prevenir y abordar la incitación a la violencia en su contenido. Esto plantea preocupaciones sobre la capacidad de la plataforma para proteger a los usuarios de contenidos peligrosos.
  1. Carencia de herramientas para analizar la actividad: A pesar de estar en funcionamiento, Threads todavía carece de herramientas básicas que permitan a los investigadores analizar y entender la actividad en la plataforma. Esto dificulta la supervisión y el control del contenido perjudicial.
  1. Lanzamiento simultáneo con despidos de moderadores: Threads se lanzó al mismo tiempo que Meta estaba despidiendo a moderadores de contenido y equipos de participación cívica. Estos equipos estaban destinados a prevenir la propagación de desinformación en la plataforma, lo que plantea interrogantes sobre las prioridades y el enfoque de la empresa en cuanto a la seguridad y la integridad del contenido.

Retórica neonazi, mentiras electorales, negación de COVID y cambio climático en Threads

Según la carta, en lugar de fortalecer sus políticas, Threads ha tomado medidas que van en dirección opuesta. Esto incluye cuentas que difunden difamaciones intolerantes, niegan los resultados de elecciones, propagan teorías conspirativas relacionadas con la COVID-19, llevan a cabo acoso dirigido, niegan la existencia de personas trans, promueven la misoginia y más.

En relación a esto, un informe de julio de la Liga Antidifamación (ADL), una organización judía dedicada a prevenir el antisemitismo, destaca que Facebook es la plataforma con mayor cantidad de reportes de incidentes de odio y acoso. Además, tanto Instagram como Facebook obtuvieron calificaciones bajas en el Índice de Seguridad en Redes Sociales 2023 de GLAAD. En contraste, Twitter fue catalogado como menos seguro en términos de seguridad en línea.

Además, como respuesta a las inquietantes observaciones sobre los discursos de odio en Threads y la generalizada falta de responsabilidad social, la Liga Antidifamación (ADL) ha comenzado a monitorear las políticas de la plataforma relacionadas con la incitación al odio, la protección y la privacidad.

Sin regulación, los problemas de seguridad en redes sociales persistirán

Desde su lanzamiento hasta la fecha, Threads no ha presentado sus propias directrices comunitarias ni políticas de conducta en su sitio web. En su lanzamiento, la plataforma anunció que seguiría los Lineamientos de la comunidad de Instagram en relación con el contenido y las interacciones en la aplicación.

En respuesta a las preocupaciones sobre discursos de odio en Threads, la empresa matriz ha destacado su compromiso con la seguridad y la integridad de la plataforma mediante el uso de herramientas de cumplimiento y revisión humana. Además, están considerando enfoques adicionales para abordar la información errónea en futuras actualizaciones.

«Nuestras herramientas líderes en la industria para garantizar la integridad y la revisión humana están integradas en Threads. Al igual que en todas nuestras aplicaciones, aplicamos políticas estrictas contra la incitación al odio […].»

Portavos de Meta.

En definitiva, el caso de los discursos de odio en Threads resalta un problema de larga data relacionado con la falta de regulación en las plataformas sociales.

La implementación de medidas para establecer entornos digitales responsables y seguros también conlleva beneficios positivos en términos económicos y comerciales para la plataforma. Por ejemplo, al contribuir a la reputación y sostenibilidad a largo plazo de Threads como un espacio en el que las marcas pueden confiar en que su presencia no se verá afectada por contenido perjudicial.

«Con el fin de salvaguardar a las marcas y los usuarios, Threads debe implementar salvaguardias que detengan el extremismo, el odio y las desinformaciones antidemocráticas», se puede leer en la carta. «Esta acción no solo beneficia a las personas, sino que también favorece a los negocios».

» Threads Logo PNG » de Meta tiene licencia CC BY-SA 4.0 .

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

PLATIQUEMOS EN REDES SOCIALES

Lo más reciente

DEBES LEER

TE PUEDE INTERESAR