El Consejo de Supervisión Descriptivo pide a la Compañía que investigue cómo afectan los cambios moderados en los derechos humanos

El Consejo de Supervisión Meta exige que la compañía evalúe cómo los cambios modernos afectan las políticas moderadas sobre los derechos humanos para algunos usuarios, incluidos los de la comunidad LGBTQ.
El Consejo de Supervisión publicó 11 decisiones en el caso durante la noche el miércoles, que representa los primeros casos que tienen en cuenta la política y la aplicación de los cambios anunciados por Facebook e Instagram a principios de año.
La Junta Directiva escribió en un comunicado: «Nuestras decisiones se refieren a las preocupaciones relacionadas con las especificaciones el 7 de enero de 2025. Los cambios políticos y de cumplimiento se anunciaron a toda prisa, a la partida de los procedimientos normales, sin información general sobre lo que se debe en el campo de los derechos humanos, si lo hubiera, lo que fue llevado a cabo por la compañía realizada por la compañía».
El Consejo se refiere específicamente a la decisión de Meta de eliminar cierta protección LGBTQ de las reglas del discurso de odio en medio de una reforma más amplia de contenido moderado. A la luz de los cambios, Meta Now permite a los usuarios acusar a los miembros LGBTQ de la enfermedad, a pesar de la prohibición de este contenido de otra manera.
«Permitimos acusaciones de enfermedades mentales o anomalías cuando se basan en la orientación sexual o sexual, dado el discurso político y religioso sobre transgénero y homosexualidad», dice la política de Dead.
El Consejo escribió: «Dado que los cambios que se presentan en todo el mundo, la Junta Directiva afirma que ahora es necesario definir meta y abordar los efectos nocivos en los derechos humanos que pueden resultar de ellos».
Esto incluye una investigación sobre los posibles efectos negativos de los países mayoritarios globales, usuarios LGBTQ, menores e migrantes, según el comunicado. La Junta Directiva recomendó que actualice su progreso cada seis meses e informara los resultados públicamente «muy pronto».
Los 11 casos que fueron revisados por la Junta Directiva relacionados con los problemas de libertad de expresión indicados, y la Junta Directiva indicaron que tiene un «umbral alto» para restringir el discurso bajo el Marco Internacional de Derechos Humanos.
En dos casos relacionados con videos de discusión de identidad sexual, por ejemplo, la junta directiva apoyó la decisión de Meta de permitir que dos ángeles sobre la llegada de las personas de las personas transgénero a los baños y participar en eventos deportivos en los Estados Unidos
La Junta Directiva escribió: «A pesar de la naturaleza provocativa deliberada de las funciones, que las personas pueden encontrar erróneamente, de manera que muchos puedan encontrar un ataque, la mayoría de la Junta Directiva descubrió que se relaciona con cuestiones de interés general y no incitará a la violencia o la discriminación inminente».
El Meta Council también recomendó mejorar su aplicación contra las políticas de acoso y acoso, incluidas las reglas que requieren que los usuarios se denuncien.
El CEO de Meta Mark Zuckerberg describió los cambios en enero como un intento de «volver a nuestras raíces, centrarse en reducir los errores, simplificar nuestras políticas y restaurar la libre expresión».
Al hacer esto, también anunció una cancelación muerta del programa de examen de hecho. El sistema ha sido reemplazado por un proceso comunitario llamado Comunidad. Los usuarios de los usuarios de los usuarios para tomar notas o correcciones a publicaciones que pueden ser engañosas o carentes de contexto.
El programa de examen de hecho en los Estados Unidos ha terminado a principios de este mes y Meta comenzó a probar la ventaja de las notas de la sociedad el mes pasado. Utilicé un algoritmo de código abierto X para el sistema de clasificación que determina si se publican las notas.
Meta recomendó «la evaluación constante de la efectividad de las notas de la sociedad en comparación con la verificación de los hechos de los terceros, especialmente en los casos en que la rápida propagación de la información incorrecta crea riesgos para la seguridad pública».
Durante años, también se usó meta Tecnología de inteligencia artificial Para detectar y eliminar de manera proactiva el contenido del contenido antes de informarlo. El consejo dijo que Meta también debe evaluar si reducir la dependencia de la tecnología automática puede tener efectos en todo el mundo, especialmente en los países que enfrentan la crisis.
La Junta Directiva es operada independientemente de Meta y es financiada por una subvención por la Compañía. Puede proporcionar recomendaciones de políticas no vinculantes que, si se adoptan, pueden tener efectos a largo plazo de las plataformas de redes sociales de la compañía.