Conecta con nosotros

Hola, ¿Qué estás pensando?

El Intransigente
Facebook Mark Zuckerberg

MUNDO

Tras las críticas por el aumento de publicaciones que incitan al odio, Facebook propone que las empresas exijan transparencia en la red social

La polémica ha generado que los legisladores estadounidenses debatan cómo reformar una ley que protege a las empresas de la responsabilidad por el contenido generado por los usuarios.

El director ejecutivo de Facebook, Mark Zuckerberg, impulsó esta semana su idea de que las grandes tecnologías pueden autocontrolar el contenido mediante la publicación de informes y datos sobre qué tan bien la industria elimina las publicaciones objetables. El problema es que el gigante tecnológico ya tiene un sistema que ha hecho poco para mejorar la rendición de cuentas, según expertos externos.

«La transparencia puede ayudar a que las empresas rindan cuentas sobre la precisión y eficacia que están logrando», dijo Zuckerberg al Congreso de Estados Unidos el jueves. Facebook no tendría que cambiar mucho si tal sistema fuera la norma de la industria, agregó. «Como modelo, Facebook ha estado haciendo algo en este sentido todos los trimestres». El empresario ha impulsado su propuesta muchas veces en medio de llamadas cada vez más amplias para hacer que las empresas de redes sociales sean más responsables del contenido que publican los usuarios.

A medida que las plataformas tecnológicas son criticadas por un aumento de publicaciones dañinas, desde discursos de odio hasta amenazas de violencia, los legisladores estadounidenses están debatiendo cómo reformar la Sección 230 de la Ley de Decencia en las Comunicaciones, que protege a las empresas de la responsabilidad por el contenido generado por los usuarios. Si bien durante años se ha deliberado sobre una ofensiva contra las grandes tecnologías, el llamado a una acción renovada se produce después de que las empresas de redes sociales fueran criticadas por participar en la difusión de información errónea que alimentó los disturbios del Capitolio en enero y afirmaciones falsas sobre Covid-19. La audiencia del jueves no acercó al Congreso a una solución legislativa, lo que le dio a Facebook la oportunidad de influir en el resultado.

Sin embargo, los números no son tan transparentes como parecen. Facebook, por ejemplo, informó en febrero que más del 97% del contenido categorizado como discurso de odio fue detectado por su software antes de ser denunciado por un usuario, y que actuó en el 49% del contenido de intimidación y acoso en su red social principal en el cuarto trimestre antes de que los usuarios lo marcaran, en comparación con el 26% del tercer trimestre. Pero el denominador de la ecuación es lo que eliminó la Inteligencia Artificial (IA), no la cantidad total de contenido dañino. Según Bloomberg, la firma no comparte cuántas personas vieron las publicaciones antes de que fueran eliminadas, ni cuánto tiempo estuvieron activas.

Las trampas de la dependencia de Facebook de la IA fueron esbozadas a principios de este año por la junta de supervisión externa de la compañía, un panel independiente que Facebook creó para revisar sus decisiones de contenido más polémicas. La junta anuló recientemente la decisión de Instagram de eliminar una imagen que generaba conciencia sobre los síntomas del cáncer de mama, aunque la concienciación sobre el cáncer de mama era una excepción permitida a la política de desnudez de la empresa.

«La eliminación incorrecta de esta publicación indica la falta de una supervisión humana adecuada, lo que plantea preocupaciones sobre los derechos humanos», escribió la junta. «La detección y eliminación de esta publicación fue completamente automatizada». El panel solicitó que se notifique a los usuarios si su contenido fue eliminado por AI y se les dio la opción de que un humano revisara una apelación. Facebook ha dicho que ofrecer a los usuarios ese tipo de opción sería operativamente difícil. Los servicios de la red social tienen más de 3 mil millones de usuarios y alrededor de 15,000 moderadores de contenido, algunos de los cuales trabajan desde casa debido a la pandemia, y no pueden ver el contenido más sensible fuera de la oficina por razones legales.

La escasez de personal humano, así como la inteligencia artificial aún en desarrollo, plantea desafíos particulares para la red global de Facebook. «Necesitamos construir sistemas que manejen este contenido en más de 150 idiomas», dijo Zuckerberg el jueves. “Y tenemos que hacerlo rápido. Y, lamentablemente, hay algunos errores al intentar hacer esto de forma rápida y eficaz «. Los informes de transparencia de contenido no contienen datos sobre los idiomas o la geografía de las publicaciones contra las que Facebook está aplicando sus reglas. Tampoco dice nada sobre la desinformación, otra área clave de preocupación para los legisladores.

El Intrasigente, República Argentina © Copyright 2020 // Todos los derechos reservados