Facebook y los sistemas de reputación personal
FORBES- 20 de septiembre de 2018
Cuando una persona reporta un
contenido, Facebook también evalúa que tan confiable es el usuario para decidir
si la publicación continua o no.
El caso Cambridge Analytica, las
toneladas de noticias falsas interfiriendo en los procesos electorales y los
mensajes de odio enviados de forma masiva, han hecho que la confianza en
Facebook no atraviese por su mejor momento.
Luchar contra las noticias falsas
no sólo es complicado en el sentido tecnológico, puesto que la plataforma
funciona en modo autoservicio, en el que prácticamente cualquier persona puede
hacer una campaña publicitaria de cualquier índole y de forma anónima; también
en el ámbito cultural, ya que muchas veces los usuarios descalifican
información real por ir en contra de sus propias creencias.
Por ello, la plataforma decidió
implementar un sistema de reputación de los usuarios para evaluar que tan
confiables son y cómo califican las noticias y los contenidos que comparten.
Dicho sistema, le permite a Facebook saber si una persona puede compartir
contenido falso o, por el contrario, calificar como spam contenido legítimo
porque no coincide con su ideología.
Así, cuando un usuario reporte un
contenido, también será evaluado para saber qué tan confiable es la consigna.
Esto le ayudaría a Facebook a
establecer criterios que permitan reconocer el comportamiento de los usuarios
ante los contenidos que comparten con el fin de evitar que un contenido
legítimo deje de circular porque un grupo de personas con poca credibilidad lo
ha calificado mal o a detener información falsa que ha sido compartida por
usuarios con una calificación baja.
En una entrevista realizada con
The Washington Post, Tessa Lyon, product manager de la compañía y a la vez
encargada de combatir la desinformación digital, explicó que el sistema otorga
una calificación a los usuarios que va de 0 a 1 dependiendo del grado de confiabilidad
que tengan.
“Si la gente sólo reportara lo
falso, entonces el trabajo sería mucho más sencillo, ya que todo el tiempo los
usuarios denuncian aquello con lo que no están de acuerdo”, explica Lyon en la
entrevista.
No obstante, existe una gran
opacidad al respecto, puesto que no queda claro cuál es el fin de la
evaluación, qué elementos intervienen en la escala, ni quién tiene acceso a
ella, ni con qué otros indicadores se cruzan para obtener información. Al
parecer, se trata de una métrica que recopila el comportamiento de los usuarios
y trata de estudiarlos, más que una batalla contra la desinformación.
Las críticas no se hicieron
esperar, ya que Lyon se apresuró a decir que se encuentra lejos del sistema de
credibilidad social que funciona en China. Dicho sistema recopila información
del comportamiento digital de las personas, aunque también lo hace de sus
cuentas bancarias, de la religión que profesa, de los socios comerciales y de
múltiples factores que no han sido revelados.
La manera en la que funciona el
sistema desarrollado por el gobierno chino es misteriosa, ya que no queda claro
si se trata sólo de agencias gubernamentales o bien, si hay una colaboración
entre plataformas privadas dedicadas al análisis de big data.
De acuerdo con la información
disponible, el sistema crea un puntaje de reputación que premia o castiga a los
ciudadanos de acuerdo con los estándares gubernamentales. Así, una persona con
baja reputación no será admitida en los colegios de excelencia, tampoco se le
permitirá viajar dentro o fuera de China, ni obtener ciertos puestos de trabajo
o bien, la velocidad de acceso a la red puede ser disminuida.
Si bien el sistema de
calificación de la reputación personal de Facebook funciona al reportar
contenidos, no queda claro qué es lo que califica y de qué manera podría
incidir sobre la vida digital de las personas. Al final, la confiabilidad de
una persona no puede reducirse a un conjunto de algoritmos.
No hay comentarios:
Publicar un comentario