Facebook debería ofrecernos un
punto de vista opuesto
The wall
street journal- lunes, 20 de junio de
2016
Imagine si pudiera oprimir un
botón en Facebook que transformara todos los puntos de vista conservadores que
encuentra en progresistas, o viceversa. Se daría cuenta de que las noticias que
aparecen en su muro no tienen nada que ver con las del muro de su vecino.
Haga la prueba. A partir de datos
de Facebook, The Wall Street Journal creó una herramienta en línea que permite
explorar dos corrientes de publicaciones en vivo que, con toda probabilidad,
jamás vería en la misma cuenta de Facebook. Una proviene de publicaciones donde
la mayoría de los enlaces compartidos cayeron en la categoría de “muy
conservadores” en un estudio de Facebook, mientras que el otro se basa en
fuentes cuyos enlaces fueron clasificados, en su mayor, parte como “muy
progresistas”.
Uno puede pasar horas absorto en
el estudio de estas realidades alternativas. Lo que veo es una oportunidad
perdida para que la tecnología derribe barreras en un momento en el que reina
la división en la política de Estados Unidos. Ahora que se puede acceder a más
información que nunca en la web, ¿por qué otros puntos de vista nos parecen tan
ajenos?
Un motivo es que el muro de
noticias de Facebook es administrado por un algoritmo de personalización que le
muestra la información que, en su opinión, usted desea. Es una máquina bien
aceitada para promocionar los selfies durante la puesta del sol y los videos de
gatos, no la discusión de temas políticos. Entonces, ¿por qué no añadir un
botón que exprese puntos de vista opuestos a los míos que me deje ver un
titular desde el otro lado del espectro político?
Sin dudas, el punto de vista
contrario puede llegar a ser enervante, en especial si no sólo está en
desacuerdo, sino que también sabe que contiene errores. Pero no soy el único
que me siento un poco perturbado por la simplificación de nuestras perspectivas
políticas. El presidente estadounidense, Barack Obama, expresó recientemente su
consternación por un país en el que tanto demócratas como republicanos viven en
cajas de resonancia en las que “sólo escuchan a las personas con las que están
de acuerdo”. El comentarista conservador Glenn Beck expresó una opinión similar
y dirigió su frustración contra la red social: “Facebook es, de cierta forma,
la única experiencia que tenemos en comunidad. Necesitamos ver de qué está
hablando ‘el otro lado’”.
En todo el mundo, los miembros de
Facebook pasan unos 50 minutos al día en la red social y sus servicios
relacionados, Messenger e Instagram. En Estados Unidos, más de 60% de los
usuarios de Facebook ven noticias de índole política en su muro, en particular
los progresistas, según el centro de estudios Pew Research Center. Facebook ha
invitado a medios de comunicación serios, entre ellos The Wall Street Journal,
a publicar “artículos instantáneos” en forma directa.
La red social está reemplazando
el kiosco de la esquina, donde las portadas de diferentes revistas y periódicos
estaban una al lado de la otra. En el caso de Facebook, no es fácil reproducir
esa experiencia, ni modificar lo que aparece en su muro. Por cierto, Facebook
no tiene la culpa de los comentaristas ignorantes o de la intolerancia, que nos
han acompañado desde el origen de las noticias. Sin embargo, tampoco puede
desligarse por completo de su responsabilidad por su mano invisible en las
noticias.
¿Queremos realmente que las
empresas de tecnología influyan en nuestras noticias? La verdad es que ya lo
hacen.
Facebook se metió en un lío de
proporciones hace poco cuando surgieron acusaciones de que los contratistas que
editan una sección de titulares que marcan tendencia suprimían noticias conservadoras.
(Facebook ha negado las acusaciones). No obstante, una parte mucho más
importante de nuestra experiencia en Facebook es el muro, que fue creado por
seres humanos y acarrea sus propios sesgos. Con el objetivo de que el usuario
pase más tiempo en la red social, utiliza unos 100.000 indicios suyos, de sus
amigos y del resto del mundo para determinar si quiere leer más o menos sobre
violencia con armas o si lo que ocurre con las Kardashian es más importante que
lo que pasa en Kurdistán. Es un canal de información muy importante, pero
sabemos muy poco sobre su funcionamiento.
Durante los últimos años se ha
producido un acalorado debate sobre si la tecnología de personalización impide
la presentación de puntos de vista alternativos y tergiversa la realidad al
promover teorías de la conspiración. El activista de causas progresistas Eli
Pariser lo bautizó como “la burbuja del filtro”. Es un problema difícil de
cuantificar, pero sus variaciones son múltiples. Google, por ejemplo,
personaliza los resultados de las búsquedas, Amazon hace lo propio con sus
recomendaciones de libros y Netflix hace énfasis en sugerencias personalizadas
en detrimento de las búsquedas.
Facebook dice que nosotros somos
el problema. La revista académica Science publicó el año pasado un artículo
escrito por los investigadores de Facebook y evaluado por pares, que mostró
que, en promedio, casi 29% de las noticias que aparecen en el muro de Facebook
trascienden líneas ideológicas. Los investigadores concluyeron que el algoritmo
de la compañía no crea una burbuja de filtros, sino que se limita a reflejar la
que creamos nosotros. Otros científicos sociales discreparon tanto en la
metodología como en las conclusiones del estudio, comparando el argumento con
decir que las armas no matan a las personas, sino que las personas lo hacen.
El tema más importante, sin
embargo, es cómo la tecnología nos puede ayudar a ampliar nuestro horizonte
ideológico. Eso fue lo que inspiró a Jon Keegan, un colega de The Wall Street
Journal, a crear la herramienta “Blue Feed, Red Feed” (en EE.UU. los demócratas
se identifican con el azul y los republicanos se identifican con el rojo).
El resultado es un producto que
Facebook no ha hecho para sus usuarios: un muro diseñado para resaltar
opiniones políticas opuestas. Después de un recorrido por las opiniones que no
comparte, su propio muro de noticias parece distinto, no sólo nos falta
información, sino que nos perdemos los temas sobre los cuales nuestros vecinos
están hablando.
Aunque nunca deberíamos depender de
Facebook como fuente exclusiva de noticias, hay maneras de modificar la burbuja
filtrada al interior de la red social.
Primero, es bueno entender cómo
las notas de política llegan a su muro. Vienen de dos lugares: amigos que
publican o comparten contenido y fuentes de noticias a cuyas páginas de
Facebook les puso “Me gusta”. A partir de esas fuentes, el algoritmo de
Facebook presenta publicaciones en un orden que cree que le va a gustar.
Para aumentar el rango de fuentes
de noticias en su muro, puede darle “Me gusta” a más medios de noticias y
opinión. Esto diversificó mi muro, aunque sólo un poco en el corto plazo. Si
opta por seguir este camino, tenga en cuenta que los “Me gusta” podrían ser
vistos por sus amigos. (Puede hacer que sus “Me gusta” sean privados en la
configuración).
Facebook y la política: cinco
cosas que se deben saber.
Facebook ha adoptado una serie de
pequeños pasos para mejorar su muro de noticias. Cuando hace clic en una
publicación con un artículo, aparece abajo una caja de “Artículos
relacionados”, con notas que podrían ampliar su punto de vista. Hace unos meses
“Me gusta” dejó de ser la única opción para expresar su opinión sobre un
artículo. Ahora también puede mostrarse “triste” o “enojado”, lo que puede ser
útil en un año electoral en EE.UU.
Aunque no es posible personalizar
con precisión su muro de noticias, puede utilizar las recientemente ampliadas
preferencias del muro de noticias, en la configuración, para priorizar las
personas o las fuentes de noticias que desearía ver primero. También encontrará
la herramienta de “descubrir”, en la que Facebook enumera fuentes adicionales
que podrían encajar con sus intereses. En mi caso, sin embargo, las sugerencias
de Facebook raramente contradijeron mis fuentes típicas de noticias.
Facebook lanzó hace poco un video
en el que alentaba a sus miembros a “mantener una mente abierta” durante las
elecciones en EE.UU. al buscar otros puntos de vista. Sugirió el uso de su caja
de búsquedas para hallar temas de noticias, que presenta una amplia gama de
fuentes. Sin embargo, la función de búsqueda de Facebook no es la más fácil de
usar y no hay forma de elegir un tema para que aparezca en el muro de noticias.
“El punto no es cambiar de
parecer. Es estar abierto a eso”, dijo Facebook. Estoy completamente de
acuerdo, aunque como producto Facebook dificulta, en lugar de facilitar, que
sus usuarios hagan esto.
“Blue Feed, Red Feed” demuestra
que Facebook tiene todos los datos y conocimiento para presentarnos puntos de
vista con los cuales no estamos necesariamente de acuerdo. Si The Wall Street
Journal creó una herramienta que nos expone a diferentes puntos de vista,
¿entonces por qué no lo puede hacer la mayor red social del mundo?
No hay comentarios:
Publicar un comentario