https://www.facebook.com/wilber.carrion.1 - Twitter: @wilbercarrion  
  Su apoyo es bienvenido, cuenta: BBVA Continental- 0011 0175 0200256843  

lunes, 20 de junio de 2016

Facebook

Facebook debería ofrecernos un punto de vista opuesto


The  wall street journal-  lunes, 20 de junio de 2016  
Imagine si pudiera oprimir un botón en Facebook que transformara todos los puntos de vista conservadores que encuentra en progresistas, o viceversa. Se daría cuenta de que las noticias que aparecen en su muro no tienen nada que ver con las del muro de su vecino.

Haga la prueba. A partir de datos de Facebook, The Wall Street Journal creó una herramienta en línea que permite explorar dos corrientes de publicaciones en vivo que, con toda probabilidad, jamás vería en la misma cuenta de Facebook. Una proviene de publicaciones donde la mayoría de los enlaces compartidos cayeron en la categoría de “muy conservadores” en un estudio de Facebook, mientras que el otro se basa en fuentes cuyos enlaces fueron clasificados, en su mayor, parte como “muy progresistas”.

Uno puede pasar horas absorto en el estudio de estas realidades alternativas. Lo que veo es una oportunidad perdida para que la tecnología derribe barreras en un momento en el que reina la división en la política de Estados Unidos. Ahora que se puede acceder a más información que nunca en la web, ¿por qué otros puntos de vista nos parecen tan ajenos?

Un motivo es que el muro de noticias de Facebook es administrado por un algoritmo de personalización que le muestra la información que, en su opinión, usted desea. Es una máquina bien aceitada para promocionar los selfies durante la puesta del sol y los videos de gatos, no la discusión de temas políticos. Entonces, ¿por qué no añadir un botón que exprese puntos de vista opuestos a los míos que me deje ver un titular desde el otro lado del espectro político?

Sin dudas, el punto de vista contrario puede llegar a ser enervante, en especial si no sólo está en desacuerdo, sino que también sabe que contiene errores. Pero no soy el único que me siento un poco perturbado por la simplificación de nuestras perspectivas políticas. El presidente estadounidense, Barack Obama, expresó recientemente su consternación por un país en el que tanto demócratas como republicanos viven en cajas de resonancia en las que “sólo escuchan a las personas con las que están de acuerdo”. El comentarista conservador Glenn Beck expresó una opinión similar y dirigió su frustración contra la red social: “Facebook es, de cierta forma, la única experiencia que tenemos en comunidad. Necesitamos ver de qué está hablando ‘el otro lado’”.

En todo el mundo, los miembros de Facebook pasan unos 50 minutos al día en la red social y sus servicios relacionados, Messenger e Instagram. En Estados Unidos, más de 60% de los usuarios de Facebook ven noticias de índole política en su muro, en particular los progresistas, según el centro de estudios Pew Research Center. Facebook ha invitado a medios de comunicación serios, entre ellos The Wall Street Journal, a publicar “artículos instantáneos” en forma directa.

La red social está reemplazando el kiosco de la esquina, donde las portadas de diferentes revistas y periódicos estaban una al lado de la otra. En el caso de Facebook, no es fácil reproducir esa experiencia, ni modificar lo que aparece en su muro. Por cierto, Facebook no tiene la culpa de los comentaristas ignorantes o de la intolerancia, que nos han acompañado desde el origen de las noticias. Sin embargo, tampoco puede desligarse por completo de su responsabilidad por su mano invisible en las noticias.

¿Queremos realmente que las empresas de tecnología influyan en nuestras noticias? La verdad es que ya lo hacen.

Facebook se metió en un lío de proporciones hace poco cuando surgieron acusaciones de que los contratistas que editan una sección de titulares que marcan tendencia suprimían noticias conservadoras. (Facebook ha negado las acusaciones). No obstante, una parte mucho más importante de nuestra experiencia en Facebook es el muro, que fue creado por seres humanos y acarrea sus propios sesgos. Con el objetivo de que el usuario pase más tiempo en la red social, utiliza unos 100.000 indicios suyos, de sus amigos y del resto del mundo para determinar si quiere leer más o menos sobre violencia con armas o si lo que ocurre con las Kardashian es más importante que lo que pasa en Kurdistán. Es un canal de información muy importante, pero sabemos muy poco sobre su funcionamiento.

Durante los últimos años se ha producido un acalorado debate sobre si la tecnología de personalización impide la presentación de puntos de vista alternativos y tergiversa la realidad al promover teorías de la conspiración. El activista de causas progresistas Eli Pariser lo bautizó como “la burbuja del filtro”. Es un problema difícil de cuantificar, pero sus variaciones son múltiples. Google, por ejemplo, personaliza los resultados de las búsquedas, Amazon hace lo propio con sus recomendaciones de libros y Netflix hace énfasis en sugerencias personalizadas en detrimento de las búsquedas.

Facebook dice que nosotros somos el problema. La revista académica Science publicó el año pasado un artículo escrito por los investigadores de Facebook y evaluado por pares, que mostró que, en promedio, casi 29% de las noticias que aparecen en el muro de Facebook trascienden líneas ideológicas. Los investigadores concluyeron que el algoritmo de la compañía no crea una burbuja de filtros, sino que se limita a reflejar la que creamos nosotros. Otros científicos sociales discreparon tanto en la metodología como en las conclusiones del estudio, comparando el argumento con decir que las armas no matan a las personas, sino que las personas lo hacen.

El tema más importante, sin embargo, es cómo la tecnología nos puede ayudar a ampliar nuestro horizonte ideológico. Eso fue lo que inspiró a Jon Keegan, un colega de The Wall Street Journal, a crear la herramienta “Blue Feed, Red Feed” (en EE.UU. los demócratas se identifican con el azul y los republicanos se identifican con el rojo).

El resultado es un producto que Facebook no ha hecho para sus usuarios: un muro diseñado para resaltar opiniones políticas opuestas. Después de un recorrido por las opiniones que no comparte, su propio muro de noticias parece distinto, no sólo nos falta información, sino que nos perdemos los temas sobre los cuales nuestros vecinos están hablando.

Aunque nunca deberíamos depender de Facebook como fuente exclusiva de noticias, hay maneras de modificar la burbuja filtrada al interior de la red social.

Primero, es bueno entender cómo las notas de política llegan a su muro. Vienen de dos lugares: amigos que publican o comparten contenido y fuentes de noticias a cuyas páginas de Facebook les puso “Me gusta”. A partir de esas fuentes, el algoritmo de Facebook presenta publicaciones en un orden que cree que le va a gustar.

Para aumentar el rango de fuentes de noticias en su muro, puede darle “Me gusta” a más medios de noticias y opinión. Esto diversificó mi muro, aunque sólo un poco en el corto plazo. Si opta por seguir este camino, tenga en cuenta que los “Me gusta” podrían ser vistos por sus amigos. (Puede hacer que sus “Me gusta” sean privados en la configuración).

Facebook y la política: cinco cosas que se deben saber.
Facebook ha adoptado una serie de pequeños pasos para mejorar su muro de noticias. Cuando hace clic en una publicación con un artículo, aparece abajo una caja de “Artículos relacionados”, con notas que podrían ampliar su punto de vista. Hace unos meses “Me gusta” dejó de ser la única opción para expresar su opinión sobre un artículo. Ahora también puede mostrarse “triste” o “enojado”, lo que puede ser útil en un año electoral en EE.UU.

Aunque no es posible personalizar con precisión su muro de noticias, puede utilizar las recientemente ampliadas preferencias del muro de noticias, en la configuración, para priorizar las personas o las fuentes de noticias que desearía ver primero. También encontrará la herramienta de “descubrir”, en la que Facebook enumera fuentes adicionales que podrían encajar con sus intereses. En mi caso, sin embargo, las sugerencias de Facebook raramente contradijeron mis fuentes típicas de noticias.

Facebook lanzó hace poco un video en el que alentaba a sus miembros a “mantener una mente abierta” durante las elecciones en EE.UU. al buscar otros puntos de vista. Sugirió el uso de su caja de búsquedas para hallar temas de noticias, que presenta una amplia gama de fuentes. Sin embargo, la función de búsqueda de Facebook no es la más fácil de usar y no hay forma de elegir un tema para que aparezca en el muro de noticias.

“El punto no es cambiar de parecer. Es estar abierto a eso”, dijo Facebook. Estoy completamente de acuerdo, aunque como producto Facebook dificulta, en lugar de facilitar, que sus usuarios hagan esto.


“Blue Feed, Red Feed” demuestra que Facebook tiene todos los datos y conocimiento para presentarnos puntos de vista con los cuales no estamos necesariamente de acuerdo. Si The Wall Street Journal creó una herramienta que nos expone a diferentes puntos de vista, ¿entonces por qué no lo puede hacer la mayor red social del mundo?

No hay comentarios: