*

X
Facebook lanza app de citas

Las nueva política de Facebook está orientada, según Mark Zuckerberg, a fomentar relaciones significativas. Facebook ha recibido muchas críticas en tiempos recientes por fomentar la desinformación, por crear burbujas de filtros y hasta por poner en entredicho la democracia en varios países. Intentando desmarcarse de la idea de que es un medio de comunicación, ahora busca regresar a la idea de red social, y para ello ha realizado notorios cambios en su algoritmo, con los que se han incrementado las interacciones entre personas y eventos sociales y no con noticias. El último esfuerzo en este sentido es el lanzamiento de una app de citas, la cual ha sido anunciada por su fundador.

En el lanzamiento en San José, California, Zuckerberg dijo: "Queremos que Facebook sea un lugar en el que puedes comenzar una relación significativa". Y aseguró que la nueva aplicación está diseñada para satisfacer las demandas de privacidad y seguridad de los usuarios.

El equipo de Facebook señaló que la app utiliza las ventajas que tiene la red social pero existe de manera separada del perfil de Facebook de los usuarios, si bien se podrá acceder a través del mismo sitio. La app tendrá algunas de las mismas funciones que Tinder. 

Notablemente, las acciones del sitio de citas Match cayeron un 21% sólo con este anuncio. Sin embargo, el principal competidor será Tinder, aunque Facebook ha dicho que su intención no es la cultura del ligue (o hook-ups).

Actualmente la tercera parte de los matrimonios en Estados Unidos inicia en línea.

Te podría interesar:
Lo que está pasando en Facebook podía haberse predicho hacía algún tiempo y es parte de un problema más grande: el modelo imperante del capitalismo vigilante y las tentaciones del Big Data

Desde el principio existió una gran controversia sobre la pérdida de privacidad que suponía Facebook, empresa que nunca se interesó realmente por proteger los datos de sus usuarios. Diversos medios alertamos que Facebook no era "gratuito"; significaba entregar la privacidad y otorgar un creciente poder a una corporación a la cual no le interesa tu bienestar, ya que la información que obtenía, lógicamente iba a usarse para crear anuncios personalizados, y además podía acabar en manos de políticos, empresas de marketing y demás. Esto siempre fue algo que se difundió en menor o mayor medida en torno a Facebook, pero realmente no se escuchó, pues "todos están en Facebook" y los beneficios de estar "conectados" eran demasiados, o acaso porque hasta hace poco no se había visto concretamente cómo esta información podía manipular a la opinión pública -algo que vimos desde el Brexit y desde el triunfo de Trump-. Pensamos que porque no éramos terroristas o criminales no teníamos mucho que perder al entregar toda nuestra información. Mark Zuckerberg dijo en reiteradas ocasiones que la privacidad estaba sobrevaluada, que lo importante era lo social; incluso afirmó en el 2010 que no creía en la privacidad. Ahora parece irónico que Facebook y Twitter fueron promovidos como "herramientas para la democracia" o para deponer dictadores en la llamada Primavera Árabe hace algunos años. 

Hace unas semanas, la revelación del caso de los 50 millones de perfiles que minó la empresa Cambridge Analytica para crear anuncios y contenido personalizado para influir en la elección dio un atisbo de lo que puede pasar cuando el Big Data se combina con la propaganda. Sabemos que con sólo tener acceso a una docena de likes o poco más se puede predecir el sexo, la raza, la orientación política y demás. Sondeando esta información Cambridge Analytica se jactó de poder entender el tipo de mensajes, el formato, el contenido, el tono y la frecuencia a la cual son susceptibles los usuarios individuales. A la par montó un equipo de producción de medios y un equipo de diseminación de los productos mediáticos en blogs y perfiles de redes sociales, creados específicamente para promover los contenidos que podrían favorecer esta ingeniería de la percepción. Asimismo, en base a los perfiles psicológicos y emocionales de los usuarios se crearon anuncios con targets específicos. Un exempleado de esta empresa, Christopher Wylie, dijo que la herramienta que desarrollaron, a diferencia de tomar un megáfono y comunicar un mensaje en una plaza pública, es "un susurro en la oreja de cada votante", dándole a cada uno un mensaje personalizado; "esto evita una experiencia colectiva y un entendimiento colectivo", se fragmenta la realidad. Se creó con esto un "arma cultural" y se llevó al extremo la llamada "burbuja de filtro" en la que cada quien recibe una versión personalizada de la realidad en base a sus gustos previos, colocando así a cada usuario en un universo tautológico separado de los demás. Wylie señaló que la visión de alquimia política del consejero de Trump, Steve Bannon, fue apuntalada bajo este axioma: "para cambiar la sociedad primero debes romperla y luego debes reconstituir las piezas y moldearlas conforme a tu visión".

Indicios de lo que estamos viendo con el caso de Cambridge Analytica ya se habían mostrado mucho antes. Por citar un ejemplo notable que se dio a conocer en el 2014, Facebook hizo un experimento con 700 mil jóvenes que fueron manipulados emocionalmente con información en su Newsfeed sin que ellos lo supieran. Esto siguió pesando, como demuestra un documento filtrado revelado por un diario australiano en el 2017, que muestra que "Facebook está utilizando sofisticados algoritmos para identificar y explotar a australianos de edades tan jóvenes como los 14 años, permitiendo que los anunciantes hagan llegar sus mensajes en los momentos más vulnerables, incluyendo cuando se sienten 'indignos' e 'inseguros'".

Facebook actualmente está enfrentando enormes críticas, citaciones a audiencias en diferentes partes del mundo, sus acciones se desploman en la bolsa y hay un importante (aunque no tan masivo) éxodo de sus usuarios. Esto ciertamente es sólo el principio, porque el modelo de Facebook y el modelo de Google y otras empresas es más que vender publicidad; es lo que ha sido llamado un "capitalismo de vigilancia" (surveillance capitalism): valen no por lo que venden de publicidad, sino por la información que tienen de sus usuarios y lo que se puede hacer con ella. En la medida en que la inteligencia artificial o el machine learning crece, la tentación de crear algoritmos para predecir o influir en las conductas es demasiado grande, especialmente cuando estas compañías no son realmente humanas, y obedecen simplemente a la prerrogativa de obtener más ganancias. Esto, a su vez, genera un conflicto de intereses no menor, pues estas plataformas ganan dinero por cada segundo de atención de sus usuarios, pero cautivar la atención de sus usuarios, para que la economía digital siga creciendo, necesariamente supone la enajenación y el desarrollo de conductas patológicas en los usuarios. La economía digital se moviliza por la atención; así entonces, mientras los usuarios consumen información su atención es consumida y, por lo tanto, quedan en la des-atención o en la distracción. Para hacer esto, como documentamos aquí, se incorporan sofisticadas técnicas al diseño y la programación con las que se activan los sistemas de dopamina -la promesa de recompensa- de los usuarios de la misma manera que las máquinas tragamonedas. Se podría argumentar la dopamina digital es algo así como el nuevo azúcar. 

Los resultados inevitables del capitalismo de vigilancia y su minería de datos para crear anuncios y predecir conducta han sido bien diagnosticados por el analista Mark Pesce:

Nuestro nuevo experimento social -un mundo donde todos están conectados- no sobrevivió mucho su encuentro con las fuerzas predatoriales del capitalismo, descendiendo a una cloaca de amplificación del enojo en nombre de "incrementar el engagement de los usuarios". Esta forma de frasear las cosas hace que suene como si los sujetos de este experimento -todos nosotros- vivieran en un mundo separado de los efectos de la amplificación. Pero es más como prender fuego a un edificio estando aún adentro.

Hemos aprendido una importante lección: comercializamos nuestros espacios sociales bajo nuestro propio riesgo. Ahora confrontamos el riesgo inmediato de encontrar salidas para este edificio en llamas, al tiempo que cae en ruinas. Una vez afuera, debemos enfrentar un mayor desafío -¿cómo imaginamos colectivamente el futuro para que esto no pase de nuevo?-.

Pesce parece sugerir que el sistema está colapsando. Habrá que ver. Ciertamente Facebook enfrenta posibles regulaciones y algunos países, como ya lo ha hecho China, podrían empezar a limitar su acceso. Pero más allá de esto, el reto es cómo imaginamos otro mundo metidos en lo hondo de la pecera. No sólo un mundo sin Facebook, si fuera el caso, sino un mundo humano en el que no estemos en manos de máquinas y algoritmos que nadie controla o que sólo algunos pocos controlan y hasta cierto punto, puesto que, en su ambición, no tienen realmente idea de hasta qué punto están creando algo así como un nuevo Frankenstein o un nuevo pacto fáustico.