*

X

Los 13 momentos más extraños de la audiencia de Mark Zuckerberg ante legisladores de Estados Unidos

Medios y Tecnología

Por: pijamasurf - 04/11/2018

Lo mejor de la extraña sesión de cuestionamiento, lisonja, confusión, regaños y demás que sufrió Zuckerberg ante senadores y congresistas

Mark Zuckerberg superó 10 horas de intenso cuestionamiento, ayer ante un comité del senado de Estados Unidos y hoy ante un comité de la Cámara de Representantes. Las sesiones fueron un tanto extrañas: ver a Zuckerberg en una mesa solo, como ante una lupa, rodeado por legisladores, la mayoría de ellos ya de edad avanzada, que parecían estar regañando a un niño en la escuela. Al final, según varios analistas, pese a que Zuckerberg fue objeto de numerosas bromas en las redes sociales y a que se veía notablemente nervioso, especialmente el primer día, el CEO de Facebook parece haber salido suficientemente bien librado de la prueba. En parte, se teoriza, porque los senadores y congresistas no tenían realmente dominio de los temas finos de Facebook y no conocían la forma en la que está programada esta tecnología. Hay una clara brecha generacional entre los lomos plateados de Washington y los millennials de Silicon Valley. Eso, y quizás algunos efectos positivos del lobby (no faltaron los legisladores aduladores), ha logrado que las acciones de FB repuntaran un poco. 

Lo que es indudable es que el tema dará para mucho más (la discusión de la privacidad, del monopolio y la regulación, si FB es un medio o no, si censura el contenido según ideas políticas, etc.). E igualmente indudable es que la sesión fue bastante extraña, fascinante para todos los interesados y, a partir de los memes, bastante divertida. A continuación, una lista de lo más sorprendente y curioso de las dos sesiones (basada en información de The Atlantic y algunas adiciones).

1. El senador Bill Nelson explica que le gusta el chocolate y que de pronto empieza a encontrarse anuncios de chocolate en Facebook: "¿Y qué si no quiero recibir esos anuncios de chocolate?".

2. Un hombre de 80 años le explica cómo funciona Facebook al CEO de la compañía. El senador Chuck Grassley hizo una  descripción de todo lo que es Facebook, de cómo funciona, de sus servicios, etc. Algo un poco extraño, si se toma en cuenta que el senador tiene 80 años y Zuckerberg es el fundador.

3. Zuckerberg responde que Facebook no tiene competidores directos pero, a la vez, no siente que sea un monopolio. 

4. El senador Roy Blunt promueve la carrera de Instagram de su hijo de 13 años.  Su hijo Charlie, quien según el senador "está dedicado a Instagram", le pidió que lo mencionará en la audiencia. 

5. El confuso tema de que Facebook no se define como un medio, pero acepta que es responsable del contenido. Facebook es responsable del contenido, pero no lo genera. ¿Hasta qué punto lo censura, lo edita, lo "cura"? 

6. Zuckerberg dice que es una "conspiración" lo que se ha manejado sobre que Facebook te espía cuando grabas un video. 

7. El senador John Kennedy lo dice sin tapujos: "Tus términos y condiciones de uso son una basura". Y a la vez larguísimos: otro senador los imprimió y mostró un machote de cientos de hojas.

8. La republicana Yvette Clark tuvo un lapsus y llamó al CEO de Facebook "Mr. Zuckerman", algo así como "hombre zoquete".

9. El republicano David McKinley acusó a Zuckerberg de permitir la venta de opioides en Facebook, algo que representa una crisis de salud en Estados Unidos actualmente. McKinley le dijo: "Estás lastimando a las personas".

10. Mark Zuckerberg lleva mucho tiempo pidiendo disculpas. Desde el 2003 lo ha hecho decenas de veces, en declaraciones a los medios o a los gobiernos.

11. Un senador le da una lección de privacidad a Zuckerberg. El CEO de Facebook cae en la trampa del senador Durbin, cuando éste le pide que revele el hotel en el que se está quedando y las personas a las que ha llamado desde que llegó a Washington.

12. La silla de Zuckerberg tenía un cojín extra.

Lo cual generó memes como este:

13. Mark Zuckerborg parece un robot, o una de esos extraterrestres con traje de humano (al menos, eso es lo que dicen los memes). 

Te podría interesar:
Lo que está pasando en Facebook podía haberse predicho hacía algún tiempo y es parte de un problema más grande: el modelo imperante del capitalismo vigilante y las tentaciones del Big Data

Desde el principio existió una gran controversia sobre la pérdida de privacidad que suponía Facebook, empresa que nunca se interesó realmente por proteger los datos de sus usuarios. Diversos medios alertamos que Facebook no era "gratuito"; significaba entregar la privacidad y otorgar un creciente poder a una corporación a la cual no le interesa tu bienestar, ya que la información que obtenía, lógicamente iba a usarse para crear anuncios personalizados, y además podía acabar en manos de políticos, empresas de marketing y demás. Esto siempre fue algo que se difundió en menor o mayor medida en torno a Facebook, pero realmente no se escuchó, pues "todos están en Facebook" y los beneficios de estar "conectados" eran demasiados, o acaso porque hasta hace poco no se había visto concretamente cómo esta información podía manipular a la opinión pública -algo que vimos desde el Brexit y desde el triunfo de Trump-. Pensamos que porque no éramos terroristas o criminales no teníamos mucho que perder al entregar toda nuestra información. Mark Zuckerberg dijo en reiteradas ocasiones que la privacidad estaba sobrevaluada, que lo importante era lo social; incluso afirmó en el 2010 que no creía en la privacidad. Ahora parece irónico que Facebook y Twitter fueron promovidos como "herramientas para la democracia" o para deponer dictadores en la llamada Primavera Árabe hace algunos años. 

Hace unas semanas, la revelación del caso de los 50 millones de perfiles que minó la empresa Cambridge Analytica para crear anuncios y contenido personalizado para influir en la elección dio un atisbo de lo que puede pasar cuando el Big Data se combina con la propaganda. Sabemos que con sólo tener acceso a una docena de likes o poco más se puede predecir el sexo, la raza, la orientación política y demás. Sondeando esta información Cambridge Analytica se jactó de poder entender el tipo de mensajes, el formato, el contenido, el tono y la frecuencia a la cual son susceptibles los usuarios individuales. A la par montó un equipo de producción de medios y un equipo de diseminación de los productos mediáticos en blogs y perfiles de redes sociales, creados específicamente para promover los contenidos que podrían favorecer esta ingeniería de la percepción. Asimismo, en base a los perfiles psicológicos y emocionales de los usuarios se crearon anuncios con targets específicos. Un exempleado de esta empresa, Christopher Wylie, dijo que la herramienta que desarrollaron, a diferencia de tomar un megáfono y comunicar un mensaje en una plaza pública, es "un susurro en la oreja de cada votante", dándole a cada uno un mensaje personalizado; "esto evita una experiencia colectiva y un entendimiento colectivo", se fragmenta la realidad. Se creó con esto un "arma cultural" y se llevó al extremo la llamada "burbuja de filtro" en la que cada quien recibe una versión personalizada de la realidad en base a sus gustos previos, colocando así a cada usuario en un universo tautológico separado de los demás. Wylie señaló que la visión de alquimia política del consejero de Trump, Steve Bannon, fue apuntalada bajo este axioma: "para cambiar la sociedad primero debes romperla y luego debes reconstituir las piezas y moldearlas conforme a tu visión".

Indicios de lo que estamos viendo con el caso de Cambridge Analytica ya se habían mostrado mucho antes. Por citar un ejemplo notable que se dio a conocer en el 2014, Facebook hizo un experimento con 700 mil jóvenes que fueron manipulados emocionalmente con información en su Newsfeed sin que ellos lo supieran. Esto siguió pesando, como demuestra un documento filtrado revelado por un diario australiano en el 2017, que muestra que "Facebook está utilizando sofisticados algoritmos para identificar y explotar a australianos de edades tan jóvenes como los 14 años, permitiendo que los anunciantes hagan llegar sus mensajes en los momentos más vulnerables, incluyendo cuando se sienten 'indignos' e 'inseguros'".

Facebook actualmente está enfrentando enormes críticas, citaciones a audiencias en diferentes partes del mundo, sus acciones se desploman en la bolsa y hay un importante (aunque no tan masivo) éxodo de sus usuarios. Esto ciertamente es sólo el principio, porque el modelo de Facebook y el modelo de Google y otras empresas es más que vender publicidad; es lo que ha sido llamado un "capitalismo de vigilancia" (surveillance capitalism): valen no por lo que venden de publicidad, sino por la información que tienen de sus usuarios y lo que se puede hacer con ella. En la medida en que la inteligencia artificial o el machine learning crece, la tentación de crear algoritmos para predecir o influir en las conductas es demasiado grande, especialmente cuando estas compañías no son realmente humanas, y obedecen simplemente a la prerrogativa de obtener más ganancias. Esto, a su vez, genera un conflicto de intereses no menor, pues estas plataformas ganan dinero por cada segundo de atención de sus usuarios, pero cautivar la atención de sus usuarios, para que la economía digital siga creciendo, necesariamente supone la enajenación y el desarrollo de conductas patológicas en los usuarios. La economía digital se moviliza por la atención; así entonces, mientras los usuarios consumen información su atención es consumida y, por lo tanto, quedan en la des-atención o en la distracción. Para hacer esto, como documentamos aquí, se incorporan sofisticadas técnicas al diseño y la programación con las que se activan los sistemas de dopamina -la promesa de recompensa- de los usuarios de la misma manera que las máquinas tragamonedas. Se podría argumentar la dopamina digital es algo así como el nuevo azúcar. 

Los resultados inevitables del capitalismo de vigilancia y su minería de datos para crear anuncios y predecir conducta han sido bien diagnosticados por el analista Mark Pesce:

Nuestro nuevo experimento social -un mundo donde todos están conectados- no sobrevivió mucho su encuentro con las fuerzas predatoriales del capitalismo, descendiendo a una cloaca de amplificación del enojo en nombre de "incrementar el engagement de los usuarios". Esta forma de frasear las cosas hace que suene como si los sujetos de este experimento -todos nosotros- vivieran en un mundo separado de los efectos de la amplificación. Pero es más como prender fuego a un edificio estando aún adentro.

Hemos aprendido una importante lección: comercializamos nuestros espacios sociales bajo nuestro propio riesgo. Ahora confrontamos el riesgo inmediato de encontrar salidas para este edificio en llamas, al tiempo que cae en ruinas. Una vez afuera, debemos enfrentar un mayor desafío -¿cómo imaginamos colectivamente el futuro para que esto no pase de nuevo?-.

Pesce parece sugerir que el sistema está colapsando. Habrá que ver. Ciertamente Facebook enfrenta posibles regulaciones y algunos países, como ya lo ha hecho China, podrían empezar a limitar su acceso. Pero más allá de esto, el reto es cómo imaginamos otro mundo metidos en lo hondo de la pecera. No sólo un mundo sin Facebook, si fuera el caso, sino un mundo humano en el que no estemos en manos de máquinas y algoritmos que nadie controla o que sólo algunos pocos controlan y hasta cierto punto, puesto que, en su ambición, no tienen realmente idea de hasta qué punto están creando algo así como un nuevo Frankenstein o un nuevo pacto fáustico.