"El crecimiento de la digitalización siempre fue exponencial, pero la pandemia lo aceleró con esteroides", asegura Martin Hilbert, investigador alemán de la Universidad de California-Davis y autor del primer estudio que calculó cuánta información hay en el mundo.
Reconocido por haber alertado sobre la intervención de Cambridge Analytica en la campaña de Donald Trump un año antes de que estallara el escándalo, Hilbert ha seguido de cerca los efectos digitales del coronavirus y sus conclusiones son poco optimistas: las personas no
saben cómo lidiar con el poder de los algoritmos, los gobiernos no saben cómo usarlos en favor de la población y las empresas se resisten a adoptar pautas éticas efectivas.Esto debiera preocupar especialmente a
América Latina, "porque son lÃderes mundiales en el uso de redes
sociales", advierte Hilbert, que vivió una década en Chile como
funcionario de la ONU y hoy vive a 40 minutos de Silicon Valley.
En conversación con BBC Mundo compartió su
opinión de que las nuevas tecnologÃas plantean desafÃos de alcances tales que
podrÃan exigir una evolución de la conciencia humana.
Tuvo dos efectos simultáneos: nos hizo más sensibles a
las secuelas tóxicas de la digitalización, pero aceleró nuestra dependencia de
ella.
Y también confirmó que el segundo efecto es
más poderoso que el primero: ser conscientes de que esta adicción nos hace mal
no produce ningún cambio en nuestras conductas.
¿Por qué crees que ocurre eso?
Hay que entender cómo funciona esta economÃa
digital, donde el recurso escaso a explotar es la atención humana.
El negocio de los gigantes tecnológicos
−Google, Apple, Facebook, Amazon− no es ofrecerte avisos comerciales: es
modificar tus comportamientos para optimizar el rendimiento de esos avisos.
Y pueden hacerlo porque los algoritmos, al
procesar millones de datos sobre tu comportamiento, aprenden a predecirlo,
mucho mejor que tú mismo.
Pero para conocerte e influir sobre ti
necesitan mantenerte conectado. Por lo tanto, las llamadas tecnologÃas
persuasivas cumplen su misión cuando eres adicto y no puedes desviar tu
atención de ellas.
Por lo que muestra el documental El dilema de
las redes sociales, muchos en Silicon Valley se arrepienten de haber creado
esas tecnologÃas.
Aquà en Silicon Valley el término de moda es human downgrading [degradación
humana], que resume la siguiente idea: de tanto discutir cuándo la tecnologÃa
iba a sobrepasar nuestras capacidades, perdimos de vista que las máquinas se
estaban enfocando en conocer nuestras debilidades.
Ganarle una partida al campeón de ajedrez era
lo de menos. Su verdadera fuente de poder ha sido llevarnos a nuestro
narcisismo, a nuestro enojo, ansiedad, envidia, credulidad y, por cierto, a
nuestra lujuria.
Es decir, las tecnologÃas persuasivas apelan
a mantenerte en la versión más débil de ti mismo para que gastes tu tiempo en
las redes.
Algunos crÃticos han dicho que el documental es
alarmista, o que carece de perspectiva histórica para entender que estos
fenómenos no son tan nuevos.
Como todo documental, deja sin cubrir
aspectos importantes, como el cruce entre la tecnologÃa y las desigualdades.
Pero no percibo un alarmismo exagerado.
Quienes critican estos discursos tienen una
frase tÃpica: "Estas cosas siempre existieron". Y es verdad. De
hecho, Facebook hizo un estudio para mostrar que la red social influye menos en
la polarización polÃtica que nuestro apego innato a los amigos de ideas afines.
Pero el mismo estudio mostró que los
algoritmos de recomendación de Facebook duplican ese efecto, y ahà está el
problema. Los huevos y la carne siempre subieron el colesterol, pero en las
últimas décadas potenciamos ese efecto con una avalancha de helados y papas
fritas. ¿Me explico?
Lo que pasa es que nos cuesta admitir el
efecto en nosotros mismos.
Nos preocupa mucho ver a nuestros hijos
pegados todo el dÃa a un chupete digital, incapaces de concentrarse o
asimilando expectativas poco realistas sobre sus cuerpos. Pero nosotros somos
otra cosa, usamos las redes por divertirnos, nadie nos mete un chupete en la
boca.
Pero es un hecho que la tecnologÃa digital también nos
presta servicios imprescindibles. La pandemia lo ha dejado bastante
claro.
Sin duda, y eso no tiene vuelta atrás.
El crecimiento de la digitalización siempre
fue exponencial. Hace 25 años no tenÃamos celulares y ya es imposible
imaginarlo. Pero la pandemia lo aceleró con esteroides. Aunque también mostró
sus limitaciones, ¿no?
Yo doy clases en lÃnea hace años y conozco
muy bien sus desventajas, pero ahora cada maestra de primaria descubrió que con
niños de 7 años no funciona para nada.
También aceleró el debate sobre la
privacidad, que antes era más teórico: ¿qué escucha Siri, qué escucha Alexa? Ya
no hace falta ninguna Siri, todas las casas están conectadas y toda la familia
está en la casa.
El otro dÃa un papá inocente se puso los
pantalones mientras mi hija de 6 años estaba en clases, y claro, habÃa unas 30
familias viendo a un viejo medio desnudo atrás. O de pronto escuchas a una
pareja peleándose en el otro cuarto. Aunque no quieras, ya te metes en la casa
de otros todo el tiempo.
Las herramientas digitales de vigilancia han
sido otro problema difÃcil de tratar. SolÃamos resistirnos a ellas, pero este año nos
interesó mucho la aplicación de rastreo de Corea del Sur, por ejemplo, que
era la más invasiva de todas.
Claro, la gente está casi enojada porque las
apps de rastreo todavÃa no funcionan. Y el problema no es tecnológico, es
polÃtico. Aquà se evidencian dos problemas serios.
Primero, la gente todavÃa no entiende bien lo
que las grandes compañÃas hacen con sus datos. En marzo, cuando Apple y Google
anunciaron su aplicación, todos dijeron "ay, no, ahora Apple y Google nos
quieren coleccionar esos datos". ¡Apple y Google coleccionan esos datos
siempre!
Y segundo, los gobiernos fueron incapaces de
reaccionar a un desafÃo tecnológico de lo más sencillo.
Los privados les dijeron "nosotros
ponemos los datos, ustedes desarrollen la app". Y los gobiernos en medio
año no lograron coordinarse ni empujar un diálogo polÃtico, porque no tienen el
lenguaje para esto, no pueden vender un mensaje.
En Estados Unidos ni siquiera lograron
ponerse de acuerdo al interior de cada estado. Y hace poco más de un mes, Apple
y Google dijeron "ya, son tan incapaces los gobiernos que vamos a tomar
este asunto en nuestras manos".
Como la ley les impide instalar la app sin la
venia estatal, van a integrar la función en el sistema operativo del teléfono y
cada usuario verá si la habilita. Esto demuestra que la ventaja del sector
privado en este tema es hoy insuperable.
Por lo menos en Occidente.
Exacto, esto sà funcionó en paÃses asiáticos
que habÃan aprendido del SARS −aunque la app de Corea del Sur, como decÃas,
publica más datos de los necesarios− y en paÃses autoritarios donde simplemente
no hay discusión.
En China revisan hasta los datos de tu
tarjeta de crédito para supervisar tu cuarentena. Para el gobierno, la
emergencia lo justifica y punto. Pero los gobiernos occidentales no saben qué
justificar porque ni siquiera saben plantear la discusión. Es preocupante.
Para ser justos, la disputa entre la
privacidad y la seguridad nunca ha sido fácil de plantear en paÃses
democráticos.
Yo crecà en una Alemania dividida donde un
Estado de vigilancia controlaba medio paÃs, asà que me preocupo mucho por mi
privacidad. Pero más me preocupo por mi madre de 70 años que aún vive en
Alemania, ¿no?
El verdadero problema, como advirtió Yuval
Harari, es evitar que las medidas de emergencia se queden cuando vuelva la
normalidad.
La pandemia también nos permitió constatar
que las noticias falsas se multiplican aun cuando no haya intereses polÃticos
detrás.
SÃ, aquà el problema es la economÃa de la
atención misma.
Al algoritmo no le importa hacia qué lado te
llevan las noticias falsas, simplemente le sirven para atraparte porque cuadran
mejor que la verdad con nuestros sesgos cognitivos. En particular, con dos de
ellos.
¿Cuáles?
Uno es el sesgo de confirmación: si una
información refuerza tu opinión, se ha verificado que es un 90% menos probable
que la identifiques como falsa. Y aun si te dicen que era falsa, es un 70% más
probable que un tiempo después la recuerdes como verdadera.
El otro es el sesgo de novedad.
Nosotros evolucionamos para prestar una
atención desproporcionada a lo novedoso. Al que no lo hizo, se lo comió el
tigre. Y la verdad no suele ser novedosa, ya la has escuchado antes.
Asà las noticias falsas obtienen en las redes
20 veces más retuits que las verdaderas.
Y la ventaja de los algoritmos es que estas
conductas son predecibles: somos irracionales, pero predeciblemente
irracionales.
Entonces, si fueras un algoritmo programado
para atraer clics, ¿qué harÃas para sobresalir en tu trabajo durante una
pandemia? Priorizar mensajes alarmantes que culpen a minorÃas religiosas de
propagar el virus, o al ejército gringo de llevarlo a Wuhan.
Te irá muy bien en las famosas "métricas
neutrales", que supuestamente privilegian "lo que nos gusta"
pero en realidad maximizan las ganancias a expensas de la polarización.
Y de nuestro bienestar emocional, según creen muchos
psicólogos.
El año pasado, un estudio experimental
concluyó que desactivar Facebook por un mes aumenta tu bienestar subjetivo
tanto como ganar 30 mil dólares adicionales al año.
La explosión de las redes ha coincidido con
aumentos medibles de la ansiedad, de la percepción de soledad, del suicidio
adolescente, sobre todo de las chicas…
Comprendamos que estos algoritmos no afectan
a todos por igual: buscan a los más débiles entre nosotros y les pegan bajo el
cinturón.
Si una chica de 14 años busca un video en
YouTube sobre cómo comer mejor, el algoritmo pronto le recomendará un video
sobre anorexia, porque la experiencia le dice que captará su atención. Y si
ella es débil, tomará ese camino.
Los usuarios de YouTube, que son dos mil
millones, ven en promedio 40 minutos de videos al dÃa, de los cuales los algoritmos
recomiendan el 70%. Alrededor del 5% de las recomendaciones son teorÃas
conspirativas absurdas: que la Tierra es plana, que las vacunas son peligrosas,
etc.
Haciendo números, dos de cada siete personas
en el mundo ven en promedio 1,5 minutos diarios de teorÃas conspirativas. ¡Es
casi una religión global! No creo que tantos cristianos recen a diario.
Si ves ese tipo de videos, empiezas a dudar
de todo. Y si la verdad de los hechos ya no cuenta, las reglas tampoco. Por eso
crear confusión les interesa tanto a los lÃderes populistas o autoritarios.
También circulan teorÃas absurdas sobre la
manipulación digital, o sobre las intenciones ocultas que tendrÃa Mark
Zuckerberg.
Claro, algunos creen que Zuckerberg estudia
nuestra personalidad para irse a un sótano oscuro con el Joker y Darth Vader a
planear cómo dominar el mundo.
Pero no funciona asÃ. Ni siquiera hay muchos
psicólogos en Silicon Valley.
Las tecnologÃas persuasivas encuentran
nuestras debilidades por ensayo y error, con pruebas ciegas de A/B: ponen dos
versiones de un mensaje y ven cuál produce más clics.
Asà descubrieron que las publicaciones que
expresan indignación obtienen el doble de likes y casi el triple de shares.
Este método ciego, de hecho, redescubrió estrategias que
figuraban hace años en los manuales de diseño de casinos, pensados para hacerte
adicto.
Otra emoción muy exitosa es el miedo, porque
reaccionar al miedo de la tribu es también un aprendizaje evolutivo.
Cuando un búfalo siente el miedo de otro
miembro de la manada, echa a correr sin saber por qué.
Y tú no revisaste en febrero tu pila de papel
higiénico porque tuvieras noticias sobre la cadena de suministro, sino por el
temor colectivo. Pues bien, #toiletpapergate y #toiletpapercrisis fueron las
principales tendencias en Twitter a finales de febrero.
Para decir algo en su favor, algunas redes
sociales filtraron muchas noticias falsas sobre la pandemia, en un esfuerzo inédito
de su parte.
SÃ. Amazon eliminó muchos productos que
mentÃan sobre el virus y Facebook mostró advertencias en millones de
publicaciones que hacÃan lo mismo.
Cuando las personas vieron esas etiquetas de
advertencia, el 95% de las veces no hicieron clic en la noticia. ¿Pero cuánto
sirve eso, si la gran mayorÃa sólo lee titulares? La gente no se molesta en
leer el contenido del 70% de los links que retuitea.
Y ese 5% que no fue disuadido por la
advertencia ya son dos millones de personas.
Avaaz, una organización sin fines de lucro,
informó que 104 afirmaciones falsas sobre el virus se vieron más de 117
millones de veces en Facebook durante marzo, y que la compañÃa tardó hasta 22
dÃas en emitir las advertencias.
Y hablamos del contenido en inglés, en otros idiomas
filtran muchÃsimo menos.
Esto debe preocupar a los latinoamericanos,
porque son lÃderes mundiales en el uso de redes sociales: 3,5 horas diarias en
promedio.
¿Eres partidario de que los Estados regulen con más
fuerza el uso de estas tecnologÃas?
¡Por supuesto! Es verdad que las regulaciones
eficientes suelen llegar cuando una industria ha alcanzado cierta escala,
porque es difÃcil anticipar los riesgos.
Cuando apareció el automóvil, uno de los
argumentos en su favor fue que harÃa las ciudades más saludables al reducir los
excrementos de caballos.
Pero no podemos dejar las reglas de la
sociedad en manos de unos pocos ingenieros. ¿Dónde se deben almacenar los
datos? ¿Qué tipo de datos? ¿Con qué finalidad pueden usarse?
Tenemos que sacar estas preguntas nerds del
garaje de los programadores, porque estamos quebrando varios acuerdos sociales
con el poder de esta economÃa desregulada.
En un artÃculo reciente propones que, asÃ
como hemos modificado conductas para cuidarnos del virus, deberÃamos adoptar
medidas de "desinfección digital".
Claro. La gente sabe que ya es suficiente con
ocho horas de trabajo frente a la pantalla. Pero entra en su dormitorio, se
toma dos respiros y saca su celular igual, ya no puede evitarlo.
Y por mucho que Apple y Google agreguen
funciones para ayudarte a monitorear tu consumo digital, sus tecnologÃas siguen
diseñadas para la adicción.
Tú dices "no, sólo voy a chequear una
notificación". Y 40 minutos después, dices "¡oh, qué me pasó!".
Pasó que tu cerebro paleolÃtico no es rival para el aprendizaje automático de
las supercomputadoras acerca de tu voluntad.
De ahà las preguntas más existenciales sobre
qué es la voluntad humana en este contexto.
Ya lo decÃa Schopenhauer: "El humano
puede hacer lo que quiere, pero no puede querer lo que quiere". Eso
tampoco es nuevo.
Lo nuevo es que las mentes artificiales, al
descubrir los sesgos de esa voluntad, han empezado a competir con ella por
nuestra percepción consciente de la realidad.
Esto puede sonar loco, pero creo que estamos
generando una nueva presión evolutiva sobre el Homo sapiens.
Porque si queremos coexistir con máquinas que
procesan información mucho mejor que nosotros, la humanidad tendrá que producir
un salto de conciencia. Es decir, evolucionar hacia formas de conciencia menos
apegadas a procesos de información.
¿Y crees que podemos inducir una evolución de ese tipo?
No le pidas tanta iluminación a un académico,
pero te cuento algo que me sorprendió mucho.
Hace poco analicé, con datos de Facebook, qué
ha hecho la gente en su tiempo libre durante la pandemia en América Latina. Y
la única actividad que se disparó respecto de épocas normales fue la
meditación, tanto en interés de la gente como en descargas de apps.
Las mujeres, que siempre lideraron el uso de
estas apps, duplicaron su uso. Y los hombres triplicaron el suyo, llegando al
nivel que tenÃan las mujeres en 2019.
¿Y qué busca la meditación? Desconectarte
hasta de tus pensamientos.
Y las tecnologÃas persuasivas funcionan como
extensiones de nuestras mentes, de ese diálogo interior que no podemos parar.
Como cuando estás enojado y argumentas en tu
cabeza con la otra persona y le dices todo lo malo que te ha hecho y todo lo
que no sabe.
Estas tecnologÃas se conectan a ese diálogo
interior, lo externalizan a través de las redes sociales y ahà te agarran.
Entonces, es interesante que sea la
meditación, un posible antÃdoto para eso, lo que ha explotado. El 15% de los
usuarios de Facebook en América Latina ya muestra interés en ella.
¿SerÃa contradictorio que busquen el antÃdoto
en las mismas redes?
Es que no se trata de apagar internet.
Tampoco es una opción si quieres ser parte de la evolución de esta sociedad.
En Silicon Valley, de hecho, también hay
bastante interés en la meditación. Están experimentando con frecuencias
sonoras, para encontrar aquellas cuyos efectos cerebrales ayudan a inducir el
desapego y descansar de esta constante conexión.
¿Y sabes lo que descubren? Que ciertas
frecuencias producen en tu cerebro el mismo efecto que una fogata.
Otra vez, aquà no hay nada nuevo, las
tradiciones espirituales buscaban ese efecto hace miles de años para despejar
tu cabeza.
Porque si miras dentro de ti, en tu cabeza no
hay una sola opinión, hay un comité discutiendo. Y cuando la gente vuelve a
intuir que necesita deshacerse de esas voces, es porque descubre que son las
mismas que corren en Facebook.
Ahora, desapegarte de esas voces no es tan
sencillo como descargar una app, son palabras mayores.
Pero antes, para intentarlo, tenÃas que
renunciar a tu trabajo, a tu familia y partir a las montañas a buscar un
maestro. La idea es que ahora puedas hacer tu fogata a las 7 de la tarde en tu
departamento.
Crees que la salida, entonces, no será arrancar de la
tecnologÃa sino combatirla con más tecnologÃa.
Y es asà porque la tecnologÃa es
normativamente neutral: puede escalar los problemas o las soluciones, según el
uso que le demos.
Ahora, yo hablo de este interés en la
meditación como una señal positiva, pero no va a ser la pócima mágica.
Asà como un bebé descubre los contornos de su
cuerpo mordiéndose el dedo, nosotros estamos recién conociendo los contornos de
nuestras mentes expandidas digitalmente.
Pero estoy convencido de que aprender a tomar
distancia de estas tecnologÃas va a significar, en el largo plazo, aprender a
tomar distancia de uno mismo.
Un ególatra sin internet, en ese sentido, no
serÃa parte de la solución.
¿La idea de un chip en el cerebro es
compatible con lo que estás planteando? ¿O son excluyentes?
Si ese chip te mantiene en el nivel neuronal
que procesa información y la traduce en razonamientos y emociones, no servirÃa
para eso.
La conciencia está en otro nivel neuronal,
parece que se produce en un circuito que se llama DMN y que básicamente conecta
todo el cerebro.
Y me imagino que con una interfaz neuronal
también se la puede estimular, pero será como siempre en la tecnologÃa: la
primera aplicación va a ser para comercio y la segunda para pornografÃa.
Mientras tanto, ¿qué medidas de higiene
podrÃas recomendar?
Lávese la mente a menudo durante al menos 20
segundos, especialmente después de un desplazamiento sin sentido en las redes
sociales durante el cual estuvo expuesto a algoritmos especializados en bajar
sus defensas.
Tápese la boca cuando esté a punto de difundir
un contenido odioso o que ni siquiera ha leÃdo. Y asuma la responsabilidad de
ser un potencial vector de contagio en este problema colectivo.
No hay comentarios:
Publicar un comentario