¿Quién “decide” lo que voy a ver esta noche en Netflix? ¿Quién me presenta una imagen del estado del mundo? ¿Quién decide qué comprar en Amazon o a quién debo hacer solicitudes de amistad? ¿Dónde se estudian y aprueban estas técnicas de persuasión? ¿Lo sabes? En nombre de la democracia y la libertad, ¿estamos dañando el tejido social, que ya está bastante polarizado en estos días?
Por Federico Puebla
El escritor Michael Cunningham tenía razón. Nos convertimos en las historias que nos relatamos a nosotros mismos. Y este fenómeno se remonta al principio de los tiempos. Las historias que alimentaron la imaginación de los primeros hombres fueron contadas alrededor del fuego bajo la sabana africana. Estas daban sentido al enigmático cielo nocturno y estrellado, y permitían la transmisión de conocimientos prácticos, como las técnicas de caza.
A diferencia de todas las demás especies animales, sólo nosotros hemos sido capaces de transmitir historias de generación en generación, de modo que nuestra descendencia va un paso por delante de la anterior. Así, las historias han desempeñado un papel notable en nuestra evolución.
Pero en 2022, ¿qué historias nos contamos a nosotros mismos? O, lo que es más interesante, ¿quién tiene las llaves de la palabra en nuestras estructuras sociales? En nombre de la democracia y la libertad, ¿estamos dañando el tejido social, que ya está bastante polarizado en estos días? O peor aún, ¿permitimos que nuestras mentes se vean nubladas por algoritmos cuyo único propósito es servir a los intereses económicos?
Se trata de una visión general de este monstruo de múltiples cabezas.
La cantidad de intercambios acalorados en los comentarios, la desinformación, el discurso de odio, la ignorancia, etc., son variables que los equipos de neurociencia están estudiando, probando y perfeccionando.
Federico Puebla
Economía de la atención
Admito, sin ninguna culpa, que me encanta la tecnología. Gracias a Internet, mi madre, de 87 años, puede conectarse con amigos de la escuela primaria en la otra punta del mundo, o ver a sus nietos durante una pandemia. Gracias a las tecnologías de vanguardia, nuestros mejores investigadores están logrando avances excepcionales en algunas de las enfermedades más graves. Gracias a las herramientas de videoconferencia podemos ofrecer educación a distancia a nuestros jóvenes y teletrabajar. Así que no es de extrañar que haya estudiado tecnología y que gran parte de mi trabajo esté dedicado a ella.
¿Cuál es el problema? Una trampa tortuosa en la que todos caemos. Su fórmula se resume en una afirmación y tres estrategias: la mayoría de nuestros modelos siguen basándose en la publicidad. Para dirigirse mejor a su público, las plataformas necesitan saber todo lo posible sobre usted. Para ello, necesitan recopilar muchos datos. Para captar datos, necesitan mantener su atención el mayor tiempo posible. Esto se llama economía de la atención.
Mientras que la televisión nos empuja a la publicidad casi a ciegas, dado su estado estático y relativamente desconectado, un teléfono inteligente está constantemente en nuestra persona, siguiéndonos dondequiera que vayamos y escuchando nuestras conversaciones más íntimas.
¿Te acostarías junto a una cámara con un micrófono y un conjunto de sensores? ¿Lo llevarías al baño? ¿Darías información personal sobre todo tu comportamiento e identidad en Internet a desconocidos en la calle? Por supuesto que no y, sin embargo, atrapados en esta economía de la atención, lo hacemos todos los días.
Por primera vez en la historia, una tecnología que creíamos dominar está de hecho hackeando nuestro libre albedrío. Con el exceso de información que compartimos en línea, estos algoritmos están empezando a predecir nuestras acciones, manipular nuestros deseos y, en última instancia, podrían tomar decisiones por nosotros.
Federico Puebla
Primera generación ‘hackable’
Detrás de un diseño elegante y aparentemente inocuo, estos dispositivos inteligentes comunican continuamente nuestra información a servidores donde los algoritmos, codesarrollados por un ejército de genios de la neurociencia y la informática, no sólo aprenden y comprenden cada vez más información sobre nosotros, sino que también son capaces de hacernos creer una historia sobre el mundo a través de nuestros feeds de noticias. Es en los laboratorios de las principales universidades, como el Behaviour Design Lab de la Universidad de Stanford, donde se estudian y aprueban estas técnicas de persuasión, como el “diseño oscuro”.
Da un paso atrás y hazte estas preguntas: ¿quién “decide” lo que voy a ver esta noche en Netflix? ¿Quién me presenta una imagen del estado del mundo? ¿Quién decide qué comprar en Amazon? ¿Quién decide a quién debo hacer solicitudes de amistad? ¿Lo sabes? ¿De verdad? Cada vez son más sofisticados algoritmos los que “sugieren” una serie de opciones o nos presentan “hechos”. ¿Aceptas que Wikipedia te presente una versión sesgada de los artículos según tu perfil? La característica fundamental de la información es que debe ser imparcial.
Esta “apariencia de elección” es vertiginosa y no está exenta de graves consecuencias. Yuval Noah Harari, destacado historiador y escritor israelí, afirma que estamos entrando silenciosamente en una nueva era, en la que el homo sapiens se está convirtiendo en un animal “hackeable”. Por primera vez en la historia, una tecnología que creíamos dominar está de hecho hackeando nuestro libre albedrío. Con el exceso de información que compartimos en línea, estos algoritmos están empezando a predecir nuestras acciones, manipular nuestros deseos y, en última instancia, podrían tomar decisiones por nosotros. Con el nivel de confianza adecuado, podrían decirnos qué carrera seguir, revelar nuestra orientación sexual antes de que lo descubramos nosotros mismos, a quién votar, con quién casarnos, etc.
Pero, como en la película No mires hacia arriba, nadie parece alarmarse demasiado. Es como si los papeles se hubieran intercambiado. Mientras teníamos la impresión de que la tecnología estaba ahí para servirnos, asume hábilmente el papel de maestra para captar nuestra atención durante seis o nueve horas al día desviando nuestra mirada de la realidad. Mientras buscamos las últimas noticias impactantes o una dosis extra de dopamina, detrás de la cortina estamos alimentando constantemente a un monstruo insaciable que se alimenta (y enriquece) cotejando nuestros datos de comportamiento e identidad.
Se hace imperativo exigir lo que se conoce como responsabilidad algorítmica, lo que significa que cualquier empresa que opere en el ámbito social tendrá que jugar al “kimono abierto” y ser transparente sobre sus algoritmos.
Federico Puebla
Las marionetas tecnológicas
Esta desconexión de la realidad da lugar a veces a fenómenos surrealistas. En la comunidad de cirujanos estéticos está surgiendo una nueva patología: la dismorfia del zoom.
Siempre ha habido personas que quieren mejorar su aspecto o parecer una estrella. Pero por primera vez, estos profesionales de la salud han empezado a recibir solicitudes de cirugía para corregir la imagen que reflejan los sistemas de videoconferencia. Estos pacientes muestran capturas de pantalla tomadas durante reuniones virtuales (en Zoom, Teams, etcétera), explican que no están satisfechos con su aspecto y quieren transformarlo. En otras palabras, la imagen virtual está suplantando a la imagen real, es decir, a la que refleja el espejo.
Otro ejemplo de cómo la tecnología usurpa el papel de titiritero es el debate en las redes sociales. A primera vista, el principio de debatir y que todos tengan voz parece justo y equitativo. ¿Cuál es el problema? De hecho, la arquitectura sobre la que se construyen nuestras plataformas está diseñada, entre otras cosas, para provocar estos interminables debates con el fin de estimular nuestros impulsos de coger y mirar su dispositivo una y otra vez. Cuanto más tiempo pase siendo obstinado, reaccionando rápidamente y demostrando que la otra persona está equivocada destruyendo sus argumentos públicamente, más tiempo tendrá el algoritmo para captar datos y, por tanto, orientar mejor el anuncio que nos va a lanzar la próxima vez.
Además, reconozcámoslo, las ideas ya no se debaten; se trata pura y simplemente de demoler la credibilidad del de enfrente. Al ofrecer un micrófono abierto a los que gritan más fuerte, podemos acabar creyendo que la mayoría de la gente es teórica de la conspiración cuando, según varios estudios, es una minoría. Una vez más, esta inteligente manipulación puede instrumentalizar nuestro feed de noticias hasta el punto de convertirlo en una representación del mundo para nosotros.
Esta polarización de la plaza pública es una máquina bien calibrada. La cantidad de intercambios acalorados en los comentarios, la desinformación, el discurso de odio, la ignorancia, etc., son variables que los equipos de neurociencia están estudiando, probando y perfeccionando. Aunque se está avanzando en la propagación de la incitación al odio, como demuestra la tecnología de aprendizaje “Few-Shot Learner” de Facebook, la batalla está lejos de terminar.
¿Y qué hacemos?
El primer paso en cualquier transformación es ponerse de acuerdo sobre la declaración. Si seguimos engañándonos, creyendo que un pequeño grupo de empresas, cuyo valor de mercado se acerca a los diez billones de dólares, puede seguir dictando nuestras vidas, todas nuestras acciones se reducirán a esfuerzos infructuosos. Estamos atrapados en un círculo vicioso y ya es hora de que lo reconozcamos.
En segundo lugar, tenemos que cambiar la narrativa colectiva de que lo más importante para el mundo es el crecimiento económico. Durante décadas, el insaciable homo economicus se ha visto envuelto en una loca carrera por el crecimiento sin fin. Esta alabanza al crecimiento tuvo su momento. Ahora, tenemos que desarrollar nuevos indicadores de crecimiento adaptados al siglo XXI que también tengan en cuenta los ecosistemas vivos, la salud física y mental de la población, el sentido y el placer. Sólo el PIB parece preocupar a nuestros políticos, pero este indicador esclerótico ya no es suficiente. Confiar sólo en ella sería tan absurdo como hacerse a la mar con una brújula cuya aguja está fijada en el sur, independientemente de la dirección deseada.
Por último, debemos tener la claridad de asumir nuestro papel. Con una visión del mundo tan fragmentada por la plétora de noticias, se hace imperativo exigir lo que se conoce como responsabilidad algorítmica, lo que significa que cualquier empresa que opere en el ámbito social tendrá que jugar al “kimono abierto” y ser transparente sobre sus algoritmos. Esto requerirá el liderazgo de nuestros gobiernos y probablemente una nueva legislación. El imperialismo de datos no tiene cabida en una sociedad como la nuestra.
Así es como, en un futuro próximo, podremos contarnos colectivamente bajo una nueva historia, en la que habremos conciliado progreso y benevolencia sin dejarnos embrujar por las sirenas de la tecnología. Debemos gobernar al monstruo antes de que nos gobierne a nosotros.
Federico Puebla es experto en innovación abierta e impacto social. Actualmente es director mundial de los Lava-Lab, SNC Lavalin.