Paranoia y algoritmos

La forma en que las nuevas tecnologías impactan sobre la conducta y la subjetividad no es consecuencia inexorable del progreso técnico, sino que responde a un diseño político y económico. La ciencia ficción nos puso en guardia ante supuestos robots humanoides que se rebelarían contra sus amos; la inteligencia artificial, aunque de modos más sutiles, superó esa fantasía.

Por: Marcelo Rodríguez

Vivimos en una fase histórica en que el capitalismo se ha transformado en un sistema global de vigilancia con poder para manipular a los usuarios y dirigir su conducta

Años ha -pongamos por caso veinte, aunque pueden ser varios menos: es la velocidad de las transformaciones lo que aterra- podía llegar un paciente al consultorio y manifestar sentirse espiado, controlado. Que cada acto suyo, por mínimo o intrascendente que sea -elegir una marca de dentífrico, comenzar cada mañana con una canción de los Beatles, haber googleado un nombre- parece tener consecuencias trascendentes en la configuración de la realidad social y política, aunque no puede explicar cómo. Es como si el poder -algún poder, tampoco tiene muy claro de qué clase- fuese enredándolo en una trama obediente a una lógica secreta, en función de objetivos oscuros y alienantes.

Se siente, en suma, como aquella paradigmática mariposa -ejemplar que ilustra la teoría del caos- cuyo aleteo en Japón acaba desencadenando un huracán en el Golfo de México. La persona no ocupa un alto cargo corporativo ni político, ni trabaja contrarreloj en una vacuna para la COVID (o en armas de destrucción masiva), ni está negociando la deuda de su nación con los organismos del poder financiero mundial. De hecho es una persona sin grandes responsabilidades, por lo que el terapeuta entiende que el florido relato de su paciente y el sentimiento de angustia que lo acompaña no se adecúan del todo a la realidad, y apela a un argumento de manual con el que intenta comenzar a desarmar lo que considera una construcción paranoide: “¿De veras se siente usted tan importante?”

Pasado este breve flashback, saltamos al tiempo actual. Shoshana Zuboff es autora de un libro cuyo título traduciríamos como La era del capitalismo de vigilancia (Hachette, 2018). En una rara entrevista que le hizo en agosto el canal de cable del grupo La Nación, Zuboff se explayaba en su visión sobre el funcionamiento del entorno tecnológico creado por las redes sociales y los algoritmos que seleccionan la información que vemos en función de nuestras preferencias y nuestra conducta.

Vivimos en una fase histórica en que el capitalismo se ha transformado en un sistema global de vigilancia con poder para manipular a los usuarios y dirigir su conducta, explicaba la entrevistada, economista, socióloga y psicóloga, profesora emérita de la Escuela de Negocios de Harvard. Casi sobre el final, la periodista lanza a quemarropa un comentario que, más que la frutilla del postre, se adivinó como el telos mismo de la entrevista, la razón por la que le habían permitido que Zuboff terminara de pintar su cuadro con cierta comodidad: “Para mucha gente, lo que usted está explicando suena a una teoría muy conspirativa”.

El cuadro completo

Hoy es la ilusión de confort y libertad la que nos hace menos autónomos y más susceptibles de ser dominados con menos posibilidad de escapar

Que uno sea paranoico -la frase es del Indio Solari- no significa que no lo estén persiguiendo. La nueva forma de crear riqueza, en este mundo al borde del colapso ambiental por la sobreexplotación de los recursos naturales, está dada por la posibilidad técnica de transformar cada vez más experiencias humanas en datos, mediante nuestro incesante uso de dispositivos conectados a internet.

Esta posibilidad técnica, explica Zuboff, abrió la puerta a un nuevo mundo prácticamente infinito de cosas que estaban fuera del mercado, y que ahora son pasibles de ser convertidas en commodities, compradas y vendidas. Agotada eventualmente la posibilidad de descubrir nuevos recursos libres en la naturaleza, el capitalismo del siglo veintiuno se lanzó hacia nuevas fuentes, “y aquello con lo que se encontró fue con nosotros”.

Las experiencias humanas hoy pueden ser traducidas a datos, que fluyen por cadenas de suministro hacia las nuevas factorías ubicadas en la nube: inteligencias artificiales con capacidad de aprender de su propia experiencia, y que procesan esos datos en tiempo real para obtener, a partir de ellos, predicciones de comportamiento.

Esas predicciones son el producto que Google vende a sus anunciantes en la web, de modo que éstos saben que su mensaje irá dirigido puntualmente a aquellos internautas con más probabilidad de reaccionar a él. La carrera por mejorar estas predicciones -para incrementar su valor de mercado- requiere recolectar gran cantidad y variedad de datos de las personas, pero además, dar con datos eficaces, es decir: aquellos datos críticos que le permitan a los algoritmos guiar la acción de los usuarios.

La predicción con mayor valor de mercado es la que opera empujándonos a ser más predecibles, para lo cual hacen cosas muy sutiles a fin de darle forma y dirección exitosamente a nuestro comportamiento, explica Zuboff. A través de las pantallas de nuestros celulares, computadoras y de un rango cada vez más amplio de artefactos -“hasta el lavavajillas”-, circulan constantemente señales de “castigo” y “recompensa” con las que en mayor o menor medida somos controlados. El mayor poder del dispositivo consiste en que no somos conscientes de esa imposición blanda.

Con proverbial paciencia, revelando que quizá se esperaba aquel comentario, Zuboff le responde a su entrevistadora que La Era del Capitalismo de Vigilancia le llevó demasiados años de trabajo, estudio y acumulación de evidencias como para que le hablen de estar formulando una “teoría conspirativa”. ¿Orwelliana, tal vez?, vuelve a la carga la periodista. No. La sociedad de vigilancia imaginada por Orwell en su novela futurista 1984 -inspirada en los totalitarismos del siglo pasado- se basa en la violencia y el asesinato, pero en la nueva sociedad el poder ejerce un control total sin violencia: “Viene con el capuchino, viene ofrecido como conveniencia, viene con la sonrisa y el juego”. Hoy es la ilusión de confort y libertad la que nos hace menos autónomos y más susceptibles de ser dominados con menos posibilidad de escapar.

Metáforas de lo social

Aunque se lo llame “virtual”, el mundo de los datos es una realidad objetiva y concreta, donde cada una de nuestras participaciones deja huella

El poder de este “capitalismo de vigilancia” salió a la luz con el affaire Cambridge Analytica, la consultora de internet que presuntamente torció la elección presidencial estadounidense de 2016 en favor de Trump. Y cobra realidad hoy, según muchos analistas, en la radicalización de los movimientos de derecha, donde las redes sociales actúan como incubadoras de las manifestaciones más primitivas del sentido común reaccionario. Allí donde detectan el germen del odio, lo alimentan, y son eficaces en eso.

Tal cuadro puede sumir en la desesperanza a cualquiera que simplemente no comulgue con la épica tecnocrática que baja desde Silicon Valley. En la medida en que existe un poder capaz de guiar e inducir los actos de las personas en un sentido determinado, aún a distancia y de manera tan impersonal como se quiera, el sujeto en cuestión tiene más y más motivos para pensarse como un engranaje de ese sistema, y que su acción social sólo es en relación con ese poder del cual forma parte.

Esta visión determinista parece estar en la base de quienes sostienen que la solución del problema es desconectarse. Y no es que apagar los aparatos o borrarse de las redes no pueda ayudar a alguno a resolver su problema personal con estas tecnologías; sólo que suena como proponer dejar de trabajar como solución al problema de la alienación capitalista. No se desconecta el que quiere, sino el que puede, y esto es un problema cuando se quiere pensar en estos términos una solución de nivel político.

Tanto venga desde la derecha como de la izquierda, el determinismo tecnológico -la idea de que “la tecnología”, “la tecnociencia” u otra entidad abstracta de ese cariz nos lleva necesaria e inexorablemente a la servidumbre o la aniquilación- impide pensar que, más allá de los aspectos específicamente técnicos de estos artefactos y algoritmos, en el diseño hay una cuestión enteramente política, ya que depende siempre, en última instancia, de intencionalidades humanas. En otras palabras: con las mismas leyes físicas, químicas y biológicas, las tecnologías podrían ser diferentes si su diseño estuviese guiado por otros intereses.

El diseño de internet dejó de obedecer a la lógica horizontal y pluralista que soñaban algunos de sus pioneros, y pasó a cobrar la forma dada por una concentración de poder sin precedentes a manos de los nuevos gigantes del capitalismo: Apple, Microsoft, Google, Facebook, Amazon. Nada de eso expresa el curso de una evolución “natural” de la tecnología y el conocimiento humanos, aunque en éstos se base. No hay motivo para calzarse como autocastigo el sayo de “tecnófobo” si uno rechaza este modelo de progreso y de desarrollo, ni para autoflagelarse por hacer uso de estas tecnologías -hoy, vivir es usarlas- cuando se adopta una posición política crítica hacia los modelos actuales de desarrollo tecnológico o se advierten sus consecuencias más nefastas.

El caso es que estas corporaciones están diseñando el mundo a imagen y semejanza de sus fantasías de poder, y en la medida en que una parte cada vez mayor de nuestras vidas deje su huella en sus servidores, el poder de los gigantes para rediseñar el mundo se torna más completo y consistente.

Subjetividad desalojada

La paradoja de nuestro tiempo consiste en que el sentimiento de la persona de ser vigilada sea completamente real, sin que nadie de verdad lo esté haciendo. Nadie, sólo el sistema. Que ya no es una entelequia

Aunque se lo llame “virtual”, el mundo de los datos es una realidad objetiva y concreta, donde cada una de nuestras participaciones deja huella del mismo modo que lo vivido y nuestros pensamientos y emociones dejan huella en la realidad objetiva de la vida psíquica.

Esas huellas son el alimento de aquellas entidades algorítmicas, impalpables pero también concretas y objetivas, cuyo medio natural es el universo de los datos, y cuyo trabajo es producir esas predicciones de comportamiento que las empresas que luchan por nuestra atención le compran a Google como preciado insumo.

La médula de esa virtualidad electrónica está surcada por miles de millones de interacciones en tiempo real que, como la vida según Lennon, suceden mientras estamos ocupados en otros planes. La ciencia ficción nos acostumbró a una idea equivocada de lo que es un robot, asegura Jerry Kaplan en Abstenerse humanos (Teell, 2016), porque mientras nos devanábamos los sesos pensando si la automatización y la inteligencia artificial crearían humanoides que competirían con nosotros y tal vez nos superarían hasta adquirir derechos e incluso rebelarse como en Blade Runner (el filme de Ridley Scott basado en la novela más famosa de Philip K. Dick), los cráneos de Silicon Valley se ocuparon, en tiempo récord, de madrugarnos con estos robots invisibles y fluidos, hechos enteramente de impulsos eléctricos codificados, que merodean el ciberespacio a la caza del nuevo oro de la era digital.

Lo técnicamente novedoso de esta suerte de “entes de luz” es que aprenden solos, porque se basan en un nuevo tipo de procesamiento de información (desarrollado en este siglo) donde no hay un programa fijo que establezca de antemano los pasos a seguir para lograr un objetivo, sino que un programador (humano) fija los objetivos, los resultados buscados, y la máquina -en base a un entrenamiento consistente en “premios” y “castigos”- determina por sí sola la forma de alcanzarlos en base a los datos de entrada.

A menudo no es posible, ni siquiera para los especialistas, escrutar el camino elegido por la máquina para lograr su resultado, por lo que suele decirse que estas redes de aprendizaje profundo son oscuras: sus programadores no dominan la lógica por la que la máquina llega, por ejemplo, a reconocer un rostro o a identificar usuarios de Facebook que respondan al tipo “sensible”; sólo saben que el algoritmo fue entrenado para eso y lo logra eficazmente.

Lo relevante de estos nuevos dispositivos es que son entidades activas y, por cierto, bastante despabiladas, hechas de lo mismo que nuestros datos personales, y que ambos -datos y algoritmos- conviven en el mismo medio. Pasándolo en limpio, en el universo de los datos, nuestras huellas, lo que queda de nosotros y de nuestras acciones, son material enteramente pasivo a merced de la capacidad de cosecha y operación de las entidades verdaderamente activas del ciberespacio. En suma, los robots simplemente hacen su trabajo en un espacio al que no podemos siquiera soñar con acceder como sujetos. ¿Para qué habrían de rebelarse?

Así las cosas, la discusión filosófica acerca de si las máquinas pueden pensar o si un programa de computación podría adquirir conciencia, aunque no deja de tener su relevancia, termina siendo poco más que una cortina de humo bizantina. En tanto hablemos de seres humanos, la subjetivación es una condición necesaria (aunque no suficiente) para que los actos puedan responder de algún modo a nuestra voluntad y racionalidad. Y los datos, por sí solos, no tienen esa capacidad.

Las pantallas, teclados e interfaces son el filtro a través del cual nuestras conductas, preferencias y acciones pasan a ese otro mundo, mientras que nuestra consciencia se queda en éste. Poco importa, para el caso, si somos personas importantes o no; el argumento disuasivo del hipotético terapeuta que mencionábamos al principio ya no tendría efecto. La paradoja de nuestro tiempo consiste en que el sentimiento de la persona de ser vigilada sea completamente real, sin que nadie de verdad lo esté haciendo. Nadie, sólo el sistema. Que ya no es una entelequia.

En minería de datos comienza a asumirse, por ejemplo, que estos nuevos algoritmos pueden hacer más democrática a la sociedad, porque permiten que los políticos puedan conocer las preferencias de los ciudadanos a la hora de diseñar y poner en marcha políticas públicas. Un argumento que tal vez no sea para descartar desde el vamos, pero que sin duda abre peligrosamente la puerta a un concepto de democracia sin sujetos políticos.

En medicina, el mercado sueña con un sistema global de salud personalizada, donde a partir de nuestros datos (en una combinación que incluiría información genética, análisis de historia clínica y también vida social y hábitos, todo registrable en tiempo real sin grandes complicaciones) se podría generar un modelo matemático o avatar de cada persona. Un médico virtual (un algoritmo) estaría permanentemente monitoreando ese modelo no sólo para ocuparse de nuestra salud actual, sino para predecir aquellos males a los que somos susceptibles, y hacer las prescripciones necesarias para llevar una vida acorde al imperativo de evitar todo riesgo. Salud perfecta.

Para recuperar la capacidad de subjetivación en esta “realidad 4.0” parece necesario tratar de comprender el curso de estos cambios en relación con la sociedad que los produce, mientras estemos a tiempo. O tal vez esperar, como sueñan los autodenominados “transhumanistas”, a que un puñado de datos sea capaz de adquirir algo digno de llamar “consciencia”. Aunque eso suena como tirar la toalla.

Tomada de https://culturayresistenciablog

Si te gustó, compártelo

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Social media & sharing icons powered by UltimatelySocial