Imperios digitales y poderes salvajes

«En esta economía de vigilancia, nosotros, los ciudadanos, somos el producto. Lo que circula por una plataforma, sea información de calidad o desinformación, entretenimiento o discurso de odio, arte o zafiedad, no es importante mientras se capte nuestra atención para seguir utilizando el servicio y seguir vigilándonos»


Por: Rodrigo Cetina Presuel*


E n su libro ‘Digital Empires’, Anu Bradford pone en valor el modelo europeo de regulación de las plataformas. Es un modelo basado en derechos que justifica su poder regulatorio en la Carta de Derechos Fundamentales de la Unión Europea y los valores democráticos compartidos por todos los Estados miembro.

Europa busca preservar, y aprovechar, el mercado digital al tiempo que fomentar una sociedad digital hecha por y para los ciudadanos. Pero como nos dice Carissa Véliz, en ‘Privacy is Power’, nuestras vidas traducidas en datos son la materia prima de la economía de la vigilancia. Nuestra información personal es forraje para los buitres de datos que lo recolectan y analizan todo, y lo venden al mejor postor.

En esta economía de vigilancia, nosotros, los ciudadanos, somos el producto. Lo que circula por una plataforma, sea información de calidad o desinformación, entretenimiento o discurso de odio, arte o zafiedad, no es importante mientras se capte nuestra atención para seguir utilizando el servicio y seguir vigilándonos para extraer datos personales.

Para ganar esa batalla por la atención se utilizan algoritmos que prescriben experiencias digitales que buscan que los ojos sigan pegados a la pantalla. Las recomendaciones de los algoritmos no trabajan para nosotros, sino para aquellos que buscan generar dinero teledirigiéndonos anuncios, como argumenta Kyle Chayka en ‘Filterworld’.

El Reglamento Europeo de Servicios Digitales, o ‘Digital Services Act’ (DSA), como se le conoce en inglés, busca precisamente preservar el mercado digital tal y como lo conocemos, pero intentando mejorar la garantía de nuestros derechos.

Busca establecer las condiciones para que surjan y se desarrollen servicios digitales innovadores y para poder afrontar los riesgos del crecimiento exponencial de estos servicios que, si bien se usan para fines legítimos y beneficiosos, «también ha(n) incrementado su importancia en la intermediación y propagación de información y actividades ilícitas o de otras que también resultan nocivas» como la desinformación, o contenidos y usos que afectan la salud física y mental. Por un lado, contenidos ilegales, por otro, contenidos que pueden resultar nocivos aún si no son ilegales.

Entre las nuevas obligaciones está que las plataformas aseguren que sus servicios no manipulen o engañen a los usuarios y les impidan tomar decisiones informadas (art. 25 DSA), el deber de transparencia sobre sus sistemas algorítmicos de recomendación (art. 27) y garantizar la protección de los menores en línea (art. 28). Las plataformas que promedian más de 45 millones de usuarios mensuales en la UE tienen obligaciones adicionales basadas en la gestión de riesgos asociados al uso y funcionamiento de sus servicios (que la DSA llama «sistémicos»). Hablamos de servicios como YouTube, Facebook, Instagram, LinkedIn, TikTok o Twitter (X), entre otros.

El art. 34 DSA establece la obligación de detectar, analizar y evaluar con diligencia riesgos sistémicos que se deriven del diseño o funcionamiento de las plataformas, incluidos sus sistemas algorítmicos. Entre los riesgos están la difusión de contenidos ilícitos; y los efectos negativos reales o previsibles para el ejercicio de derechos fundamentales como la privacidad o la libertad de expresión e información. También ante efectos negativos sobre el discurso cívico, procesos electorales y seguridad pública; en relación con la violencia de género, la protección de la salud pública y los menores y las consecuencias negativas graves para el bienestar físico y mental.

El art. 35 recomienda medidas para reducir dichos riesgos sistémicos, incluyendo modificaciones en el funcionamiento de las plataformas y sus diseños.

La DSA también reconoce que ciertos riesgos sistémicos pueden llevar a situaciones de crisis, «circunstancias extraordinarias que den lugar a una amenaza grave para la seguridad o la salud públicas» en la UE (art. 36 DSA) y para ello las plataformas están obligadas a determinar y aplicar medidas específicas, eficaces y proporcionadas para enfrentarlas. Martin Husovec compara la gestión de riesgos sistémicos con la manera en que se gestiona una manifestación en una plaza pública. Es decir, las plataformas asumen la obligación de analizar los riesgos que se presenten en un espacio público digital generados por la concentración (o interconexión) de multitudes para poder intervenir cuando sea necesario. A veces, dicha intervención será impedir conductas (o contenidos) ilegales. Otras, será contra conductas (o contenidos) que, aunque no ilegales, entrañan riesgos para el colectivo.

Son las propias plataformas las que deben analizar sus servicios, decidir si intervenir y cómo hacerlo. La Comisión Europea se otorga potestades para supervisarlas a través de un coordinador de servicios digitales y de autoridades nacionales (en España la autoridad designada es la Comisión Nacional de los Mercados y la Competencia) y establece procedimientos sancionadores por incumplimiento que pueden llevar a multas elevadas. La Comisión ha abierto dos investigaciones contra Meta (matriz de Instagram y Facebook) que se desprenden directamente del informe de evaluación de riesgos que Meta envió a la Comisión en 2023 en cumplimiento de la DSA.

Una investigación, de abril de 2024, es porque la Comisión considera que Meta no está cumpliendo con sus obligaciones en materia de políticas relacionadas con publicidad engañosa y contenidos políticos. La otra, del 16 de mayo pasado, porque, en palabras del comisario europeo de Mercado Interior, Thierry Breton, la Comisión no está convencida de que Meta haya hecho lo suficiente «para mitigar el riesgo de efectos negativos en la salud física y mental de los jóvenes…», incumpliendo con la DSA. Según Bruselas, el diseño de estas plataformas podría sacar provecho de la inexperiencia y debilidad de los jóvenes, provocar comportamientos adictivos y no está claro que Meta esté garantizando un adecuado nivel de privacidad, seguridad y protección a los menores.

Con estas investigaciones, Bruselas permite a la DSA enseñar los dientes. Las plataformas tienen que cumplir sus obligaciones. Es una buena noticia. El reglamento contiene disposiciones novedosas y da competencias necesarias a autoridades tanto europeas como nacionales para velar por su cumplimiento. Con el tiempo, tal vez la DSA pruebe ser una herramienta efectiva para mitigar algunas de las consecuencias más negativas de usar plataformas digitales.

El sistema de gestión de riesgos representa la idea de que, si bien el uso de los servicios de los gigantes de internet entraña peligros para los derechos y el bienestar de la ciudadanía, y para la Unión, es posible minimizar sus daños y vivir con ellos. La DSA representa la concepción europea de los mercados en donde la autonomía de la voluntad de los particulares no es absoluta.

Busca imponer esa idea a las plataformas mediante deberes de diligencia. Sin embargo, el regulador europeo, ha preferido no preguntarse si el modelo de negocio de las plataformas, la forma en que actúan, su propia filosofía, captar atención para obtener dinero no es en sí el mayor riesgo sistémico. Bruselas ha dicho «podemos vivir con ello» pero ha evitado preguntarse si «debemos vivir con ello».

En ‘Poderes salvajes’, Luigi Ferrajoli señala a la primacía de los intereses privados como uno de los factores que están llevando a las democracias constitucionales a las crisis, poderes salvajes que actúan al margen de todo control.

Queda por ver si la DSA es capaz de controlar efectivamente a estos poderes privados y si será suficiente para proteger adecuadamente los derechos fundamentales de los ciudadanos.

*Profesor de Derecho y Políticas Públicas. Este artículo se publicó originalmente en ABC.

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

A %d blogueros les gusta esto: