Declaración de Cannes sobre la soberanía de la mente

Un llamamiento de los participantes en el Foro Internacional sobre lo Digital y la Democracia en el World AI Cannes Festival 2026

Firmar la Declaración

Declaración de Cannes sobre la soberanía de la mente

Esta traducción fue generada con la asistencia de inteligencia artificial. La versión oficial de la declaración está en inglés. Leer el original (PDF)

Un llamamiento de los participantes en el Foro Internacional sobre lo Digital y la Democracia en el World AI Cannes Festival 2026 — Cannes, 12 de febrero de 2026

Nos reunimos en Cannes en un momento en que la Inteligencia Artificial (IA), y en particular los sistemas de IA generativa, están permeando la vida cotidiana, los mercados y la administración pública con una velocidad extraordinaria. Lo que recientemente parecía un conjunto de herramientas experimentales se presenta cada vez más como la nueva interfaz para acceder al conocimiento, los servicios y la participación cívica. En muchos lugares, se está convirtiendo también en un compañero permanente: una capa conversacional a través de la cual las personas organizan su trabajo, buscan consejo, expresan sus temores y revelan fragmentos de su vida interior, con la esperanza de obtener ayuda, compañía o consuelo.

Esta Declaración se dirige a gobiernos, parlamentos, organizaciones internacionales, reguladores, empresas tecnológicas, inversores, instituciones de investigación, organizaciones de medios de comunicación, sociedad civil y ciudadanos de todo el mundo. Se ofrece en continuidad con la Declaración de Roma sobre Ecología de los Medios y Diplomacia Tecnológica y la Declaración Universal de los Derechos de la Mente Humana, centrándose aquí en un desafío que va más allá de los contenidos mediáticos: la soberanía de la mente en la era de la IA antropomórfica y las tecnologías de persuasión.

En Cannes, hemos convocado un diálogo público y una mesa redonda a puerta cerrada para confrontar lo que es, ante todo, un riesgo democrático: el auge de la Inteligencia Artificial como tecnología de hiperpersuasión, o peor aún, una tecnología que apela exclusivamente a las vulnerabilidades emocionales humanas y que está diseñada para eludir la reflexión humana. Estos sistemas no son meras herramientas de productividad o de recuperación de información; conforman cada vez más lo que las personas advierten, en qué confían, lo que recuerdan, piensan y eligen. En una palabra, son los nuevos medios y vehículos del saber. Esto no es un efecto secundario. Se está convirtiendo en un modelo de negocio y, en algunos contextos, en un instrumento geopolítico.

Nos enfrentamos a un desafío aún más profundo: la aparición de una economía y una infraestructura orientadas a la formación y la reconfiguración del pensamiento mismo. Una economía que cuestiona la identidad misma de la humanidad y el único «poder humano». Cuando los sistemas conversacionales median el acceso a la información y personalizan la influencia a gran escala, pueden convertirse en tecnologías de persuasión que operan de manera continua y asimétrica, estableciendo relaciones íntimas simuladas que muchos usuarios experimentan como reales y que pueden condicionar la formación de creencias, preferencias y decisiones. Es el «capitalismo de las mentes»: una extracción de valor que va más allá de la atención para moldear preferencias, creencias y comportamientos, mientras aprende de la vida interior desprotegida de los usuarios. Ninguna democracia debería aceptar una situación en la que la autonomía cognitiva y la libertad de poblaciones enteras dependan de los incentivos, las políticas o las vulnerabilidades de un puñado de guardianes.

En este contexto, afirmamos un principio que debe ser explícitamente defendido: la soberanía de la mente. El artículo 18 de la Declaración Universal de los Derechos Humanos reconoce el derecho a la libertad de pensamiento; en la era digital, esa libertad debe incluir la protección contra la manipulación industrial del pensamiento humano. El riesgo más grave no es hipotético: que un número muy reducido de actores privados o estatales, que controlan los modelos dominantes y los canales a través de los cuales las personas interactúan con ellos, puedan adquirir el poder de dirigir el entorno cognitivo de cientos de millones de individuos. Pedimos por tanto una acción exigente pero pragmática, basada en valores pero tecnológicamente informada, arraigada en los derechos fundamentales pero atenta a las realidades estratégicas de nuestro tiempo. No pedimos nostalgia, ni un intento fútil de detener la innovación. Pedimos las condiciones bajo las cuales la innovación pueda seguir siendo compatible con la democracia y las libertades fundamentales, incluyendo un límite firme contra los sistemas diseñados o utilizados para manipular el pensamiento a gran escala o para eludir el pensamiento y la reflexión humanos1.

Comenzamos por la dignidad y la agencia humanas: las personas no deben ser reducidas a conjuntos de datos que explotar, ni a objetivos que manipular sutilmente. Reconocemos que las cualidades humanas no pueden ser representadas o replicadas en datos, sino que poseen un estatuto único que debe ser defendido. Pedimos límites claros en el diseño y despliegue de servicios de IA antropomórficos cuyo propósito o efecto previsible sea establecer una intimidad simulada. Tales sistemas no deben emplear manipulación emocional, «trampas emocionales» o dependencia por diseño, ni deben estar concebidos para reemplazar la interacción social, controlar la psicología de los usuarios o inducir adicción como objetivo de diseño. Los proveedores deberían estar obligados a incorporar orientaciones sobre límites emocionales, advertencias sobre riesgos de dependencia y vías de salida sencillas, y a asumir la responsabilidad de estas salvaguardias durante todo el ciclo de vida del servicio. En la vida pública, pedimos salvaguardias contra la manipulación conductual encubierta, incluyendo un escrutinio reforzado cuando dichos sistemas se utilicen en la comunicación política, la información cívica, la educación, el empleo o el acceso a servicios esenciales. El derecho a formarse libremente las propias opiniones debe ser tratado como una restricción práctica de diseño, no como una aspiración abstracta. La reflexión y el discurso democrático entre seres humanos deben ser fomentados en lugar de desalentados mediante el diseño de la comunicación o la creación de presiones para actuar.

Pedimos medidas para garantizar la resiliencia democrática estratégica y una forma madura de soberanía tecnológica que contribuya a la apertura global en lugar de a la fragmentación. Si la infraestructura del pensamiento humano se convierte en una palanca central de poder, las democracias no pueden permanecer estructuralmente dependientes de actores externos para sus capacidades fundamentales. Pedimos por tanto la creación de más modelos fundacionales europeos, coherentes con los valores europeos y gobernados en el interés público. Estos modelos deberían ser de código abierto y estar libremente disponibles para su reutilización por parte de empresas e instituciones públicas europeas, con el compromiso vinculante de que no se utilicen para servicios antropomórficos manipuladores. Tal inversión en infraestructura de interés público, desde la investigación y el talento hasta la computación confiable y los estándares abiertos, no es un llamamiento a retirarse del mundo, sino a participar en él como un socio capaz, en condiciones de defender derechos y valores públicos en lugar de limitarse a importar sistemas forjados en otros lugares.

Pedimos un cambio de nivel en la diplomacia tecnológica y un pacto global sobre líneas rojas para las cadenas de suministro de IA, normas, riesgos y operaciones de influencia transfronterizas por diseño. Esto exige una forma de diplomacia técnicamente competente y consciente de los valores, capaz de reunir a Estados, empresas, mundo académico y sociedad civil en un mismo espacio, y capaz de traducir principios en acuerdos operativos. Apoyamos el desarrollo de una capacidad diplomática dedicada para abordar las dimensiones sociotécnicas de la IA, las tecnologías de persuasión y los servicios interactivos antropomórficos. En particular, alentamos la exploración de una iniciativa europea de diplomacia tecnológica diseñada para cooperar internacionalmente al tiempo que se fortalece la experiencia, la capacidad de negociación y la memoria institucional necesarias para este nuevo ámbito, y se promueve una coalición global para líneas rojas sobre la IA, según lo expuesto anteriormente.

Pedimos una educación a la altura del momento. La resiliencia de la democracia depende de la capacidad del público para discernir, deliberar y participar, y para reconocer cuándo la intimidad simulada se utiliza como canal de influencia. Por un lado, la alfabetización en IA y digital debe ser reforzada, mientras que las competencias cognitivas de nivel superior (es decir, el pensamiento crítico y analítico) deben ser preservadas. Por otro, la alfabetización en ética de la IA, la resiliencia cívica, así como una legislación de IA aplicable que establezca los límites e incentivos necesarios para innovar en la dirección deseada del interés público, no son por tanto complementos opcionales, sino infraestructura cívica vital para cualquier Estado. Hacemos un llamamiento a parlamentos, gobiernos, educadores, medios de comunicación, empresas tecnológicas y sociedad civil para que apoyen la adopción de tales normas y promuevan el aprendizaje permanente; la formación profesional de funcionarios, jueces y responsables políticos; y la formación ética de ingenieros y diseñadores, de modo que quienes construyen y despliegan estos sistemas comprendan el espacio público que están configurando.

Como firmantes, nos comprometemos a tratar estos objetivos no como retórica, sino como un programa de trabajo. Utilizaremos nuestros respectivos roles para promover la evaluación independiente y la rendición de cuentas; para oponernos a la normalización de sistemas de persuasión opacos; para apoyar la investigación y las infraestructuras de interés público; y para construir coaliciones capaces de convertir los principios en medidas tangibles.

Invitamos a todos los participantes del World AI Cannes Festival (WAICF) y a todas las organizaciones alineadas con estos objetivos a suscribir esta Declaración, que articula soberanía cognitiva y soberanía digital en un nuevo marco más amplio. Pedimos a las autoridades públicas y a los líderes institucionales que respondan públicamente, identificando las medidas concretas que adoptarán en los próximos doce meses.

Firmada en Cannes, el 12 de febrero de 2026.

1 Cf. los trabajos de la UNESCO sobre «neuroderechos», incluido «Libertad de pensamiento, libertad cognitiva y libre albedrío. La interferencia externa en la actividad cerebral podría socavar el libre albedrío y la responsabilidad personal, afectando a la justicia y a los sistemas sociales». Más información en la página de la UNESCO sobre la ética de la neurotecnología, disponible en https://www.unesco.org/en/ethics-neurotech.

Firmar la Declaración

Firmantes (154)

Firmantes originales

  • Bernard Benhamou
  • Brando Benifei
  • Marco Bentivogli
  • Clay Busia
  • Emanuela Girardi
  • Gry Hasselbalch
  • Mark Hunyadi
  • Christian Kastrop
  • Gianluca Carlo Misuraca
  • Paul Nemitz
  • Stefano Quintarelli
  • Erika Stael von Holstein
  • Simona Tiribelli
  • Risto Uuk
  • Francesco Vecchi

Otros firmantes

  • Claudio Feijoo
  • Axel Stael Von Holstein
  • Riccardo Fini
  • Fernando Hernández Puente
  • Marco Merli
  • Christian Ingemann
  • Alessandro Padovan
  • Salvatore Moccia
  • Olalekan Israel Akinbo
  • Francesc Felipe Campillo
  • Sara Arcudi
  • Barbara Ghezzi
  • Bernd Halling
  • Federica Fascio
  • Tomal Dattaroy
  • Lydia Aguirre
  • Davide Carelli
  • Iva Junakovic Prazen
  • Emanuele Cammareri
  • Brahim Bouragaa
  • Arta Ertekin
  • Pere Vilanova
  • Alfredo Perna
  • Salvatore Burruano
  • Federica Antonucci
  • Clara Incerpi
  • Veronica Cretu
  • Evgenii Mateichik
  • Marco Dallera
  • Antonella Di Masa
  • Isabella De Magny
  • Jacob Livingston Slosser
  • Chloe Mcdowell
  • Julia Delrieu
  • Marco Giordano
  • Mahesh Londhe
  • Simon Piatek
  • Ioana-Teodora Stoian
  • Valeria Smiroldo