Déclaration de Cannes sur la souveraineté de l'esprit

Un appel des participants au Forum international sur le numérique et la démocratie au World AI Cannes Festival 2026

Signer la Déclaration

Déclaration de Cannes sur la souveraineté de l'esprit

Cette traduction a été réalisée avec l'aide de l'intelligence artificielle. La version officielle de la déclaration est en anglais. Lire l'original (PDF)

Un appel des participants au Forum international sur le numérique et la démocratie lors du World AI Cannes Festival 2026 — Cannes, 12 février 2026

Nous nous réunissons à Cannes à un moment où l’Intelligence Artificielle (IA), et en particulier les systèmes d’IA générative, pénètrent dans la vie quotidienne, les marchés et l’administration publique à une vitesse extraordinaire. Ce qui n’apparaissait récemment que comme un ensemble d’outils expérimentaux est de plus en plus présenté comme la nouvelle interface d’accès au savoir, aux services et à la participation civique. En de nombreux endroits, elle devient aussi un compagnon permanent : une couche conversationnelle à travers laquelle les gens organisent leur travail, cherchent des conseils, expriment leurs craintes et dévoilent des fragments de leur vie intérieure, dans l’espoir d’une aide, d’une compagnie ou d’un réconfort.

Cette Déclaration s’adresse aux gouvernements, aux parlements, aux organisations internationales, aux régulateurs, aux entreprises technologiques, aux investisseurs, aux institutions de recherche, aux médias, à la société civile et aux citoyens du monde entier. Elle s’inscrit dans la continuité de la Déclaration de Rome sur l’écologie des médias et la diplomatie technologique et de la Déclaration universelle des droits de l’esprit humain, tout en se concentrant ici sur un défi qui va au-delà du contenu médiatique : la souveraineté de l’esprit à l’ère de l’IA anthropomorphe et des technologies de persuasion.

À Cannes, nous avons organisé un dialogue public et une table ronde à huis clos pour affronter ce qui est, avant tout, un risque démocratique : la montée de l’Intelligence Artificielle en tant que technologie d’hyper-persuasion, ou pire, une technologie qui fait exclusivement appel aux vulnérabilités émotionnelles humaines et qui est conçue pour contourner la réflexion humaine. Ces systèmes ne sont pas de simples outils de productivité ou de recherche d’information ; ils façonnent de plus en plus ce que les gens remarquent, en quoi ils ont confiance, ce dont ils se souviennent, ce qu’ils pensent et ce qu’ils choisissent. En un mot, ils sont les nouveaux moyens et vecteurs du savoir. Ce n’est pas un effet secondaire. Cela devient un modèle économique et, dans certains contextes, un instrument géopolitique.

Nous faisons face à un défi encore plus profond : l’émergence d’une économie et d’une infrastructure visant à la formation et au remodelage de la pensée elle-même. Une économie qui remet en question l’identité même de l’humanité et le « pouvoir humain » unique. Lorsque des systèmes conversationnels servent d’intermédiaires pour l’accès à l’information et personnalisent l’influence à grande échelle, ils peuvent devenir des technologies de persuasion qui opèrent en permanence et de manière asymétrique, établissant des relations intimes simulées que de nombreux utilisateurs vivent comme réelles et qui peuvent conditionner la formation des croyances, des préférences et des décisions. C’est le « capitalisme des esprits » : une extraction de valeur qui va au-delà de l’attention pour façonner les préférences, les croyances et les comportements, tout en apprenant de la vie intérieure non protégée des utilisateurs. Aucune démocratie ne devrait accepter une situation dans laquelle l’autonomie cognitive et la liberté de populations entières dépendent des incitations, des politiques ou des vulnérabilités d’une poignée de gardiens.

Dans ce contexte, nous affirmons un principe qui doit être explicitement défendu : la souveraineté de l’esprit. L’article 18 de la Déclaration universelle des droits de l’homme reconnaît le droit à la liberté de pensée ; à l’ère numérique, cette liberté doit inclure la protection contre la manipulation industrielle de la pensée humaine. Le risque le plus grave n’est pas hypothétique : qu’un très petit nombre d’acteurs privés ou étatiques, contrôlant les modèles dominants et les canaux par lesquels les gens interagissent avec eux, acquièrent le pouvoir d’orienter l’environnement cognitif de centaines de millions d’individus. Nous demandons donc une action exigeante mais pragmatique, fondée sur des valeurs mais technologiquement informée, ancrée dans les droits fondamentaux mais attentive aux réalités stratégiques de notre époque. Nous ne demandons pas la nostalgie, ni une tentative vaine d’arrêter l’innovation. Nous demandons les conditions dans lesquelles l’innovation peut rester compatible avec la démocratie et les libertés fondamentales, y compris une limite ferme contre les systèmes conçus ou utilisés pour manipuler la pensée à grande échelle ou pour éluder la pensée et la réflexion humaines1.

Nous commençons par la dignité et la capacité d’agir de l’être humain : les personnes ne doivent pas être réduites à des ensembles de données à exploiter, ni à des cibles à orienter subtilement. Nous reconnaissons que les qualités humaines ne peuvent être représentées ou reproduites dans des données, mais qu’elles possèdent un statut unique qui doit être défendu. Nous appelons à des limites claires sur la conception et le déploiement de services d’IA anthropomorphes dont l’objectif ou l’effet prévisible est d’établir une intimité simulée. De tels systèmes ne doivent pas recourir à la manipulation émotionnelle, aux « pièges émotionnels », ou à la dépendance par conception, et ne doivent pas non plus être conçus pour remplacer l’interaction sociale, contrôler la psychologie des utilisateurs ou induire une dépendance comme objectif de conception. Les fournisseurs devraient être tenus d’intégrer des orientations sur les limites émotionnelles, des avertissements sur les risques de dépendance et des voies de sortie simples, et d’assumer la responsabilité de ces garanties tout au long du cycle de vie du service. Dans la vie publique, nous demandons des garanties contre la manipulation comportementale dissimulée, y compris une vigilance accrue lorsque ces systèmes sont utilisés dans la communication politique, l’information civique, l’éducation, l’emploi ou l’accès aux services essentiels. Le droit de se forger librement ses opinions doit être traité comme une contrainte pratique de conception, et non comme une aspiration abstraite. La réflexion et le débat démocratique entre humains doivent être encouragés plutôt que découragés par la conception des communications ou par la création de pressions à l’action.

Nous demandons des mesures pour assurer la résilience démocratique stratégique et une forme mature de souveraineté technologique qui contribue à l’ouverture mondiale plutôt qu’à la fragmentation. Si l’infrastructure de la pensée humaine devient un levier central de pouvoir, les démocraties ne peuvent rester structurellement dépendantes d’acteurs extérieurs pour leurs capacités fondamentales. Nous appelons donc à la création de davantage de modèles fondationnels européens, conformes aux valeurs européennes et gouvernés dans l’intérêt général. Ces modèles devraient être en source ouverte et librement disponibles pour être réutilisés par les entreprises et les institutions publiques européennes, avec un engagement contraignant qu’ils ne soient pas utilisés pour des services anthropomorphes manipulateurs. Un tel investissement dans une infrastructure d’intérêt général, de la recherche et des talents au calcul de confiance et aux normes ouvertes, n’est pas un appel au repli sur soi, mais à participer au monde en tant que partenaire compétent, capable de défendre les droits et les valeurs publiques plutôt que d’importer simplement des systèmes façonnés ailleurs.

Nous demandons un changement d’échelle en matière de diplomatie technologique et un pacte mondial sur les lignes rouges concernant les chaînes d’approvisionnement en IA, les normes, les risques et les opérations d’influence transfrontalières par conception. Cela exige une forme de diplomatie techniquement compétente et consciente des valeurs, capable de réunir États, entreprises, universités et société civile dans la même enceinte, et capable de traduire des principes en arrangements opérationnels. Nous soutenons le développement d’une capacité diplomatique dédiée pour traiter les dimensions sociotechniques de l’IA, des technologies de persuasion et des services interactifs anthropomorphes. En particulier, nous encourageons l’exploration d’une initiative européenne de diplomatie technologique conçue pour coopérer au niveau international tout en renforçant l’expertise, la capacité de négociation et la mémoire institutionnelle nécessaires à ce nouveau domaine, et en favorisant une coalition mondiale pour des lignes rouges sur l’IA, telles qu’elles ont été décrites ci-dessus.

Nous demandons une éducation à la hauteur du moment. La résilience de la démocratie dépend de la capacité du public à discerner, délibérer et participer, et à reconnaître quand l’intimité simulée est utilisée comme canal d’influence. D’une part, la littératie en matière d’IA et de numérique doit être renforcée, tandis que les compétences cognitives de haut niveau (c’est-à-dire la pensée critique et analytique) doivent être préservées. D’autre part, la littératie en éthique de l’IA, la résilience civique, ainsi qu’un droit de l’IA applicable qui fixe les limites et les incitations nécessaires pour innover dans la direction souhaitée de l’intérêt général, ne sont donc pas des compléments facultatifs, mais une infrastructure civique vitale pour tout État. Nous appelons les parlements, les gouvernements, les éducateurs, les médias, les entreprises technologiques et la société civile à soutenir l’adoption de telles règles et à soutenir l’apprentissage tout au long de la vie ; la formation professionnelle des fonctionnaires, des juges et des décideurs ; et la formation éthique des ingénieurs et des concepteurs, afin que ceux qui construisent et déploient ces systèmes comprennent l’espace public qu’ils façonnent.

En tant que signataires, nous nous engageons à traiter ces objectifs non comme de la rhétorique, mais comme un programme de travail. Nous utiliserons nos rôles respectifs pour promouvoir l’évaluation indépendante et la redevabilité ; pour nous opposer à la normalisation des systèmes de persuasion opaques ; pour soutenir la recherche et les infrastructures d’intérêt général ; et pour construire des coalitions capables de transformer les principes en mesures tangibles.

Nous invitons tous les participants au World AI Cannes Festival (WAICF) et toutes les organisations alignées sur ces objectifs à soutenir cette Déclaration, qui relie souveraineté cognitive et souveraineté numérique dans un nouveau cadre plus large. Nous demandons aux autorités publiques et aux responsables institutionnels de répondre publiquement, en identifiant les mesures concrètes qu’ils prendront dans les douze prochains mois.

Signée à Cannes, le 12 février 2026.

1 Cf. les travaux de l’UNESCO sur les « neuro-droits », notamment « Liberté de pensée, liberté cognitive et libre arbitre. L’interférence extérieure dans l’activité cérébrale pourrait saper le libre arbitre et la responsabilité personnelle, affectant la justice et les systèmes sociaux ». En savoir plus sur la page de l’UNESCO consacrée à l’éthique de la neurotechnologie, disponible à l’adresse https://www.unesco.org/en/ethics-neurotech.

Signer la Déclaration

Signataires (154)

Signataires originaux

  • Bernard Benhamou
  • Brando Benifei
  • Marco Bentivogli
  • Clay Busia
  • Emanuela Girardi
  • Gry Hasselbalch
  • Mark Hunyadi
  • Christian Kastrop
  • Gianluca Carlo Misuraca
  • Paul Nemitz
  • Stefano Quintarelli
  • Erika Stael von Holstein
  • Simona Tiribelli
  • Risto Uuk
  • Francesco Vecchi

Autres signataires

  • Francesco Romeo
  • Denis Dall'Oco
  • Serena Piccioni
  • Pietro Pellegrini
  • Simone Caciagli
  • Alessandra Orlandi
  • Alberto Leoni
  • emilio brambilla
  • Martin Hullin
  • Paul Timmers KU Leuven / WeltWert
  • Emanuele Danzieri
  • Thomas Grusemann -
  • Loris Balsamo
  • Jacob Søndergaard Gutkind Publishers
  • Lucas Swaine Dartmouth College
  • Roel Dobbe Delft University of Technology
  • Juan Azorín
  • Carmine Marinucci DiCultHer
  • Pablo Meix
  • Elisabeth Steindl Ludwig Boltzmann Institute; University of Vienna
  • Luca Sambucci
  • Walter Vannini
  • Gianluca Piarulli
  • Luigi Iandolo
  • Lavinia Chiara Tagliabue University of Turin, Computer Science Department, Italy
  • Marco Locatelli Rexilience S.r.l. - Cybersecurity Consultancy
  • Marco Cappato Eumans
  • Dragan Cisic University of Rijeka
  • Enea Mansutti Luna Labs srl, Applied AI for real-world systems
  • Nadia Fabrizio Independent
  • Matteo Nicolosi Inspiring Futures Europe
  • Emanuela Mencaglia
  • Marcello Orsi
  • Brian Kling
  • Pawel Jonczy
  • Matthias Hornschuh
  • Manuel Cervero
  • Anastasija Nikiforova
  • Laura Smillie
  • Fco Javier Rubio Gómez
  • Laima Gerlitz
  • Nicole Battistini-Kohler
  • Marzia Mortati
  • Alessandro Vitetti
  • Maria Grazia Amore
  • Muriel Moënza
  • Luis Alberto Orellana
  • Daniela Rotaru
  • Anastassia Botes
  • Arnold Elad Fonkeu
  • Ana Martí Testón
  • Anda Bologa
  • Chiara Colangelo
  • Arianna Rossi
  • Alessio Santoro
  • Silvia Piombo
  • Romina Boarini
  • Alessandra Orlandi
  • Beatrice Rapisarda
  • Alexia Francesca Bertuzzi
  • Alessandro Liguori
  • Astrid Galsgaard
  • Peter Völk
  • Juan Antonio Gómez Bule
  • Ludovico Policardi
  • Carmelo Abbate
  • Jan Kleijssen
  • Luca Malvezzi
  • Mark Steven Willoughby
  • Michele Mortelliti
  • Simona Toci
  • Peter Kearns
  • Isabel De Peuter-Rutten
  • Veronica Azzi
  • Annadriana Cariani
  • Jonathan Antwi Hagan
  • Michela Cobelli
  • Stella Petre
  • Roberto Loro
  • Arturo Di Corinto
  • Eleonora Veselinovic
  • Gianpaolo Noè
  • Anna Barbara
  • Riboldi Lucia
  • Marco Fontana
  • José Javier Fernández
  • Arianna Arienti
  • Lisa Gansky
  • Tommaso Iser Menini
  • Riccardo Condorelli
  • Federica Sarti
  • John Favaro
  • Eleonora Bonel
  • Andreea Gavril
  • Francesca Maria Valle
  • Karine Caunes
  • Korina Kominou
  • Steve Brockbank
  • Letizia Sgalambro
  • Fabrizio Pavan