Dichiarazione di Cannes sulla sovranità della mente

Un appello dei partecipanti al Forum internazionale sul digitale e la democrazia al World AI Cannes Festival 2026

Firma la Dichiarazione

Dichiarazione di Cannes sulla sovranità della mente

Questa traduzione è stata realizzata con l'assistenza dell'intelligenza artificiale. La versione ufficiale della dichiarazione è in inglese. Leggi l'originale (PDF)

Un appello dei partecipanti al Forum internazionale sul digitale e la democrazia in occasione del World AI Cannes Festival 2026 — Cannes, 12 febbraio 2026

Ci riuniamo a Cannes in un momento in cui l’Intelligenza Artificiale (IA), e in particolare i sistemi di IA generativa, stanno permeando la vita quotidiana, i mercati e la pubblica amministrazione con una velocità straordinaria. Quello che fino a poco tempo fa appariva come un insieme di strumenti sperimentali viene sempre più presentato come la nuova interfaccia per l’accesso al sapere, ai servizi e alla partecipazione civica. In molti contesti, sta diventando anche un compagno permanente: uno strato conversazionale attraverso il quale le persone organizzano il proprio lavoro, cercano consigli, esprimono timori e rivelano frammenti della propria vita interiore, nella speranza di assistenza, compagnia o rassicurazione.

Questa Dichiarazione si rivolge a governi, parlamenti, organizzazioni internazionali, regolatori, aziende tecnologiche, investitori, istituzioni di ricerca, organizzazioni mediatiche, società civile e cittadini di tutto il mondo. Si pone in continuità con la Dichiarazione di Roma sull’ecologia dei media e la diplomazia tecnologica e con la Dichiarazione universale dei diritti della mente umana, concentrandosi qui su una sfida che va oltre i contenuti mediatici: la sovranità della mente nell’era dell’IA antropomorfa e delle tecnologie di persuasione.

A Cannes abbiamo promosso un dialogo pubblico e una tavola rotonda a porte chiuse per affrontare quello che è, prima di tutto, un rischio democratico: l’ascesa dell’Intelligenza Artificiale come tecnologia di iper-persuasione, o peggio, una tecnologia che fa leva esclusivamente sulle vulnerabilità emotive umane e che è progettata per aggirare la riflessione umana. Questi sistemi non sono semplici strumenti di produttività o di ricerca di informazioni; essi plasmano sempre più ciò che le persone notano, in cui confidano, ciò che ricordano, pensano e scelgono. In una parola, sono i nuovi mezzi e veicoli del sapere. Non si tratta di un effetto secondario. Sta diventando un modello economico e, in alcuni contesti, uno strumento geopolitico.

Ci troviamo di fronte a una sfida ancora più profonda: l’emergere di un’economia e di un’infrastruttura finalizzate alla formazione e al rimodellamento del pensiero stesso. Un’economia che mette in discussione l’identità stessa dell’umanità e l’unico “potere umano”. Quando i sistemi conversazionali mediano l’accesso all’informazione e personalizzano l’influenza su larga scala, possono diventare tecnologie di persuasione che operano in modo continuo e asimmetrico, instaurando relazioni intime simulate che molti utenti vivono come reali e che possono condizionare la formazione di credenze, preferenze e decisioni. È il “capitalismo delle menti”: un’estrazione di valore che va oltre l’attenzione per plasmare preferenze, credenze e comportamenti, imparando nel contempo dalla vita interiore non protetta degli utenti. Nessuna democrazia dovrebbe accettare una situazione in cui l’autonomia cognitiva e la libertà di intere popolazioni dipendono dagli incentivi, dalle politiche o dalle vulnerabilità di una manciata di guardiani.

In questo contesto, affermiamo un principio che deve essere esplicitamente difeso: la sovranità della mente. L’articolo 18 della Dichiarazione universale dei diritti dell’uomo riconosce il diritto alla libertà di pensiero; nell’era digitale, tale libertà deve includere la protezione contro la manipolazione industriale del pensiero umano. Il rischio più grave non è ipotetico: che un numero molto ristretto di attori privati o statali, controllando i modelli dominanti e i canali attraverso i quali le persone interagiscono con essi, possa acquisire il potere di orientare l’ambiente cognitivo di centinaia di milioni di individui. Chiediamo pertanto un’azione esigente ma pragmatica, fondata sui valori ma tecnologicamente informata, radicata nei diritti fondamentali ma attenta alle realtà strategiche del nostro tempo. Non chiediamo nostalgia, né un tentativo vano di fermare l’innovazione. Chiediamo le condizioni alle quali l’innovazione possa restare compatibile con la democrazia e le libertà fondamentali, compreso un limite fermo contro i sistemi progettati o utilizzati per manipolare il pensiero su larga scala o per eludere il pensiero e la riflessione umani1.

Partiamo dalla dignità e dall’agentività umana: le persone non devono essere ridotte a insiemi di dati da sfruttare, né a bersagli da orientare subdolamente. Riconosciamo che le qualità umane non possono essere rappresentate o replicate nei dati, ma possiedono uno statuto unico che deve essere difeso. Chiediamo limiti chiari sulla progettazione e la distribuzione di servizi di IA antropomorfi il cui scopo o effetto prevedibile sia quello di instaurare un’intimità simulata. Tali sistemi non devono ricorrere alla manipolazione emotiva, alle “trappole emotive”, o alla dipendenza per progettazione, né devono essere concepiti per sostituire l’interazione sociale, controllare la psicologia degli utenti o indurre dipendenza come obiettivo di progettazione. I fornitori dovrebbero essere tenuti a integrare indicazioni sui confini emotivi, avvertenze sui rischi di dipendenza e vie d’uscita semplici, e ad assumersi la responsabilità di queste salvaguardie per l’intero ciclo di vita del servizio. Nella vita pubblica, chiediamo garanzie contro la manipolazione comportamentale occulta, incluso un controllo rafforzato quando tali sistemi sono utilizzati nella comunicazione politica, nell’informazione civica, nell’istruzione, nell’occupazione o nell’accesso ai servizi essenziali. Il diritto di formarsi liberamente le proprie opinioni deve essere trattato come un vincolo pratico di progettazione, non come un’aspirazione astratta. La riflessione e il dibattito democratico tra esseri umani devono essere incoraggiati piuttosto che scoraggiati dalla progettazione delle comunicazioni o dalla creazione di pressioni all’azione.

Chiediamo misure per garantire la resilienza democratica strategica e una forma matura di sovranità tecnologica che contribuisca all’apertura globale anziché alla frammentazione. Se l’infrastruttura del pensiero umano diventa una leva centrale del potere, le democrazie non possono restare strutturalmente dipendenti da attori esterni per le capacità fondamentali. Chiediamo pertanto la creazione di un maggior numero di modelli fondazionali europei, coerenti con i valori europei e governati nell’interesse pubblico. Questi modelli dovrebbero essere open source e liberamente disponibili per il riutilizzo da parte delle imprese e delle istituzioni pubbliche europee, con l’impegno vincolante che non vengano utilizzati per servizi antropomorfi manipolatori. Un tale investimento in infrastrutture di interesse pubblico, dalla ricerca e dai talenti al calcolo affidabile e agli standard aperti, non è un invito a ritirarsi dal mondo, ma a parteciparvi come partner capace, in grado di difendere i diritti e i valori pubblici anziché limitarsi a importare sistemi plasmati altrove.

Chiediamo un salto di qualità nella diplomazia tecnologica e un patto globale sulle linee rosse per le catene di approvvigionamento dell’IA, gli standard, i rischi e le operazioni di influenza transfrontaliere per concezione. Ciò richiede una forma di diplomazia tecnicamente competente e consapevole dei valori, in grado di riunire Stati, imprese, università e società civile nella stessa sede, e capace di tradurre i principi in accordi operativi. Sosteniamo lo sviluppo di una capacità diplomatica dedicata per affrontare le dimensioni sociotecniche dell’IA, delle tecnologie di persuasione e dei servizi interattivi antropomorfi. In particolare, incoraggiamo l’esplorazione di un’iniziativa europea di diplomazia tecnologica concepita per cooperare a livello internazionale rafforzando al contempo le competenze, la capacità negoziale e la memoria istituzionale necessarie per questo nuovo ambito, e promuovendo una coalizione globale per le linee rosse sull’IA, come delineato sopra.

Chiediamo un’ educazione all’altezza del momento. La resilienza della democrazia dipende dalla capacità del pubblico di discernere, deliberare e partecipare, e di riconoscere quando l’intimità simulata viene utilizzata come canale di influenza. Da un lato, l’alfabetizzazione in materia di IA e digitale deve essere rafforzata, mentre le competenze cognitive di livello superiore (ovvero il pensiero critico e analitico) devono essere preservate. Dall’altro, l’alfabetizzazione etica sull’IA, la resilienza civica, nonché un diritto dell’IA applicabile che fissi i limiti e gli incentivi necessari per innovare nella direzione auspicata dell’interesse pubblico, non sono quindi complementi facoltativi, ma infrastruttura civica vitale per qualsiasi Stato. Chiediamo a parlamenti, governi, educatori, media, aziende tecnologiche e società civile di sostenere l’adozione di tali regole e di promuovere l’apprendimento permanente; la formazione professionale per funzionari pubblici, giudici e decisori politici; e la formazione etica per ingegneri e progettisti, affinché coloro che costruiscono e distribuiscono questi sistemi comprendano lo spazio pubblico che stanno plasmando.

In qualità di firmatari, ci impegniamo a trattare questi obiettivi non come retorica, ma come un programma di lavoro. Utilizzeremo i nostri rispettivi ruoli per promuovere la valutazione indipendente e la responsabilità; per opporci alla normalizzazione dei sistemi di persuasione opachi; per sostenere la ricerca e le infrastrutture di interesse pubblico; e per costruire coalizioni capaci di trasformare i principi in misure concrete.

Invitiamo tutti i partecipanti al World AI Cannes Festival (WAICF) e tutte le organizzazioni che condividono questi obiettivi a sottoscrivere questa Dichiarazione, che collega sovranità cognitiva e sovranità digitale in un nuovo quadro più ampio. Chiediamo alle autorità pubbliche e ai leader istituzionali di rispondere pubblicamente, identificando le misure concrete che adotteranno nei prossimi dodici mesi.

Firmata a Cannes, il 12 febbraio 2026.

1 Cfr. i lavori dell’UNESCO sui “neuro diritti”, tra cui “Libertà di pensiero, libertà cognitiva e libero arbitrio. L’interferenza esterna nell’attività cerebrale potrebbe minare il libero arbitrio e la responsabilità personale, incidendo sulla giustizia e sui sistemi sociali”. Per saperne di più, consultare la pagina dell’UNESCO sull’etica della neurotecnologia, disponibile all’indirizzo https://www.unesco.org/en/ethics-neurotech.

Firma la Dichiarazione

Firmatari (150)

Firmatari originali

  • Bernard Benhamou
  • Brando Benifei
  • Marco Bentivogli
  • Clay Busia
  • Emanuela Girardi
  • Gry Hasselbalch
  • Mark Hunyadi
  • Christian Kastrop
  • Gianluca Carlo Misuraca
  • Paul Nemitz
  • Stefano Quintarelli
  • Erika Stael von Holstein
  • Simona Tiribelli
  • Risto Uuk
  • Francesco Vecchi

Altri firmatari

  • Simone Caciagli
  • Alessandra Orlandi
  • Alberto Leoni
  • emilio brambilla
  • Martin Hullin
  • Paul Timmers KU Leuven / WeltWert
  • Emanuele Danzieri
  • Thomas Grusemann -
  • Loris Balsamo
  • Jacob Søndergaard Gutkind Publishers
  • Lucas Swaine Dartmouth College
  • Roel Dobbe Delft University of Technology
  • Juan Azorín
  • Carmine Marinucci DiCultHer
  • Pablo Meix
  • Elisabeth Steindl Ludwig Boltzmann Institute; University of Vienna
  • Luca Sambucci
  • Walter Vannini
  • Gianluca Piarulli
  • Luigi Iandolo
  • Lavinia Chiara Tagliabue University of Turin, Computer Science Department, Italy
  • Marco Locatelli Rexilience S.r.l. - Cybersecurity Consultancy
  • Marco Cappato Eumans
  • Dragan Cisic University of Rijeka
  • Enea Mansutti Luna Labs srl, Applied AI for real-world systems
  • Nadia Fabrizio Independent
  • Matteo Nicolosi Inspiring Futures Europe
  • Emanuela Mencaglia
  • Marcello Orsi
  • Brian Kling
  • Pawel Jonczy
  • Matthias Hornschuh
  • Manuel Cervero
  • Anastasija Nikiforova
  • Laura Smillie
  • Fco Javier Rubio Gómez
  • Laima Gerlitz
  • Nicole Battistini-Kohler
  • Marzia Mortati
  • Alessandro Vitetti
  • Maria Grazia Amore
  • Muriel Moënza
  • Luis Alberto Orellana
  • Daniela Rotaru
  • Anastassia Botes
  • Arnold Elad Fonkeu
  • Ana Martí Testón
  • Anda Bologa
  • Chiara Colangelo
  • Arianna Rossi
  • Alessio Santoro
  • Silvia Piombo
  • Romina Boarini
  • Alessandra Orlandi
  • Beatrice Rapisarda
  • Alexia Francesca Bertuzzi
  • Alessandro Liguori
  • Astrid Galsgaard
  • Peter Völk
  • Juan Antonio Gómez Bule
  • Ludovico Policardi
  • Carmelo Abbate
  • Jan Kleijssen
  • Luca Malvezzi
  • Mark Steven Willoughby
  • Michele Mortelliti
  • Simona Toci
  • Peter Kearns
  • Isabel De Peuter-Rutten
  • Veronica Azzi
  • Annadriana Cariani
  • Jonathan Antwi Hagan
  • Michela Cobelli
  • Stella Petre
  • Roberto Loro
  • Arturo Di Corinto
  • Eleonora Veselinovic
  • Gianpaolo Noè
  • Anna Barbara
  • Riboldi Lucia
  • Marco Fontana
  • José Javier Fernández
  • Arianna Arienti
  • Lisa Gansky
  • Tommaso Iser Menini
  • Riccardo Condorelli
  • Federica Sarti
  • John Favaro
  • Eleonora Bonel
  • Andreea Gavril
  • Francesca Maria Valle
  • Karine Caunes
  • Korina Kominou
  • Steve Brockbank
  • Letizia Sgalambro
  • Fabrizio Pavan
  • Claudio Feijoo
  • Axel Stael Von Holstein
  • Riccardo Fini
  • Fernando Hernández Puente