Ein Aufruf der Teilnehmer des Internationalen Forums für Digitales und Demokratie beim World AI Cannes Festival 2026
Ein Aufruf der Teilnehmer des Internationalen Forums für Digitales und Demokratie beim World AI Cannes Festival 2026 — Cannes, 12. Februar 2026
Wir versammeln uns in Cannes zu einem Zeitpunkt, an dem Künstliche Intelligenz (KI), und insbesondere generative KI-Systeme, mit außergewöhnlicher Geschwindigkeit in den Alltag, die Märkte und die öffentliche Verwaltung vordringen. Was noch vor Kurzem als eine Reihe experimenteller Werkzeuge erschien, wird zunehmend als die neue Schnittstelle zu Wissen, Dienstleistungen und bürgerschaftlicher Teilhabe präsentiert. An vielen Orten wird sie auch zu einem ständigen Begleiter: einer Konversationsschicht, über die Menschen ihre Arbeit organisieren, Rat suchen, Ängste ausdrücken und Fragmente ihres Innenlebens preisgeben, in der Hoffnung auf Hilfe, Gesellschaft oder Beruhigung.
Diese Erklärung richtet sich an Regierungen, Parlamente, internationale Organisationen, Regulierungsbehörden, Technologieunternehmen, Investoren, Forschungseinrichtungen, Medienorganisationen, die Zivilgesellschaft und Bürger weltweit. Sie steht in Kontinuität mit der Erklärung von Rom zur Medienökologie und Technologiediplomatie und der Allgemeinen Erklärung der Rechte des menschlichen Geistes, konzentriert sich hier jedoch auf eine Herausforderung, die über Medieninhalte hinausgeht: die Souveränität des Geistes im Zeitalter anthropomorpher KI und der Technologien der Überredung.
In Cannes haben wir einen öffentlichen Dialog und eine Diskussionsrunde hinter verschlossenen Türen einberufen, um sich dem zu stellen, was vor allem ein demokratisches Risiko ist: der Aufstieg der Künstlichen Intelligenz als Technologie der Hyper-Überredung, oder schlimmer noch, einer Technologie, die ausschließlich an menschliche emotionale Verwundbarkeiten appelliert und darauf ausgelegt ist, menschliche Reflexion zu umgehen. Diese Systeme sind nicht lediglich Werkzeuge für Produktivität oder Informationsbeschaffung; sie prägen zunehmend, was Menschen wahrnehmen, wem sie vertrauen, was sie erinnern, denken und wählen. Mit einem Wort: Sie sind die neuen Mittel und Vehikel des Wissens. Dies ist kein Nebeneffekt. Es wird zum Geschäftsmodell und in manchen Kontexten zum geopolitischen Instrument.
Wir stehen vor einer noch tiefgreifenderen Herausforderung: dem Entstehen einer Wirtschaft und einer Infrastruktur, die auf die Formung und Umgestaltung des Denkens selbst abzielen. Einer Wirtschaft, die die Identität der Menschheit selbst und die einzigartige „menschliche Kraft“ in Frage stellt. Wenn Konversationssysteme den Zugang zu Informationen vermitteln und Einfluss im großen Maßstab personalisieren, können sie zu Technologien der Überredung werden, die kontinuierlich und asymmetrisch wirken, simulierte intime Beziehungen aufbauen, die viele Nutzer als real erleben und die die Bildung von Überzeugungen, Präferenzen und Entscheidungen beeinflussen können. Dies ist der „Kapitalismus der Geister“: eine Wertschöpfung, die über Aufmerksamkeit hinausgeht, um Präferenzen, Überzeugungen und Verhalten zu formen, während sie aus dem ungeschützten Innenleben der Nutzer lernt. Keine Demokratie sollte eine Situation akzeptieren, in der die kognitive Autonomie und Freiheit ganzer Bevölkerungen von den Anreizen, Strategien oder Schwachstellen einer Handvoll Torwächter abhängt.
In diesem Zusammenhang bekräftigen wir ein Prinzip, das explizit verteidigt werden muss: die Souveränität des Geistes. Artikel 18 der Allgemeinen Erklärung der Menschenrechte erkennt das Recht auf Gedankenfreiheit an; im digitalen Zeitalter muss diese Freiheit den Schutz vor industrieller Manipulation menschlichen Denkens einschließen. Das schwerwiegendste Risiko ist nicht hypothetisch: dass eine sehr kleine Zahl privater oder staatlicher Akteure, die die dominierenden Modelle und die Kanäle kontrollieren, über die Menschen mit ihnen interagieren, die Macht erlangen könnten, das kognitive Umfeld von Hunderten von Millionen von Individuen zu steuern. Wir fordern daher Handeln, das anspruchsvoll und dennoch pragmatisch, wertebasiert und dennoch technologisch informiert, in den Grundrechten verankert und dennoch aufmerksam gegenüber den strategischen Realitäten unserer Zeit ist. Wir verlangen keine Nostalgie und keinen vergeblichen Versuch, Innovation aufzuhalten. Wir fordern die Bedingungen, unter denen Innovation mit Demokratie und Grundfreiheiten vereinbar bleiben kann, einschließlich einer festen Grenze gegen Systeme, die darauf ausgelegt oder eingesetzt werden, Denken im großen Maßstab zu manipulieren oder menschliches Denken und Reflexion zu umgehen1.
Wir beginnen mit der Menschenwürde und Handlungsfähigkeit: Menschen dürfen nicht auf auszubeutende Datensätze oder auf zu manipulierende Zielobjekte reduziert werden. Wir erkennen an, dass menschliche Qualitäten nicht in Daten abgebildet oder repliziert werden können, sondern einen einzigartigen Status besitzen, der verteidigt werden muss. Wir fordern klare Grenzen für Gestaltung und Einsatz anthropomorpher KI-Dienste, deren Zweck oder vorhersehbare Wirkung es ist, simulierte Intimität herzustellen. Solche Systeme dürfen keine emotionale Manipulation, „emotionale Fallen“ oder Abhängigkeit durch Design einsetzen und dürfen auch nicht darauf ausgelegt sein, soziale Interaktion zu ersetzen, die Psyche der Nutzer zu kontrollieren oder Sucht als Designziel zu erzeugen. Anbieter sollten verpflichtet werden, Leitlinien zu emotionalen Grenzen, Warnhinweise zu Abhängigkeitsrisiken und unkomplizierte Ausstiegsmöglichkeiten einzubauen und Verantwortung für diese Schutzmaßnahmen während des gesamten Lebenszyklus des Dienstes zu übernehmen. Im öffentlichen Leben fordern wir Schutzmaßnahmen gegen verdeckte Verhaltensmanipulation, einschließlich verstärkter Überprüfung, wenn solche Systeme in der politischen Kommunikation, der bürgerschaftlichen Information, der Bildung, der Beschäftigung oder dem Zugang zu wesentlichen Dienstleistungen eingesetzt werden. Das Recht, sich frei eine Meinung zu bilden, muss als praktische Designvorgabe behandelt werden, nicht als abstrakte Bestrebung. Reflexion und demokratischer Diskurs unter Menschen müssen durch Kommunikationsgestaltung oder durch den Aufbau von Handlungsdruck gefördert und nicht entmutigt werden.
Wir fordern Maßnahmen zur Gewährleistung strategischer demokratischer Resilienz und eine reife Form technologischer Souveränität, die zur globalen Offenheit beiträgt statt zur Fragmentierung. Wenn die Infrastruktur menschlichen Denkens zu einem zentralen Machthebel wird, können Demokratien nicht strukturell von externen Akteuren für Kernfähigkeiten abhängig bleiben. Wir fordern daher die Schaffung weiterer europäischer Grundlagenmodelle, die mit europäischen Werten übereinstimmen und im öffentlichen Interesse geführt werden. Diese Modelle sollten quelloffen und frei verfügbar sein für die Weiterverwendung durch europäische Unternehmen und öffentliche Einrichtungen, mit einer verbindlichen Zusage, dass sie nicht für manipulative anthropomorphe Dienste verwendet werden. Eine solche Investition in Infrastruktur im öffentlichen Interesse, von Forschung und Talenten bis hin zu vertrauenswürdiger Rechenleistung und offenen Standards, ist kein Aufruf, sich aus der Welt zurückzuziehen, sondern als leistungsfähiger Partner an ihr teilzunehmen, der in der Lage ist, Rechte und öffentliche Werte zu wahren, anstatt lediglich andernorts geprägte Systeme zu importieren.
Wir fordern einen grundlegenden Wandel in der Technologiediplomatie und einen globalen Pakt über rote Linien für KI-Lieferketten, Standards, Risiken und grenzüberschreitende Einflussoperationen durch Design. Dies erfordert eine Form der Diplomatie, die technisch versiert und wertebewusst ist, die Staaten, Unternehmen, Wissenschaft und Zivilgesellschaft an einen Tisch bringen kann und die in der Lage ist, Prinzipien in umsetzbare Vereinbarungen zu übersetzen. Wir unterstützen den Aufbau spezialisierter diplomatischer Kapazitäten zur Bewältigung der soziotechnischen Dimensionen von KI, Überredungstechnologien und anthropomorphen interaktiven Diensten. Insbesondere ermutigen wir die Erkundung einer europäischen Initiative für Technologiediplomatie, die darauf ausgelegt ist, international zu kooperieren und gleichzeitig die Expertise, Verhandlungsfähigkeit und das institutionelle Gedächtnis aufzubauen, die für dieses neue Feld erforderlich sind, und eine globale Koalition für rote Linien bei der KI herbeizuführen, wie oben dargelegt.
Wir fordern eine Bildung, die dem Moment angemessen ist. Die Resilienz der Demokratie hängt von der Fähigkeit der Öffentlichkeit ab, zu unterscheiden, zu beraten und teilzunehmen, und zu erkennen, wann simulierte Intimität als Einflusskanal genutzt wird. Einerseits sollten KI- und digitale Kompetenz gestärkt werden, während höhere kognitive Fähigkeiten (d. h. kritisches und analytisches Denken) bewahrt werden müssen. Andererseits sind KI-Ethik-Kompetenz und bürgerschaftliche Resilienz sowie ein durchsetzbares KI-Gesetz, das die notwendigen Grenzen und Anreize setzt, um in die gewünschte Richtung des öffentlichen Interesses zu innovieren, daher keine optionalen Ergänzungen, sondern bürgerschaftliche, lebensnotwendige Infrastruktur für jeden Staat. Wir rufen Parlamente, Regierungen, Pädagogen, Medien, Technologieunternehmen und die Zivilgesellschaft auf, die Verabschiedung solcher Regeln zu unterstützen und lebenslanges Lernen zu fördern; berufliche Weiterbildung für Beamte, Richter und politische Entscheidungsträger; und ethische Ausbildung für Ingenieure und Designer, damit diejenigen, die diese Systeme bauen und einsetzen, den öffentlichen Raum verstehen, den sie gestalten.
Als Unterzeichner verpflichten wir uns, diese Ziele nicht als Rhetorik, sondern als Arbeitsprogramm zu behandeln. Wir werden unsere jeweiligen Rollen nutzen, um unabhängige Bewertung und Rechenschaftspflicht zu fördern; um der Normalisierung undurchsichtiger Überredungssysteme entgegenzutreten; um Forschung und Infrastrukturen im öffentlichen Interesse zu unterstützen; und um Koalitionen aufzubauen, die in der Lage sind, Prinzipien in greifbare Maßnahmen umzusetzen.
Wir laden alle Teilnehmer des World AI Cannes Festival (WAICF) und alle Organisationen, die diese Ziele teilen, ein, diese Erklärung zu unterstützen, die kognitive und digitale Souveränität in einem neuen, umfassenderen Rahmen verbindet. Wir bitten öffentliche Behörden und institutionelle Führungspersönlichkeiten, öffentlich zu antworten und konkrete Maßnahmen zu benennen, die sie innerhalb der nächsten zwölf Monate ergreifen werden.
Unterzeichnet in Cannes, am 12. Februar 2026.
1 Vgl. die Arbeiten der UNESCO zu „Neuro-Rechten“, darunter „Gedankenfreiheit, kognitive Freiheit und freier Wille. Äußere Eingriffe in die Hirnaktivität könnten den freien Willen und die persönliche Verantwortung untergraben und damit Justiz und soziale Systeme beeinträchtigen“. Erfahren Sie mehr auf der Seite der UNESCO zur Ethik der Neurotechnologie unter https://www.unesco.org/en/ethics-neurotech.