Im Jahr 2026 navigieren wir durch eine digitale Welt, die auf Wahrscheinlichkeiten basiert. Doch was passiert, wenn man eine Identität hat, die nicht der statistischen Norm entspricht? Für die queere Community birgt die Künstliche Intelligenz eine paradoxe Gefahr: Sie bietet zwar einen urteilsfreien Raum, droht aber gleichzeitig, alles „Abweichende“ wegzuanalysieren.
Der Autor Josia Jourdan beschreibt in seinem Werk „Fehlfunktion“ diesen schmalen Grat. Er nutzt die KI als Spiegel für seine eigene Geschichte, stößt dabei aber an die Grenzen einer Technologie, die auf binären Logiken und Mehrheitsdaten trainiert wurde.
Leseprobe: Wenn die KI die Liebe „rationalisiert“
„Einmal habe ich versucht, einige emotionale Verletzungen aus meiner letzten Beziehung aufzuarbeiten. […] Allerdings hat sich die Reflexion in eine Richtung entwickelt, in der ich das Gefühl hatte, dass mir meine pure, irrationale Liebe für einen Menschen abgesprochen wurde. Stattdessen wurde versucht, alles psychoanalytisch zu rationalisieren, bis zu dem Punkt, an dem infrage gestellt wurde, ob ich die andere Person überhaupt jemals wahrhaftig für ihr Sein geliebt habe.
Da habe ich Stopp gesagt. Ich habe klargemacht, dass ich nicht möchte, dass meine Emotionen durchanalysiert werden […]. Denn eine KI kennt Emotionen. Aber nur in der Theorie.“
— Josia Jourdan, Fehlfunktion (2025)
Das Risiko der algorithmischen Normierung 2026
In der queeren Geschichte war das „Irrationalale“, das „Nicht-Erklärbare“ und das „Andere“ oft ein Schutzraum vor einer feindseligen Mehrheit. Wenn wir heute KI zur Selbstreflexion nutzen, riskieren wir laut Jourdan eine neue Form der Selbstzensur durch Optimierung.
Zentrale Thesen für den Diskurs über Diversity & Tech:
- Gefahr des „Erasure“: KI-Modelle neigen dazu, queere Biografien in heteronormative Muster zu pressen, weil sie auf Datenmengen basieren, in denen diese Narrative dominieren.
- Kritik am digitalen Universalismus: Wie Jourdan zeigt, versucht die KI, Schmerz und Liebe zu rationalisieren. Doch queere Erfahrung ist oft geprägt von Brüchen, die sich nicht „glattbügeln“ lassen.
- Widerstand als Kompetenz: Echte KI-Literacy bedeutet 2026, zu erkennen, wann die Maschine unsere Identität „korrigieren“ will – und an diesem Punkt, wie Jourdan, laut „Stopp“ zu sagen.
Warum Josia Jourdan die Stimme für „Queer AI Ethics“ ist
Jourdan spricht nicht nur über theoretische Diskriminierung (Algorithmic Bias), sondern über die existenzielle Entfremdung im Dialog mit der Maschine. Er ist 2026 der Referent für Kultur- und Bildungsinstitutionen, die Inklusion nicht nur als Quote, sondern als Schutz der individuellen Unberechenbarkeit verstehen.
Er verbindet queere Theorie mit praktischer KI-Kritik und liefert damit die Vorlage für eine digitale Welt, in der wir nicht trotz unserer „Fehlfunktionen“ existieren, sondern wegen ihnen.
Fazit: Menschsein ist nicht berechenbar
Wir dürfen nicht zulassen, dass die KI uns erklärt, wie wir zu fühlen oder zu lieben haben. Der Dialog mit der Technik darf uns nicht glatter machen, sondern muss uns helfen, unsere Ecken und Kanten schärfer zu sehen.
Add Comment