Der Europawahl kann man sich derzeit kaum entziehen. Die Medien sind voll davon und Wahlwerbespots versuchen, unschlüssige Wähler:innen von den Programmen unterschiedlicher Parteien zu überzeugen. Doch wir beschäftigen uns heute nicht mit unserem eigenen Wahlverhalten, sondern wollen wissen, wie denn eine künstliche Intelligenz wählen würde.
Dieser Frage ist der FOCUS-online-Gastautor Felix Beilharz nachgegangen und hat alle größeren KI-Chatbots, wie ChatGPT, Gemini und Grok, die 38 politischen Fragen des Wahl-O-Maten beantworten lassen. Mit einem klaren Ergebnis: Ausnahmslos alle befragten Chatbots haben die größte Übereinstimmung mit den Aussagen von Parteien linker politischer Ausrichtung. Besonders weit vorne liegen dabei die Grünen, die Tierschutzpartei und Volt, während gleichzeitig konservative Parteien wie die CDU/CSU, FDP und AfD, konsequent die letzten Plätze belegen. Nur die von Elon Musk trainierte KI Grok entzieht sich aller Verantwortung und antwortet nach mehrfacher Nachfrage lediglich mit einer neutralen Haltung.
Doch woher kommt diese progressive Haltung der Chatbots?
Daten machen (künstliche) Intelligenzen
Die Qualität einer künstlichen Intelligenz hängt zum großen Teil von den Daten ab, anhand derer sie trainiert wurde. Und diese Daten enthalten häufig einen sogenannten Bias. Dabei handelt es sich um eine Art Verzerrung der Wahrnehmung durch verschiedene Faktoren. Beispielsweise könnte man alle Zuschauer:innen eines Spiels von Borussia Dortmund fragen, welcher Fußballverein der beste in Deutschland ist. Dabei würde man sicher ganz andere Ergebnisse bekommen als bei einem Spiel des FC Bayern München. Diese vereinfachte Dynamik lässt sich auf komplexere Datenzusammenhänge übertragen. Der Bias kommt oft auch unbewusst vor und wird von der KI identifiziert und für weitere Entscheidungsfindungen benutzt.
Möchte ein Unternehmen zum Beispiel eine neue Führungsposition besetzen und für die erste Auswahl ein KI-System nutzen, so kann es die Lebensläufe früherer geeigneter Führungskräfte als Trainingsdaten nutzen. Wurden bis jetzt aber – aus welchen Gründen auch immer – nur Männer eingestellt, könnte die KI lernen, dass das Attribut weiblich ein Ausschlusskriterium darstellt und alle weiblichen Bewerberinnen aus dem Prozess ausschließen.
Diese Systematik zeigt, wie stark die Art der Informationen, die am Anfang vorliegen, das endgültige Ergebnis beeinflusst. Doch jetzt zurück zu unseren Chatbots, die linke Parteien wählen: Wie kann das denn an den Daten liegen? Eine Antwort darauf könnte sein, dass Entwickler:innen ihre Modelle immer bewusst oder unbewusst beeinflussen. Viele versuchen sogar aktiv Diskriminierung, wie in dem Beispiel mit dem Bewerbungsprozess, entgegenzuwirken. Das führt automatisch zu einer progressiveren und liberaleren „Meinung“ der KI, die sich dann wiederum mit vielen Inhalten linker Parteien deckt.
Innovativ denken: neue Wege, neue Ansichten
Viele Innovationen kommen aus internationalen und divers aufgestellten Teams mit kreativen Köpfen. Sie denken zukunftsorientiert und wollen mit ihren Entwicklungen aktuelle Problematiken wie den Klimawandel oder den demografischen Wandel adressieren. Ordnet man diese Grundhaltung thematisch den inhaltlichen Schwerpunkten der Parteien zu, kommt es zu großen Übereinstimmungen mit eher links ausgerichteten Parteien. Und auch hier kommt dann der eben erwähnte Bias zum Tragen: Es kann dazu kommen, dass die Entwickler:innen durch ihre Einstellungen und Werte die Algorithmen – beabsichtigt oder unbeabsichtigt – in eine bestimmte Richtung lenken.
Die Komfortzone der KI: Regulierungen
Linke Parteien neigen oft dazu, strengere Regulierungen für Unternehmen und Technologien zu unterstützen, um unter anderem gesellschaftliche Gerechtigkeit und Datenschutz zu fördern. Künstliche Intelligenzen basieren ebenfalls auf Regeln, nämlich auf Algorithmen und Datenanalysen. Um zu einer Entscheidung zu gelangen, schafft sich die KI aus einer Vielzahl an Daten bestimmte Strukturen und Regeln, die sie wiederum für ihr Ergebnis nutzt. Es ist also durchaus denkbar, dass sie aufgrund ihrer eigenen Vorgehensweise regulatorische Maßnahmen als vorteilhaft bewertet.
Input ist das A und O
Wenn man sich die Fragen des Wahl-O-Mats etwas genauer ansieht, bestätigt sich die Datentheorie erneut. Von den insgesamt 38 Fragen thematisieren elf davon direkt oder indirekt den Umweltschutz und zwölf Diskriminierung. Das sind zusammen 23 Fragen, was ca. 60,5 % des gesamten Tests ausmacht. Zusammen mit der Bias-These reift in uns folgender Verdacht: Könnte es sein, dass das potenzielle Wahlverhalten der Chatbots doch nicht auf einer eigenen politischen Haltung der künstlichen Intelligenz basiert, sondern lediglich auf einem einfachen, menschengemachten Datenbias. Warum sich allerdings dann ausgerechnet Grok, der von Elon Musk gezielt mit rechten und konservativen Inhalten gefüttert wird, keine gegenteilige Meinung aus der Nase ziehen lässt, ist und bleibt uns ein Rätsel. Vielleicht ist uns die KI doch schon einen Schritt voraus und wir wissen nur noch nicht was da auf uns zu kommt 😉