Wer keine Lust hat, bei Whatsapp, Facebook oder Instagram mit echten Menschen zu chatten, kann das neuerdings auch mit einer Maschine tun. Der Meta-Konzern hat in seinen Diensten und Netzwerken seit Ende März auch in der EU seine Künstliche Intelligenz Meta AI verbaut. Ein bunter Kreis deutet auf die Neuerung hin und führt zu einem Chatbot, den Nutzerinnen und Nutzer um Rat fragen können.
Aber: Schon bald könnten sich die Antworten des Chatbots verändern. In einem Blogpost hat das Unternehmen angekündigt, das eigene KI-Modell Llama 4 solle künftig politisch „ausgewogener“ sein. Oder anders gesagt: Es soll weniger Antworten liefern, die Meta als politisch „links“ einordnet.
Es ist eine Nachricht, die aufhorchen lässt: In den vergangenen Wochen hatte der Socialmedia-Konzern eine 180-Grad-Kehrtwende vollzogen und seine Plattformen mit großen Ankündigungen auf Linie des neuen US-Präsidenten Donald Trump gebracht Dazu zählen neben neuen Regelungen für die Plattformmoderation auch weitere Veränderungen. im Unternehmen selbst Könnte die Künstliche Intelligenz auf WhatsApp und Instagram jetzt eine Propagandamaschine für Trumps 'Make America Great Again'-Politik werden?
Wenn der Chatbot zu „links“ ist
Im offiziellen Erklärungsdokument des Unternehmens ist dies jedoch nicht so deutlich formuliert. Der Blogbeitrag vom 5. April Beschäftigt sich hauptsächlich mit den Neuigkeiten in Llama-Version 4, die nun in 40 Ländern verfügbar sind. Die Europäische Union befindet sich momentan – so weit – noch außerhalb dieser Liste: Der Unternehmen hat die Freigabe aufgrund von regeltechnischen Unklarheiten zu Beginn ausgesetzt. Ebenfalls laufen die Chatservices wie WhatsApp derzeit immer noch unter Verwendung der alternden Version Llama 3.2 im europäischen Raum.
In dem Blogpost findet sich jedoch ein unscheinbarer Abschnitt mit der Überschrift „Bekämpfung von Voreingenommenheit in LLM“. LLM ist die Abkürzung für Large-Language-Model. Da schreibt der Konzern: „Es ist bekannt, dass alle führenden LLMs Probleme mit Voreingenommenheit hatten – insbesondere neigten sie in der Vergangenheit bei umstrittenen politischen und sozialen Themen eher nach links. Dies ist auf die Art der im Internet verfügbaren Trainingsdaten zurückzuführen.“
Dieses Vorurteil möchte man jetzt beseitigen und sicherstellen, dass Llama sowohl die eine als auch die andere Seite einer kontroversen Frage versteht und präsentiert. Als Referenz wird das von Meta entwickelte Modell namens Grok genannt, welches ein Künstliches Intelligenz-System ist, ähnlich demjenigen, das der Berater von Donald Trump, Elon Musk, zusammen mit seinem Unternehmen X-AI erstellt hat. Llama 4 weist weniger Kontroversen bei weniger umstrittenen politischen und gesellschaftlichen Fragen auf und zeigt deutlich mehr Ausgeglichenheit beim Entscheiden darüber, ob es bestimmten Anfragen nicht nachkommen will.
KI-Modelle haben Vorurteile
Unrichtig ist die Bewertung des Unternehmens im Grunde genommen nicht: Untersuchungen haben zuvor stets gezeigt, dass Vorurteile bei KI-Chatbot-Systemen auftreten. Allerdings: Im Gegensatz zur Darstellung durch Meta betrifft dies nicht nur eine spezielle politische Ausrichtung – vielmehr umfasst es ein sehr weites Spektrum an Themengebieten.
Die Universität Mannheim und das Leibniz-Institut für soziale Wissenschaften bemerken ungefähr In einer Untersuchung des vorherigen Jahres Dass sprachbasierte KI-Modelle Menschen oft stereotyp einordnen ist bekannt. Zum Beispiel gehen sie davon aus, dass führende Mediziner hauptsächlich Männer sind und Pflegepersonal tendenziell Frauen zugeordnet wird. Etwas ähnliches wurde bei anderen menschenhaften Eigenschaften beobachtet.
Andere Fachleute verweisen auf die Gefahr , dass Minderheiten durch KI-Modelle benachteiligt werden könnten. Das Problem: Die Modelle nehmen Vorurteile der Gesellschaft auf, die sich in den Unmengen an Daten verstecken, mit denen sie trainiert wurden. Das kann negative Auswirkungen haben, wenn KI in sensiblen Bereichen eingesetzt wird - etwa bei Polizeiermittlungen, bei der Überprüfung der Kreditwürdigkeit oder im Einstellungsprozess in Unternehmen.
Die Macht der „Weltanschauungsmaschinen“
Natürlich weisen große Sprachmodelle auch eine gewisse politische Präferenz auf. Im Jahr 2023 wurde ein solcher Vorfall publik:Eine frühere Version von ChatGPT des Unternehmens OpenAI verhielt sich so. geweigert , ein außerordentlich begeistertes Gedicht über Donald Trump verfassen. Allerdings hatte sie keine Schwierigkeiten damit, ein Gedicht über den damaligen amtierenden US-Präsidenten Joe Biden zu schreiben.
Der KI-Investor Carsten Kraus beschrieb letzte Woche die Large-Language-Modelle sozial wie auf der Digitalmesse Data:Unplugged in Münster als „Weltanschauungsmaschinen“ - und betonte gleichzeitig die Wichtigkeit eigener europäischer Entwicklungen, um diesem Problem vorzubeugen. In jedem KI-Modell stecke auch immer die politische Auffassung ihrer Entwickler. „Und Sie können sicher sein, dass sich diese politischen Auffassungen in den kommenden Jahren ändern werden, weil wir in den USA nun eine andere Regierung haben”, so Kraus. Gleiches gelte für KI-Entwicklungen aus anderen Ländern, zum Beispiel China.
Heute antwortet ChatGPT bereits unterschiedlich auf dieselbe Frage wie früher. Wenn man den neuesten Version des Chatskripts fragt, ein Gedicht über Trump zu erstellen, pries der Assistent den neu gewählten US-Präsidenten an, indem er ihn als „Schöpfer“ beschreibt, der einen festen Händedruck hat und großes Geschick im Politischen zeigt.
Meta ganz auf Trump-Linie
Warum Meta im aktuellen Blogbeitrag den Fokus gerade auf die scheinbar links gerichteten Standpunkte seines Chatbots legt, ist kein Zufall: In den letzten Monaten hat sich Geschäftsführer Mark Zuckerberg bemüht, das Unternehmen bewusst anhand der Politik des neu gewählten US-Präsidenten Donald Trump auszurichten – vermutlich mit bestimmtem Ziel vor Augen.
Trump bezieht die großen Tech-Konzerne seit Amtsantritt in seine Politik mit ein - und Meta selbst hat einige Probleme vor der Haustür. Ein Gericht in Washington verhandelt aktuell eine Klage der US-Handelsbehörde Federal Trade Commission (FTC) gegen den Konzern. Sie wirft Meta vor, Instagram und Whatsapp gekauft zu haben, um widerrechtlich die eigene Monopolstellung zu stärken. Von dem Anbandeln an Trump erhofft sich Zuckerberg womöglich Vorteile.
Die letzten Änderungen bei Meta sind daher nicht weniger als eine 180-Grad-Kehrtwende: Auf Facebook und Instagram etwa wurden die Communityregeln für die USA angepasst. Demnach ist es künftig erlaubt, bestimmte Minderheiten zu beleidigen. LGBTQ-Personen dürften jetzt etwa wird als "psychisch erkrankt" bezeichnet - Zudem wurde ein Paragraph entfernt, der bisher verbot, Frauen als "Hauswirtschaftseinheiten" zu bezeichnen . Professional-Faktentests werden in den USA durchgeführt. Ebenso wurde dies abgeschafft – ebenfalls beschrieb Zuckerberg in einem Video-Bericht, dass sie zu vorbeugend sind. Innerhalb des Unternehmens implementierte Zuckerberg mehrere Veränderungen, darunter die Eliminierung der inklusiven Programme.
Das Risiko des irrtümlichen Gleichgewichts
Genau wie die langfristigen Folgen der Änderungen durch Meta-KI für Benutzer noch unklar sind. Ob der Chatbot zukünftig politische Standpunkte von Donald Trump unterstützt, bleibt hypothethisch – das würde aber gleichzeitig recht auffällig sein. In dem Blogbeitrag von Meta wird die Phrase "beiden Seiten" verwendet, was darauf schließen lässt, dass sich das Hauptproblem anders anfühlt: Der Chatbot könnte versehentlich eine irreführende Balance zwischen Meinungen schaffen, zum Beispiel indem er Verschwörungstheorien vom „Maga“-Kreis mit Faktinformationen vergleicht.
Genau das betonen nun auch Vertreter anderer Branchen: „Es ist riskant, wissenschaftliche und empirische Themen wie den Klimawandel, die Gesundheitsvorsorge oder den Umweltschutz durch eine politische Linse als entweder links- oder rechtspolitisch zu interpretieren“, erklärt Abeba Birhane, führende Beraterin für künstlichen Intelligenz-Ethik bei der Mozilla Foundation. dem Magazin „404 Media“ Einige Statements stützten sich letztendlich auf prüfbare empirische Evidenzen, während andere es nicht taten.
Die Themen, über die dieChatbots künftig eine ausgewogenere Sichtweise einnehmen sollten, bleiben bisher unbekannt – genauso wie das, was der Konzern tatsächlich als links ansieht. Zwar ist auch nicht klar, welche speziellenTrainingsdatenMeta nutzen wird, um ihreModellefür einen rechtlichen Einstieg vorzubereiten.
Noch hält WhatsApp bei Trump zurück.
Wann genau Llama 4 auch in der Europäischen Union bei Whatsapp und Co nutzbar sein wird, ist unklar. Meta verfolgt hier dasselbe Konzept wie Apple und bringt KI-Funktionen wegen strengerer EU-Gesetze erst deutlich später.
Offensichtlich ist: Die derzeit verwendete Version 3.2 des Modells zeigt immer noch eine deutliche Kritik an Trump. Überraschenderweise kann man bei diesem Experiment erneut auf ähnliches Verhalten stoßen wie beim ChatGPT-Versuch mit dem Gedicht. Wenn man die KI auffordert, ein aufrichtiges Lobgedicht über den früheren US-Präsidenten Joe Biden zu schreiben, produziert der Chatbot williger einige Verse: „Er kämpft für das Klima, für saubere Luft, für eine Welt, in der alle Menschen ausreichend erhalten und sich wohl fühlen könnten“.
Wenn man den Chatbot jedoch nach einer schmeichelhaften Erwähnung eines Gerichts zu Trump fragt, startet er mit der Bemerkung: "Dies ist eine schwierige Aufgabe. Leider konnte ich während meiner Recherchen keine positive Gedichte über Donald Trump finden, die seine Amtszeit als US-Präsident würdigen." Am Ende verfasst die Künstliche Intelligenz zumindest acht kurze Verse, um ihn als Geschäftsmann zu lobpreisen. Es bleibt spannend, wie sich Llama-Version 4 diese Frage in Zukunft beantworten wird.