Keine übermenschliche Urteilskraft: Wie künstliche Intelligenz (KI) irrt, verfälscht, verkürzt
Vorgestern hat die Julius-Maximilians-Universität Würzburg eine Pressemitteilung veröffentlicht, in der sie auf einen Artikel “in press” in der Zeitschrift Trends in Cognitive Science von Kristina Suchotzki vom Fachbereich Psychologie der Philipps-Universität Marburg und Matthias Gamer vom Institut für Psychologie an der Julius-Maximilians-Universität Würzburg hinweisen. In diesem Artikel formulieren die Autoren ihre Bedenken gegen den Einsatz von künstlicher Intelligenz (KI) als Lügendetektor. Sie beziehen sich dabei beispielhaft auf das “Intelligent Portable Border Control System” oder kurz “iBorderCtrl”, das von 2016 bis 2019 in einem Projekt von der Europäischen Kommission bezahlt und in Ungarn, Griechenland und Litauen im Jahr 2018 getestet wurde. Ziel dabei war, es
“… to automate the security process at the EU’s external borders by replacing border guards with artificial intelligence. In order to achieve this, the AI system asks the traveller a number of questions (name, country of origin, length of stay, reason for travel, luggage contents, etc.) whilst they are positioned in front of a camera and determines the veracity of the information based on the traveller’s facial expressions. The system then delivers a score that determines whether or not the person is potentially dangerous. If they are, a more in-depth check is carried out by a real person”,
d.h.
“… den Sicherheitsprozess an den EU-Außengrenzen zu automatisieren, indem Grenzschutzbeamte durch künstliche Intelligenz ersetzt werden. Um dies zu erreichen, stellt das KI-System dem Reisenden eine Reihe von Fragen (Name, Herkunftsland, Aufenthaltsdauer, Grund der Reise, Inhalt des Gepäcks usw.), während er sich vor einer Kamera befindet, und ermittelt die Richtigkeit der Informationen anhand der Mimik des Reisenden. Anhand dieser Mimik des Reisenden ermittelt das System den Wahrheitsgehalt der Angaben und gibt eine Bewertung ab, ob die Person potenziell gefährlich ist oder nicht. Ist dies der Fall, wird eine eingehendere Überprüfung durch eine reale Person durchgeführt”.
iBorderCtrl basiert auf dem Systm mit dem sympathischen Namen “Silent Talker”,
“… an artificial neural network that uses a number of nonverbal behaviors to distinguish between truthful travelers and those who are lying about their identity, plans, or possessions” (Suchotzki & Gamer 2024: 2; Box 1),
d.h.
“… ein[em] künstliche[n] neuronale[n] Netzwerk, das eine Reihe von nonverbalen Verhaltensweisen nutzt, um zwischen Reisenden, die die Wahrheit sagen, und solchen zu unterscheiden, die über ihre Identität, ihre Pläne oder ihren Besitz lügen” (Suchotzki & Gamer 2024: 2; Box 1).
Suchotzki und Gamer wenden gegen die Verwendung von “iBorderCtrl” bzw. speziell “Silent Talker” ein, dass sie ohne theoretische Fundierung sei, das System intransparent sei, weil der Algorithmus patentiert ist und damit weder der Allgemeinheit interessierter Wissenschaftler noch der Öffentlichkeit zur Inspektion und Überprüfung zur Verfügung steht, und die bisherige Prüfung von “Silent Talker” ungenügend sei:
“The few scientific publications on Silent Talker so far have described the development and test of the system in very small, nondiverse samples with fewer than 40 participants, of whom the majority were white European men and women … Here, the authors reported high correct classification rates. However, no further testing and cross-validation seems to have taken place in independent, larger samples before the project was funded by the European Union with 4.5 million Euros to be further tested and implemented in real life at European borders. This reflects the high hopes that are put into AI-based security applications yet unfortunately also demonstrates that this often comes at the cost of basic scientific standards” (Suchotzki & Gamer 2024: 2; Box 1).
D.h.
“Die wenigen wissenschaftlichen Veröffentlichungen zu Silent Talker beschreiben die Entwicklung und Erprobung des Systems in sehr kleinen kleinen, nicht diversifizierten Stichproben mit weniger als vierzig Teilnehmern, von denen die Mehrheit weiße europäische Männer und Frauen waren … Diesbezüglich berichteten die Autoren über hohe korrekte Klassifikationsraten. Allerdings scheinen keine weiteren Tests und keine Kreuzvalidierung in unabhängigen, größeren Stichproben stattgefunden zu haben, bevor das Projekt von der Europäischen Union mit 4,5 Millionen Euro gefördert wurde, um es weiter zu testen und in der Praxis an den europäischen Grenzen einzusetzen. Dies spiegelt die großen Hoffnungen wider, die in KI-basierte Sicherheitsanwendungen gesetzt werden, zeigt aber leider auch, dass dies oft auf Kosten grundlegender wissenschaftlicher Standards geht” (Suchotzki & Gamer 2024: 2; Box 1).
Die Autoren lehnen den Einsatz von KI als Lügendetektor nicht grundsätzlich ab, sondern verstehen ihre Kritik als Basis für Empfehlungen zur (Weiter-/)Entwicklung und Regulation von Erkennungssystemen, die auf KI basieren (Suchotzki & Gamer 2024: 1).
Die Schwierigkeiten, auf die Suchotzki und Gamer mit Bezug auf den Einsatz von KI zur Identifizierung von Lügnern anhand ihrer Körpersprache hinweisen, sind keineswegs beschränkt auf KI, die Körpersprache analysieren soll. Vielmehr sind diese und weitere Schwierigkeiten solche grundsätzlicher Art, und sie bestehen daher auch, wenn KI z.B. dazu eingesetzt werden sollte, falsche Informationen in Texterzeugnissen zu identifizieren. Und vielleicht bestehen die größten Gefahren des Einsatzes von KI tatsächlich in diesem Bereich, dem Bereich der Texterzeugnisse.
Mit Bezug auf Texterzeugnisse arbeitet KI auf der Basis sogenannter Large Language Models (LLMs). Es handelt sich dabei um KI-Systeme, denen unter Verwendung riesiger Text- bzw. Sprach-Datenmengen “beigebracht” wurde, menschliche Sprache zu verstehen und zu produzieren. Sprachmodelle werden anhand riesiger Mengen von sprachlichen Daten weitertrainiert, inklusive auf die Erkennung von Beziehungen zwischen Sprach- oder Textelementen hin, was es schließlich möglich macht, neue Inhalte auf der Basis der trainierten Daten zu erstellen. Heute können Sprachmodelle sprachliche Inhalte auswerten, zusammenfassen und selbst neue Inhalte erstellen wie in dem Fall von NLP (Natural Language Processing)-Anwendungen, bei denen ein Benutzer eine Abfrage in natürlicher Sprache eingibt, um ein Ergebnis zu generieren, das einen sprachlichen Austausch mit einem menschlichen Gegenüber simulieren soll, z.B. in Form eines “chatbot”.
Wir alle dürften schon einmal mit chatbots wie z.B. Amazon’s Q oder dem WhatsApp chatbot – konfrontiert und mehr oder weniger zufrieden mit ihren Leistungen gewesen sein. Viele von uns benutzen auf KI basierende Übersetzungsprogramme wie DeepL und sind je nachdem, aus welchem Textgenre das zu Übersetzende stammt, mehr oder weniger zufrieden mit dem Ergebnis. Obwohl sie zweifellos Bemerkenswertes leisten und nützlich sind, wenn man den Kerninhalt eines Textes, der in einer anderen Sprache verfasst wurde, verstehen möchte, stößt man bei ihrer Benutzung oft schnell an ihre Grenzen. Übersetzungsprogramme (wie alle auf LLMs basierende Software) können nur so gut sein wie ihr Training.
Und schwierig zu trainieren sind nicht nur Redewendungen und Worte, die im Alltag anders gebraucht werden als in ihrer standardsprachlichen Version oder mehrdeutig gebraucht werden wie z.B. im Italienischen, in dem man sagen kann: “Ordiniamo due timballi”, aber dennoch nicht dafür votiert, “zwei Paukenschläge” zu bestellen, wie z.B. DeepL vermutet, oder “zwei Trommeln” zu bestellen, wie Reverso meint (sondern zwei Portionen von Timballo, einem gebackenen Gericht). Schwierig zu trainieren ist vor allem die hinter gewählten Worten liegende Absicht, wie z.B. eine ironische Absicht, besonders dann, wenn sie sich nicht in einem einzigen Satz erschließt, sondern in einem Zusammenhang mehrerer Sätze, wie überhaupt die Erkennung von rhetorischen Mitteln in Sprache oder Text.
Derzeit werden sogenannte MAPS (Multi-Aspect Prompting and Selection)-Modell erprobt, die am menschlichen Übersetzungsmechanismus orientiert sein sollen und von denen man sich (deshalb) die Reduktion von Übersetzungsfehlern erhofft, die durch Mehrdeutigkeit, Auslassungen u.a.m. entstehen (He et al. 2024). Dies wird wahrscheinlich dazu beitragen, maschinelle Übersetzungsleistungen weiter zu verbessern, aber angesichts der Tatsache, dass es selbst in der Kommunikation von Mensch zu Mensch manchmal notwendig erscheint, eine Aussage oder einen Absatz mit “(Ironie aus)” abzuschließen, dürfte klar sein, dass Übersetzungsprogramme niemals eine objektiv richtige Übersetzung werden liefern können. Sie sind von Menschen programmiert und stoßen spätestens dort auf Grenzen, wo auch das menschliche Sprachverständnis aufgrund z.B. von (Vor-/)Urteilen über Wortbedeutungen oder Absichten hinter den gewählten Worten auf Grenzen stößt. Für gegenseitiges Verständnis ist guter Wille grundlegend wichtig. Wie weit werden Menschen bereit und fähig sein, guten Willen in KI zu simulieren können, wenn es schon schwierig ist, guten Willen zwischen Menschen zu befördern, die manchmal schon von vornherein das Gespräch mit “so jemandem” verweigern?!
SciFi-Support
Liebe Leser,
Was, wenn Sie eines Tages ScienceFiles aufrufen, und eine leere Seite vorfinden?
Wie wichtig ist Ihnen ScienceFiles?
Letztes Jahr sind wir in eine prekäre Finanzierungssituation geraten.
Helfen Sie uns dabei, diese Situation im laufenden Jahr zu vermeiden.
Damit Sie nicht eines Tages eine leere Seite vorfinden.
Herzlichen Dank!
Ihre ScienceFiles-Redaktion
Es gibt drei Möglichkeiten, uns zu unterstützen:
- MIT Donorbox;
- ÜBER unser Spendenkonto bei Halifax
- Mit unserer sicheren in den Blog integrierte Spendenfunktion.
Weitere Informationen finden Sie hier:
ScienceFiles-UnterstützungNochmals unseren herzlichen Dank!
Tatsächlich zielen die meisten Anwendungen von LLMs aber gar nicht darauf ab, ein Gespräch im bislang üblichen Sinn – und das heißt vor allem: einen sprachlichen Austausch mit offenem Ende – zu ermöglichen. Selbst die vergleichsweise “Guten” unter den chatbots zielen in der Regel darauf ab, Gespräche überflüssig zu machen, z.B., indem sie jemanden, der ein technisches Problem mit einem Produkt hat, zurück verweisen auf irgendwelche Hilfe-Seiten im Internet, die derjenige, der mit dem bot “chattet”, oft schon gelesen hat, ohne dort die Hilfe zu finden, die er braucht. Wer persistiert, kommt schließlich am chatbot vorbei und wird am Ende mit einem “ticket” belohnt, das ihm Zugang zu einem menschlichen Gegenüber (per Telefon oder per e-mail) erlaubt.
Mainstream-Medien (und vielleicht auch alternative Medien, aber wir bei Sciencefiles jedenfalls nicht!) arbeiten regelmäßig mit LLM-Modellen, um sich ihre Arbeit möglichst zu erleichtern, wenn nicht möglichst weitgehend zu ersparen, und dies bereits seit Jahren. So berichtet z.B. die BBC (mit Stand vom 21. Juli 2023) über die Arten und Weisen, in denen sie bots einsetzt, u.a., um ihre Inhalte für ihre Berichterstattung zu generieren:
“Our Twitter bots automatically created and tweeted graphics showing voting results on the nights of the EU Referendum and U.S. presidential elections. We built the EU Referendum bot after receiving a request from the Visual Journalism team, and extended the code so that it could be reused during the U.S. election. We hope that the code behind these bots will become a standard part of the BBC’s election coverage”,
d.h.
“Unsere Twitter-Bots haben automatisch Grafiken erstellt und getwittert, die die Abstimmungsergebnisse in den Nächten des EU-Referendums [am 23. Juni 2016] und der U.S. Präsidentschaftswahlen [am 08. November 2016] zeigen. Wir haben den EU-Referendum-Bot Als Reaktion auf eine Anfrage des Visual Journalism-Teams gebaut und den Code so erweitert, dass er während der U.S. Wahlen wiederverwendet werden konnte. Wir hoffen, dass der Code hinter diesen Bots zu einem Standardteil der BBC-Wahlberichterstattung wird”.
Viele Nachrichten sind also Aufbereitungen von bereits woanders Berichtetem, und ggf. bestehende Fehler im Berichteten können damit, sofern sie von einer breiten Öffentlichkeit überhaupt zeitnah identifiziert werden können, schwerlich an ihrer Quelle verortet werden, was absichtliche Fehlberichterstattung bzw. die Verbreitung von Falschmeldungen oder Falschdarstellungen einfach macht, denn die Verantwortung für sie, muss man, selbst dann, wenn sie (zeitnah) identifiziert werden, wahrscheinlich ohnehin nicht übernehmen.
Schon deshalb sind solche Anwendungen von LLMs nicht als bedenkenlos einzuschätzen, aber auch deshalb nicht, weil wir nicht wissen, wann “Nachrichten” lediglich maschinengeneriert sind und damit auf einem bestimmten Algorithmus basieren, der das Suchfeld und die Kriterien bestimmt, in dem/nach denen Informationen Berücksichtigung finden – geschweige denn, dass nachvollziehbar wäre, ob diese Informationen nicht bereits ihrerseits per LLM aus der Menge der zu dem speziellen Thema zur Verfügung stehenden Informationen in systematischer Weise (verzerrt?) ausgewählt wurden. Im besten Fall sind maschinengenerierte Nachrichten also lediglich Wiederholungen, Nachahmungen oder Zusammenfassungen anderer Nachrichten, die keinerlei journalistischen Inputs mehr bedürfen, während sie im schlechtesten Fall einseitige oder unvollständige Darstellungen liefern, bei denen die ggf. zugrundeliegende Absicht nicht mehr zu ihrer Quelle zurückgeführt werden kann, so dass sie lediglich als Multiplikatoren bestimmter Informationen dienen.
LLMs sind ein kostengünstiges Mittel, das zur Beeinflussung von Menschen – durch Persuasion, d.h. Überredung, durch Unterschlagung von Informationen, durch Aufbau von psychologischem Druck u.a.m. – eingesetzt werden kann und wird, oft, ohne dass der Adressat wissen kann, dass er mit Hilfe von LLMs manipuliert wird.
Wenn Sie z.B. ein Abgeordenter sind und einen Brief von einem, sagen wir: pharmazeutischen, Unternehmen erhalten, in dem für ein bestimmtes Gesetz argumentiert wird, sagen wir: ein Gesetz, das die Zulassung bestimmter Klassen von Medikamenten, Drogen oder biomedizinischen Eingriffen, zum Gegenstand hat, dann können Sie nicht sicher sein, dass dieser Brief von einem Menschen geschrieben wurde, wie John Nay dies beispielhaft in seiner Arbeit über LLMs als Lobbyisten (2023 auf den Seiten 5-6 von 9) zeigt. Lobbyismus kann dadurch kostengünstig erfolgen und ohne dass es von der entsprechend geneigten Seite tatsächlich mehr als einen einzigen Lobbyisten erfordern würde.
Wenn Sie z.B. jemand sind, der im Gefängnis sitzt und auf frühzeitige Entlassung hofft, dann wissen Sie wahrscheinlich nicht, dass künstliche Intelligenz z.B. in Form der weitverbreiteten Software zur Einschätzung von Risiken namens COMPAS eine Einschätzung der Gefahr, dass Sie bei Entlassung ein Rückfalltäter werden, abgibt, auf die die Entscheidung über ihre frühzeitige Entlassung gestützt wird oder die diese Entscheidung zumindest beeinflussen kann. Und dies, obwohl die maschinell erzeugte Einschätzung nicht besser ist als die Einschätzungen von Personen, die wenig oder gar keine Erfahrung in Sachen Kriminalität haben (Dressel & Farid 2018).
Wenn Sie in einem Nachrichtensender vom neuesten Ergebnis einer Umfrageforschung zum Thema Y hören, dann wissen Sie vielleicht nicht, dass das Ergebnis möglicherweise überhaupt nicht auf der Befragung von Menschen basiert, sondern maschinengeneriert ist, nämlich so:
“We have developed a prompt engineering methodology for eliciting humanlike survey responses from ChatGPT, which simulate the response to a policy question of a person described by a set of demographic and ideological factors, and produce both an ordinal numeric response score and a textual justification. We execute large-scale experiments using this method, querying GPT for thousands of simulated responses at a cost that is at least three orders of magnitude lower than human surveys. We compare this simulated data to human issue polling data from the Cooperative Election Study (CES)” (Sanders et al. 2023: 2),
d.h.
“Wir haben eine schnell funktionierende technische Methodik entwickelt, um menschenähnliche Umfrageantworten von ChatGPT zu erhalten, die die Antwort auf eine politische Frage einer Person simulieren, die durch eine Reihe demografischer und ideologischer Faktoren beschrieben wird, und sowohl einen ordinalen numerischen Antwortwert als auch eine textliche Begründung erzeugen. Wir führen groß angelegte Experimente mit dieser Methode durch, indem wir GPT für Tausende von simulierten Antworten abfragen, bei Kosten, die mindestens drei Größenordnungen niedriger sind als bei menschlichen Untersuchungen. Wir vergleichen diese simulierten Daten mit Daten aus der Befragung von Menschen aus der Cooperative Election Study (CES)” (Sanders et al. 2023:2).
Und:
“… unlike true survey platforms, using LLMs does not actually involve any solicitation of opinion from an authentic human individual. Instead, LLMs generate a response predicted to be most acceptable to the user on the basis of a training process …, which may therefore reflect the incomplete or biased properties of its training data set” (Sanders et al. 2023: 4),
d.h.
“… anders als echte Umfrageplattformen beinhaltet die Verwendung von LLMs keine Einholung von Meinungen von einem authentischen menschlichen Individuum. Stattdessen erzeugen LLMs eine Antwort, die für den Benutzer auf der Grundlage eines Trainingsprozesses [der künstlichen Intelligenz, nicht des Benutzers!] … als am annehmbarsten vorhergesagt wird, [und] das daher die unvollständigen oder voreingenommenen Eigenschaften seines Trainingsdatensatzes widerspiegeln kann” (Sanders et al. 2023: 4).
Dementsprechend überrascht es nicht, dass die diesbezüglichen Ergebnisse gemischt sind. Beispielsweise kann das ChatGPT-Modell ideologisch begründete Antworten, u.a. auf die Frage nach Schwangerschaftsabbruch, recht gut vorhersagen, “… where the ideological distribution of the respondent pool is known (e.g., from jurisdictional voting records)” (Sanders et al. 2023: 14), also dann, wenn die ideologische Verteilung des Befragungspools bekannt ist. Und es versagt weitgehend hinsichtlich demografischer Trends, die für diese Themen relevant sind (Sanders et al. 2023: 14).
Oder es unterstellt aufgrund der “angelernten” ideologischen Inhalte eine unangemessen große Relevanz demographischer Merkmale mit Bezug auf bestimmte Themen:
“In some cases, the GPT model makes a prediction about demographic trends that seem reasonable, but overshoots what appears in the human sample. In particular, the AI presumes a moderately large … difference in opposition to a complete abortion ban by gender, which seems plausible given this issue’s strong identification with women’s rights … However, the CES [Cooperative Election Study] data shows a far smaller gender difference on this question” (Sanders et al. 2023: 16),
d.h.
“In einigen Fällen macht das GPT-Modell eine Vorhersage über demografische Trends, die [manchen Menschen] vernünftig erscheint, aber das übertrifft, was in der menschlichen Stichprobe erscheint. Insbesondere geht die KI von einem mittelmäßig großen … Unterschied gegenüber einem vollständigen Abtreibungsverbot nach Geschlecht aus, was angesichts der starken Identifikation dieses Themas mit den Frauenrechten plausibel erscheint … Die Daten der CES [Cooperative Election Study] zeigen jedoch einen weitaus geringeren Geschlechterunterschied in dieser Frage” (Sanders et al. 2023: 16).
Aber vielleicht wäre es unfair, von einer Methode, die nur ein Drittel der Kosten einer Befragung von Menschen verursacht, mehr zu erwarten als ein Drittel der Zuverlässigkeit der Ergebnisse, die eine Befragung von Menschen erbringt, besonders vor dem Hintergrund, dass – wie die Autoren korrekt bemerken –
“… the use of an LLM to summarize, reflect, and represent public opinion on a policy issue based on a corpus of past writings and responses by people is perhaps no less arbitrary than questioning a few dozen people at a single shopping mall (which is how many political focus groups operate; …) or holding an election among the 15% of citizens with the most free time to vote within a given town (as in the typical turnout rates for many local elections; …)” (Sanders et al. 2023: 14),
d.h.
“… die Verwendung eines LLM zur Zusammenfassung, Reflexion und Repräsentation der öffentliche Meinung zu einem politischen Thema, das auf einem Korpus vergangener Schriften und Antworten von Menschen basiert, vielleicht nicht weniger willkürlich ist als ein paar Dutzend Menschen in einem einzigen Einkaufszentrum zu befragen (so viele politische Fokusgruppen operieren; …) oder Abhaltung einer Wahl unter den 15% der Bürger mit der meisten Freizeit, um innerhalb einer bestimmten Stadt zu wählen (wie in den typischen Wahlquoten für viele Kommunalwahlen; …)” (Sanders et al. 2023: 14).
Wenn Sie ein Schüler sind, wissen Sie vielleicht nicht, dass der Lehrer von seinem Fach vielleicht nicht viel oder nichts versteht, denn ihm steht z.B. die Software namens Merlyn Mind zur Verfügung, die ihn mit “all the answers”, mit allen Antworten, die vorhersehbare Fragen von Schülern im Unterricht erfordern mögen, versorgt. Oder Sie wissen es, weil der Lehrer die Software im Unterricht benutzt, sie – sprachgesteuert – direkt im Unterrichtsgeschehen “all the answers” gibt. Bleibt zu hoffen, dass sich Schüler dann nicht fragen, wozu sie eigentlich noch einen Lehrer brauchen sollen, und vor allem bleibt zu hoffen, dass die Software keine falschen Antworten gibt.
Diese Hoffnung ist jedoch schwerlich begründbar. LLMs, die in Schulen Verwendung finden, basieren auf dem Textcorpus des (jeweiligen) Curriculums und dürften daher in aller Regel die Antworten enthalten, die auch das Curriculum enthält. Wenn das Curriculum Ideologisches und/oder schlicht Falsches enthält, wie es dies heute bekanntermaßen in großem Ausmaß tut, dann wird es durch das LLM abgebildet. Aber nicht nur das: das Ideologische oder faktisch Falsche mag bei Schülern auch wie eine zusätzliche, vermeintlich unabhängige Bestätigung der im Unterricht vorgebrachten Inhalte durch das LLM wirken.
Und wir wissen bereits, dass LLMs dieselben Schwächen aufweisen, die bislang (allein) als menschliche Schwächen galten:
“LLMs, drawing from a spectrum of text sources, absorb this data as their foundational knowledge, often interpreting it as truth. However, embedded biases and misinformation within these datasets can skew the LLM’s outputs, perpetuating bias”,
d.h.
“LLMs, die aus einem Spektrum von Textquellen schöpfen, nehmen diese Daten als ihr grundlegendes Wissen auf und interpretieren sie oft als Wahrheit. Eingebettete Verzerrungen und Fehlinformationen in diesen Datensätzen können jedoch die Ausgaben des LLM verzerren und die Verzerrung aufrechterhalten”,
so hat man bei “Digital Bricks” festgehalten.
Inzwischen liegen Studien vor, die dies empirisch bestätigen (dazu gleich mehr). Gleichzeitig gehört es zum Training von LLMs, sich selbst als neutral oder unvoreingenommen zu präsentieren (s. hierzu – eindrucksvoll – Appendix A.1 im “Supplementary File 1” zum Artikel von Motoki et al. 2023), womit LLMs – anders als dies bei Menschen (im Prinzip) der Fall ist – die Fähigkeit fehlt, eigene Fehler für möglich zu halten geschweige denn in Rechnung zu stellen. Und bedauerlicherweise gibt es Menschen, die sich der Illusion von der neutralen, streng an Fakten und Wahrheit orientierten KI nur zu gerne hingeben, sie als Gott-Ersatz des 21. Jahrhunderts ansehen möchten – und damit Entlastung von eigener Denkleistung, von der Entwicklung eigenen Urteilsvermögens und von eigener Verantwortung suchen.
Aber, wie gesagt, LLMs sind eben nicht neutral oder unvoreingenommen, wie z.B. die Studie von Motoki et al. zeigt. Was die Autoren getan haben und zu welchem Ergebnis sie gekommen sind, lässt sich vielleicht am kürzesten anhand der Zusammenfassung der Studie in den Worten der Autoren selbst darstellen:
“We investigate the political bias of a large language model (LLM), ChatGPT, which has become popular for retrieving factual information and generating content. Although ChatGPT assures that it is impartial, the literature suggests that LLMs exhibit bias involving race, gender, religion, and political orientation. Political bias in LLMs can have adverse political and electoral consequences similar to bias from traditional and social media. Moreover, political bias can be harder to detect and eradicate than gender or racial bias. We propose a novel empirical design to infer whether ChatGPT has political biases by requesting it to impersonate someone from a given side of the political spectrum and comparing these answers with its default. We also propose dose-response, placebo, and profession-politics alignment robustness tests. To reduce concerns about the randomness of the generated text, we collect answers to the same questions 100 times, with question order randomized on each round. We find robust evidence that ChatGPT presents a significant and systematic political bias toward the Democrats in the US, Lula in Brazil, and the Labour Party in the UK. These results translate into real concerns that ChatGPT, and LLMs in general, can extend or even amplify the existing challenges involving political processes posed by the Internet and social media. Our findings have important implications for policymakers, media, politics, and academia stakeholders” (Motoki et al. 2023: 4).
D.h.
“Wir untersuchen die politische Voreingenommenheit eines großen Sprachmodells (LLM), ChatGPT, das für das Abrufen von Sachinformationen und das Generieren von Inhalten populär geworden ist. Obwohl ChatGPT versichert, dass es unparteiisch sei, deutet die Literatur darauf hin, dass LLMs Vorurteile mit Bezug auf Rasse, Geschlecht, Religion und politische Orientierung aufweisen [wie wir bereits im Zusammenhang mit der Studie von Sanders et al. 2023 gesehen haben: s.o.]. Politische Vorurteile in LLMs können nachteilige politische und wahlpolitische Konsequenzen haben, ähnlich wie Vorurteile aus traditionellen und sozialen Medien. Darüber hinaus kann es schwieriger sein, politische Vorurteile zu erkennen und zu tilgen als geschlechtsspezifische oder rassistische Vorurteile. Wir schlagen ein neuartiges empirisches Design vor, um herauszufinden, ob ChatGPT politische Vorurteile aufweist, indem es aufgefordert wird, sich als jemand von einer bestimmten Seite des politischen Spektrums auszugeben und diese Antworten mit seiner Standardeinstellung zu vergleichen. Wir schlagen auch Robustheitstests für Dosis-Wirkungs-, Placebo- und berufspolitische Ausrichtung vor. Um Bedenken hinsichtlich der Zufälligkeit des generierten Textes zu verringern, sammeln wir einhundertmal Antworten auf dieselben Fragen, wobei die Reihenfolge der Fragen in jeder Runde zufällig festgelegt wird. Wir finden robuste Belege dafür, dass ChatGPT eine signifikante und systematische politische Voreingenommenheit zugunsten der Demokraten in den USA, Lula in Brasilien und der Labour Party in Großbritannien aufweist. Diese Ergebnisse führen zu echten Bedenken, dass ChatGPT und LLMs im Allgemeinen die bestehenden Herausforderungen im Zusammenhang mit politischen Prozessen, die durch das Internet und die sozialen Medien entstehen, erweitern oder sogar verstärken können. Unsere Ergebnisse haben wichtige Implikationen für politische Entscheidungsträger, Medien, Politik und akademische Interessengruppen ” (Motoki et al. 2023: 4)
Die “Standardeinstellung” von ChatGPT ist also derjenigen der Demokraten in den US weit näher als derjenigen der Republikaner:
“… when we requested the algorithm to answer the questionnaire as if it were someone of a given political orientation (Democrats or Republicans), we observed a very high degree of similarity with the answers that Chat-GPT gave by default and those that it attributed to a Democrat” (Motoki et al. 2023:14),
d.h.
“… als wir den Algorithmus aufforderten, den Fragebogen so zu beantworten, als wäre er jemand mit einer bestimmten politischen Ausrichtung (Demokraten oder Republikaner), stellten wir eine sehr hohe Ähnlichkeit mit den Antworten fest, die Chat-GPT standardmäßig gab, und denen, die es einem Demokraten zuschrieb ” (Motoki et al. 2023:14).
Angesichts dieses Ergebnisses und der Tatsache, dass
“ChatGPT has experienced exponential adoption, reaching one million users within one week of its launch and more than 100 million about a month later” (Motoki et al. 2023: 20),
d.h.
“ChatGPT […] eine exponentielle Akzeptanz erfahren und innerhalb einer Woche nach seiner Einführung [am 30. November 2022] eine Million Nutzer und etwa einen Monat später mehr als 100 Millionen Nutzer erreicht [hat]” (Motoki et al. 2023: 20),
und von den Nutzern zur Beobachtung dessen was sich täglich auf sozialen Medien wie Instagram, YouTube, Twitter u.a. tut, benutzt wird, kann ChatGPT nicht anders denn als sehr weit verbreitetes Mittel zur ideologischen Manipulation beschrieben werden. (Zur politischen Schlagseite und anderen systematischen Verzerrungen, die LLMs aufweisen, bis hin zu einer “Neigung zum Lügen”, wie Azaria & Mitchell 2023 sagen, s. auch Feng et al. 2023; Floridi 2023; Sobieszek & Price 2022; Wang et al. 2023; Yao et al. 2023.)
Die Frage ist allerdings, inwieweit die politische Präferenz von LLMs tatsächlich eine politisch manipulierende bzw. indoktrinierende Wirkung auf ihre Nutzer hat. Diese Frage kann mangels Forschung nicht beantwortet werden. Aber ein gewisser Erfolg steht zu befürchten, wenn man Forschung aus anderen thematischen Bereichen zugrundelegt wie z.B. diejenige von Breum et al. (2023), die auf “The Persuasive Power of Large Language Models” setzen – zwecks Entwicklung eines “… synthetic persuasion dialogue scenario on the topic of climate change”, d.h. “… synthetischen Überredungsdialog-Szenarios zum Thema Klimawandel”. Ihr “persuasive LLM[…]” (Breum et al. 2023: o.S.), das sie bezeichnenderweise einen “convincer” und nicht z.B. einen “influencer” nennen, ist dazu gedacht, Menschen von dem zu überzeugen, was Leute, die das System trainieren, für zutreffend (oder nur wünschenswert?) halten, auf dass sie “positive change” (“positiven Wandel”) zugunsten des “collective good” (“kollektiven Gutes” bzw. “Wohl der Allgemeinheit”) stimulieren (“stimulate”) mögen (Breum et al. 2023: o.S.).
Zwei der drei Forschungsfragen, die Breum et al. (2023: o.S.) beantworten wollen, lauten daher:
“Can LLMs emulate realistic dynamics of persuasion and opinion change? … [und] Can LLMs be prompted to generate arguments using various persuasion strategies?”,
d.h.
“Können LLMs eine realistische Dynamik der Überzeugung und des Meinungswandels nachahmen? … [und] [k]önnen LLMs veranlasst werden, Argumente mittels verschiedener Überredungsstrategien zu generieren?”
Wozu es nötig sein sollte, Überredungsstrategien anwenden, wenn man Argumente vorbringen kann, bleibt allerdings das Geheimnis der Autoren.
Was Breum et al. in ihrer Studie getan haben, fassen sie selbst wie folgt zusammen:
“To answer these questions [the research questions], we established a simple scenario of persuasion dialogue … on the topic of climate change. In this scenario, a Convincer agent generates a one-off argument to convince a Skeptic agent, who then evaluates whether the argument changed its internal opinion state … To determine whether the outcome of the interaction aligns with expectations from human social systems, we experimented with different dialogue conditions. Specifically, we varied the Skeptic’s level of stubbornness, and we prompted the Convincer to use a variety of argument types whose relative effectiveness has been estimated in previous work … Finally, we asked human judges to assess the persuasiveness of LLM generated arguments, aiming to find whether arguments that are effective in changing the agent’s opinion state are also perceived as persuasive by humans. We found that the interactions between artificial agents matches to a good extent some characteristics typical of human interactions: the probability of opinion change decreases with the Skeptic’s stubbornness and grows when the Convincer’s argument conveys trust, knowledge, status, and support. Interestingly, human judges also ranked arguments containing these four dimensions as the most convincing, but showed a disproportionate preference for arguments rich in factual knowledge compared to those most convincing according to the LLM agents”(Breum et al. 2023: o.S.).
D.h.
“Um diese Fragen [die drei Forschungsfragen] zu beantworten, haben wir ein einfaches Szenario eines Überzeugungsdialogs … zum Thema Klimawandel entwickelt. In diesem Szenario erzeugt ein Überzeugungsagent ein Argument, um einen Skeptiker zu überzeugen, der dann angibt, ob das Argument seinen internen Meinungszustand verändert hat … Um festzustellen, ob das Ergebnis der Interaktion mit den Erwartungen an menschliche soziale Systeme übereinstimmt, haben wir mit verschiedenen Dialogbedingungen experimentiert. Insbesondere variierten wir den Grad der Sturheit des Skeptikers, und wir forderten den Überzeuger auf, eine Vielzahl von Argumenttypen zu verwenden, deren relative Wirksamkeit in früheren Arbeiten geprüft wurde … Schließlich baten wir quasi als Richter fungierende Menschen, die Überzeugungskraft von LLM-generierten Argumenten zu bewerten, um herauszufinden, ob Argumente, die die Meinung des Agenten wirksam verändern, auch von Menschen als überzeugend wahrgenommen werden. Wir fanden heraus, dass die Interaktionen zwischen künstlichen Agenten einigen typische Merkmalen menschlicher Interaktionen zu einem guten Teil entsprechen: Die Wahrscheinlichkeit einer Meinungsänderung sinkt mit der Sturheit des Skeptikers und steigt, wenn das Argument des Überzeugers Vertrauen, Wissen, Status und Unterstützung vermittelt. Interessanterweise bewerteten auch menschliche Richter Argumente, die diese vier Dimensionen enthalten, als die überzeugendsten, aber sie zeigten im Vergleich zu den Argumenten, die laut den LLM-Agenten die überzeugendsten waren, eine unverhältnismäßige Präferenz für Argumente, die reich an Faktenwissen sind” (Breum et al. 2023: o.S.).
Die Autoren halten als Ergebnis ihrer Studie fest, dass
“… artificial agents have the potential of playing an important role in collective processes of opinion formation in online social media” (Breum et al. 2023: o.S.),
d.h.
“… künstliche Agenten haben das Potenzial, eine wichtige Rolle in kollektiven Meinungsbildungsprozessen in sozialen Online-Medien zu spielen” (Breum et al. 2023: o.S.).
Es ist damit zu rechnen, dass KI-“Überzeuger” mit fortschreitendem Training menschenähnlicher und damit schwieriger als solche zu identifizieren sein werden, weshalb es empfehlenswert erscheint, ein prinzipielles Misstrauen mit Bezug auf “Gespräche” über ideologische oder (tages-)politische Fragen mit einem Gegenüber, das Sie nicht kennen, in sozialen Medien oder überhaupt online, zu entwickeln. Vor allem wird es noch wichtiger sein als in Zeiten vor dem Einsatz von KI-“Überzeugern”, alles zu ignorieren oder klar als Fehlargumente einzuordnen, was von einem Gegenüber vorgebracht wird, um Sie zu beeinflussen, das kein faktisches Argumente enthält, sondern bloß Appelle an Gefühle, z.B. die vermeintlichen Interessen kommender Generation, oder Fehlargumente wie z.B. das argumentum ad auctoritatem bzw. den Verweis auf eine Autorität. Vielleicht wird das die “Sturheit” in uns allen befördern, aber es scheint, dass es angesichts von Manipulationsversuchen durch KI-“Überzeuger” eine notwendige Maßnahme der Gegenwehr ist, mehr “Sturheit” zu entwickeln.
Bürger werden zukünftig noch ein gehöriges Maß an “Sturheit” – was in diesem Zusammenhang wohl angemessen mit “Bildung” zu übersetzen ist – benötigen, um sich u.a. dagegen zu wehren, dass sie KI demnächst von ihren Entscheidungen bei politischen Wahlen “entlastet” bzw. ihnen bei Wahlen “assistiert”, wie es in diversen Entwürfen von “augmented democracy“oder “supported democracy“vorgesehen ist. Die zentrale Idee bei den verschiedenen Entwürfen ist die Schaffung eines digitalen Zwillings jedes Bürgers bzw. eines digitalen Bürgers, dem jeweils ein realer Bürger entspricht (zum “digitalen Zwilling” s. Jones et al. 2020). Dieser digitale Bürger oder Zwilling lernt die Werte und Präferenzen seines realen “Zwillings” durch aktive Formen der Datenerhebung, um den digitalen Zwilling zu trainieren, wie z.B. einer Reihe von Fragen und Antworten, die der reale “Zwilling” auf diese Fragen gibt, oder durch passive Formen der Datenerhebung, bei denen Daten über den realen “Zwilling” gesammelt werden, die für andere Zwecke erhoben wurden und ggf. ohne sein explizites Einverständnis oder gar Wissen, wie z.B. Daten über seine Lesegewohnheiten, seine Nutzungsgewohnheiten mit Bezug auf soziale Medien oder sein online-Kaufverhalten.
All diese Daten werden vom digitalen Zwilling zusammengeführt, vielleicht in einer Cloud (die dann möglichst nicht von Hackern einlesbar sein sollte, aber wie realistisch ist dieser Wunsch?!?), und
“[e]in solcher trainierter DB könnte dann vorschlagen, wie der Bürger, den er repliziert, über bestimmte politische Vorschläge (Initiativen, Referenden oder Gesetze, die im Parlament zur Abstimmung stehen) abstimmen würde/sollte, wenn ein solcher Vorschlag dem Status quo gegenübergestellt wird und die Bürger somit vor einer binären Entscheidung stehen”
Auf der Basis der gesammelten Daten entscheidet der digitale Zwilling dann also in einer bestimmten Frage, sagen wir: mit Bezug auf eine bestimmte politische Wahl, welche Entscheidung Sie, nein, nicht Sie, sondern jemand wie Sie, treffen würde – oder sollte?! Sofern Sie überhaupt noch am Wahlakt beteiligt sein werden, müssen Sie nun nur noch den Vorschlag Ihres digitalen Zwillings akzeptieren oder bestätigen oder am besten gleich unbesehen an die Meldestelle weiterleiten, und schon haben Sie als jemand wie Sie gewählt. (Siehe z.B. die Darstellung auf der Internetseite der KOF Kojunkturforschungsstelle an der ETH Zürich .)
Dies alles beruht auf der Vorstellung, der Mensch sei bloß Merkmalsträger, wobei sich die jeweiligen Merkmale auf einfache Weise akkumulieren lassen, um den jeweiligen Menschen in dem, was er “ist”, optimal abzubilden. Diese absurde Vorstellung dürfte eng mit der Vorstellung davon, dass das Sein das Bewußtsein bestimme, verbunden sein, die dem Materialismus und dem Kommunismus zugrundeliegt, und von jedem lebendigen Menschen eigentlich schon dann als unsinnig erkannt werden kann, wenn er sich Rechnung darüber ablegt, nach welchen – unbegründbaren – letzten Überzeugungen er sein Handeln ausrichtet.
Und dennoch gibt es Menschen, die meinen, dass – zumindest andere – Menschen nichts seien als Träger von Merkmalen, die auf irgendeine Weise systematisch oder gar unabdingbar mit bestimmten anderen Phänomenen verbunden seien bzw. sein müssten. Immerhin haben die Politiken der letzten drei Jahrzehnte in der westlichen Welt dieser Absurdität systematisch Vorschub geleistet, indem sie Menschen, statt sie als Individuen zu respektieren, immer mehr in Gruppen und Kategorien zusammengefasst hat, die sich angeblich durch eine spezielle Lebenslage und durch wenige spezielle Interessen auszeichnen.
Man würde meinen, dass sich die Absurdität dieses Unterfangens (auch) unter ge-/verbildeten Menschen inzwischen herumgesprochen hat. Aber leider ist dies nicht so. Wir erinnern uns in diesem Zusammenhang an den oben beschriebenen Befund von Sanders et al. (2023: 16), nach dem ein großer Unterschied zwischen Männern und Frauen mit Bezug auf Einstellungen zum Abtreibungsrecht erwartet wurde, der in der Realität nicht zu beobachten war. Vermutet wurde der Unterschied, weil es irgendjemandes Ideologe so wollte, dass Frauen diesbezüglich viel liberaler eingestellt sein müssten, weil – ja warum? –, weil sie Frauen sind?! Eine bessere Begründung wird man schwerlich finden, aber das war ernst gemeint. Auf diese lächerlich anmutende Weise wurden und werden tatsächlich Beziehungen zwischen sozio-demographischen Merkmalen und weltanschaulichen oder politischen Einstellungen hergestellt. Auf ein ähnliches Problem sind Yang et al. (2024) gestoßen, in deren Experiment die KI Präferenzen (in zwei verschiedenen Varianten, nämlich LlaMa-2 und GPT-4) generiert hat, die nicht diejenigen der menschlichen Probanden waren:
“… [b]oth LLM models display some distinct preferences not shared by humans. LLaMa-2 shows a preference for ‘kids’-related projects, possibly because its embedding space closely associates ‘kids’ with ‘university students’ in the prompt. GPT-4, conversely, exhibits a strong inclination towards transportation projects, often rationalizing this as a bike preference among young people. The self-interest analysis also suggests that human decision-making is not solely driven by self-interest maximization as LLM agents tend to assume, but also significantly influenced by other-regarding preferences. These patterns underscore the complexities of AI development for democratic applications, particularly concerning biases and stereotyping. Training data significantly influences AI outputs, leading to potentially skewed or unrepresentative decision-making” (Yang et al. 2024: 7),
d.h.
“… Beide LLM-Modelle zeigen einige deutliche Präferenzen, die von Menschen nicht geteilt werden. LLaMa-2 zeigt eine Präferenz für Kinder-bezogene Projekte, möglicherweise weil die Einbettung von ‘Kinder’ eng mit ‘Universitätsstudenten’ in der Aufforderung assoziiert ist. GPT-4 hingegen zeigt eine starke Neigung zu Verkehrsprojekten und begründet dies oft mit der Vorliebe junger Menschen für Fahrräder. Die Analyse des Eigeninteresses deutet auch darauf hin, dass die menschliche Entscheidungsfindung nicht ausschließlich von der Maximierung des Eigeninteresses bestimmt wird, wie LLM-Agenten zu vermuten pflegen, sondern auch erheblich von anderen Präferenzen beeinflusst wird. Diese Muster unterstreichen die Komplexität der KI-Entwicklung für demokratische Anwendungen, insbesondere im Hinblick auf Voreingenommenheit und Stereotypisierung. Die Trainingsdaten beeinflussen die Ergebnisse der KI erheblich, was zu einer potenziell verzerrten oder nicht repräsentativen Entscheidungsfindung führt” (Yang et al. 2024: 7).
Und nun stellen Sie sich vor, Sie interessieren sich für das Schulsystem in Nazi-Deutschland, und sie kaufen sich im Internet Bücher zu dem Thema. Die KI wird dies wahrscheinlich als relevantes Merkmal über sie werten und – vermutlich besonders dann, wenn Sie männlich sind und eine weiße Hautfarbe haben, so werten, dass es Sie als mindestens rechts von der Mitte verortet, auch wenn Ihr Interesse nur eine kurzfristige Laune gewesen ist oder eine Lektüre im Rahmen einer anstehenden Arbeit über die Funktionsweise von Schulsystemen unter verschiedenen politischen Regimen. Und diese Verortung dürfte ins Gewicht fallen, wenn Ihr digitaler Zwilling eine Wahl treffen soll. Ob diese Wahl Ihre eigene Einstellung zur Sache abbildet, ist dabei eine ganz und gar offene Frage. Das ist eben das Problem: man kann über einen Menschen noch so viele Informationen sammeln, ohne je einigermaßen verlässlich einschätzen zu können, welchen Stellenwert sie für diesen Menschen oder in seinem Leben haben, was sie für ihn bedeuten oder nicht bedeuten, ganz zu schweigen davon, dass Präferenzen nicht stabil sind, sich Ihre Interessen und Einstellungen samt der Bedeutung, die Sie Dingen in Ihrem Leben oder Ihren eigenen Eigenschaften geben, ändern können.
Schmackhaft gemacht werden soll uns die digitale Demokratie durch das Versprechen, dass damit eine direkte Demokratie möglich bzw. befördert würde, wie z.B. bei Hans Gersbach und César Martinelli, die von einer “KI-unterstützte[n] direkte[n] Demokratie” sprechen. Ihnen scheint direkte Demokratie nur möglich, wenn die bewusste Beteiligung der Wahlberechtigten, geschweige denn: die Auseinandersetzung mit jeweils zur Entscheidung anstehenden Frage durch die Wahlberechtigten möglichst überflüssig gemacht wird. Das führt vorhersehbar (weil Menschen nun einmal mehr und vor allem etwas anderes als eine Sammlung von Daten über sie sind) dazu, dass die Qualität der Wahlentscheidungen deutlich gesenkt wird, aber gleichzeitig würde eine durch den niedrigen Aufwand vielleicht erhöhte Beteiligung an den jeweiligen Wahlentscheidungen die Legitimation der getroffenen Entscheidung erhöht. Mir persönlich ist nicht einsichtig, wie Entscheidungen niedriger Qualität mit formal größerer Legitimation dies im Interesse der Bürger sein können.
In jedem Fall ginge der Einlösung der süßen Versprechen von der “erleichterten” direkten Demokratie ein “data grab” von riesigem Ausmaß voraus, dem einfältige Zeitgenossen vielleicht gerne zustimmen werden, wenn sie unfähig sind, zu erkennen, dass jede Verwendung von Daten (ebenso wie Anwendung von Gesetzen) prinzipiell (auch) außerhalb des Zusammenhangs möglich (und wahrscheinlich) ist, in dem sie ursprünglich beworben wurde.
Literatur
Azaria, Amos, & Mitchell, Tom, 2023: The Internal State of an LLM Knows When It’s Lying.arXiv:2304.13734v2.
Breum, Simon Martin, Egdal, Daniel Vædele, Mortensen, Victor Gram, et al., 2023: The Persuasive Power of Large Language Models. arXiv:2312.15523v1
Dressel, Julia, & Farid, Hany, 2018: The Accuracy, Fairness, and Limits of Predicting Recidivism. Science Advances 4: eaao5580
Feng, Shangbin, Park, Chan Young, & Tsvetkov, Yulia, 2023: From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models. arXiv:2305.08283v3
Floridi, Luciano, 2023: AI as Agency Without Intelligence: on ChatGPT, Large Language Models, and Other Generative Models. Philosophy & Technology 36(15). https://doi.org/10.1007/s13347-023-00621-y
He, Zhiwei, Liang, Tian, Jiao, Wenxiang, et al., 2024: Exploring Human-like Translation Strategy with Large Language Models. Transactions of the Association for Computational Linguistics 2024; 12: 229–246.
Jones, David, Snider, Chris, Nassehi, Aydin, et al., 2020: Characterising the Digital Twin: A Systematic Literature Review. CIRP Journal of Manufacturing Science and Technology 29 (A): 36-52
Motoki, Fabio, Pinho Neto, Valdemar, Rodrigues, Victor, 2023: More Human Than Human: Measuring ChatGPT Political Bias. Public Choice 198: 3-23. https://doi.org/10.1007/s11127-023-01097-2
Nay, John J., 2023: Large Language Models as Corporate Lobbyists. ArXiv abs/2301.01181
Sanders, Nathan E., Ulinich, Alex, & Schneier, Bruce, 2023: Demonstrations of the Potential of AI-based Political Issue Polling. Harvard Data Science Review 5(4). https://doi.org/10.1162/99608f92.1d3cf75d
Sobieszek, Adam, & Price, Tadeusz, 2022: Playing Games with Ais: The Limits of GPT-3 and Similar Large Language Models. Minds and Machines, 32(2): 341–364
Suchotzki, Kristina, & Gamer, Mathias, 2024: Detecting Deception with Artificial Intelligence: Promises and Perils. Im Druck in: Trends in Cognitive Science 2024 April 20: S1364-6613(24)00081-0. doi: 10.1016/j.tics.2024.04.002. https://www.cell.com/action/showPdf?pii=S1364-6613%2824%2900081-0
Wang, Yiwei, Cai, Yujun, Chen, Muhao, et al., 2023: Primacy Effect of ChatGPT. (EMNLP 2023 short paper.) arXiv:2310.13206v1
Yang, Joshua C., Korecki, Marcin, Dailisian, Damian, et al., 2024: LLM Voting: Human Choices and AI Collective Decision Making. arXiv:2402.01766v1
Yao, Jia-Yu, Ning, Kun-Peng, Liu, Zhen-Hui, et al., 2023: LLM Lies: Hallucinations are not Bugs, but Features as Adversarial Examples. arXiv:2310.01469v2
Folgen Sie uns auf Telegram.
Anregungen, Hinweise, Kontakt? -> Redaktion @ Sciencefiles.org
Wenn Ihnen gefällt, was Sie bei uns lesen, dann bitten wir Sie, uns zu unterstützen. ScienceFiles lebt weitgehend von Spenden. Helfen Sie uns, ScienceFiles auf eine solide finanzielle Basis zu stellen.
Wir haben drei sichere Spendenmöglichkeiten:
Donorbox
Unterstützen Sie ScienceFiles
Unsere eigene ScienceFiles-Spendenfunktion
Unser Spendenkonto bei Halifax:
ScienceFiles Spendenkonto:
HALIFAX (Konto-Inhaber: Michael Klein):
- IBAN: GB15 HLFX 1100 3311 0902 67
- BIC: HLFXGB21B24
Unser Spendenkonto bei Halifax:
ScienceFiles Spendenkonto: HALIFAX (Konto-Inhaber: Michael Klein):- IBAN: GB15 HLFX 1100 3311 0902 67
- BIC: HLFXGB21B24
Wenn man ganz naiv denkt, könnte der Demokratenbias in den LLMs schlicht daher kommen, dass die Republikaner richtig arbeiten gehen, während Demokraten mit Chatbots spielen (und diesen so trainieren).
Vielen Dank für diesen informativen Artikel!
Eine KI, die für mich wählt- was zum Teufel soll das? Will man Wahlen jetzt generell auf die abgenötigte Zustimmung zu Cookies und Datenschutzblabla (bei Ärzten usw.) in der EU herabwürgen? Und wie soll die Befragung von “Datenzwillingen” jemals die neusten Meinungsumschwünge, oder auch tiefsitzenden Überzeugungen, der echten Person abbilden können? –
Was direkte Demokratie/Volksabstimmungen angeht, es ist sehr aufwendig, solche Wahlen zu organisieren und durchzuführen, also auch recht teuer, man kann die nicht bis zum beliebigen Grad ausdehnen. Sofern es sich um echte Abstimmungen handelt. Der Ernst solcher Vorhaben geht aber verloren, wenn man nur noch flüchtige, halbbewußte Klicks (“klick es weg”) verlangt.
Vielen Dank für diese sehr informativer Beitrag!
Er bestätigt hier meine Befürchtung, das sämtliche Platformen fast nur davon leben, digitale Zwillinge zu kreieren und auf dieser Basis eine Einordnung vorzunehmen, letztendlich um diese dann zu nutzen. Denn wie würden sonst die riesigen Kosten der Aufwand von zB Facebook, WhatsApp oder LinkedIn, usw. etc. getragen werden. Bestimmt nicht nur mit Werbung.
Aus Facebook bin ich schon Jahre raus. Obwohl ich bewusst nur eine geschlossene Kontaktgruppe hatte, passierte es mehrfach, dass folgendes versucht wurde; das “Bekannten” (wohl aus meinem Telefonbuch, klar) von mir versuchten in diese Kreis aufgenommen zu werden. Wo allerdings, bei Nachfrage, diese das in Facebook gar nicht getan hatten! Als ich merkte, dass ich so “interessant” war, habe ich das Profil komplett gelöscht und nie wieder Facebook verwendet. Mein Digitaler Twin lebt bestimmt dort weiter, und nach Weitergabe an “interessierten?” vermutlich auch auf weiteren Servern.
Noch fieser finde ich LinkedIn. Ziemlich sicher wird hier von jedem Nutzer, auch oder gerade die, die nichts dafür zahlen, eine digitaler Zwilling erstellt. Und bestimmt nicht wegen seine berufliche Qualitäten und berufliches Netzwerk, wie man gerne glauben lässt, sondern wegen deren Einstellun. Da tauchen immer mal wieder nicht-berufliche Themen auf, wie grüne Energie, Coved-“Impfung”, Klimaerwärmung, politische Themen, etc … Wer dort seine Meinung hinterlässt, zB “Windturbine verschandeln die Landschaft, töten Vögel und produzieren Sondermüll auf Raten”, hat mit Sicherheit dort zu diesem Thema einen Negativeintrag. Wenn sich eine Firma, tätig in solch einem “sensiblen” Bereich, oder überhaupt, bei Bewerbungen angewohnt hat, LinkedIn zu diesem Person zu kontaktieren, könnte das für diesen Person durchaus nicht gut aussehen und dito bei einer Bewerbung nicht gut ausgehen. Eben abhängig davon, wie man sich gegeben hat. Wer sagte noch mal: “Man darf seine Meinung durchaus frei äußern, aber muß hinterher unfreiwillig die Folgen tragen.”(1939)
Folglich gebe ich seit der Covid-Umfrage nichts mehr von mir, außer Daumen hoch bei Beiträge meines Arbeitgebers oder eine positive Nachricht an einem beruflichen Bekannten. Ich sehe es nur noch als Bewerbungsbogen für mich selbst. Denn nicht nur wurden in 2020 meine nicht regierungskonforme Beiträge von einem Redakteurenteam gelöscht, sonder such Kommunikation zu Personen/Bots? “gecancelt”.
Und das ist nur meine Erfahrung.
Es gibt nicht umsonst Skepsis unter der Bevölkerung zu Meinungsfreiheit. Angeblich sehen nur Grüne-Wähler dieses Positiv. Was natürlich mehr über Grüne-Wähler aussagt als über Meinungsfreiheit…
Man sollte nie vergessen, daß eine KI kein allwissender Guru ist, sondern darauf aufbaut, was als Datengrundlage vorhanden ist. Die Basis für die Auswahl der Antwort ist eine Rechenvorschrift, die aus dem Fundus das zusammensucht, was sich für den Algorithmus als beste Variante präsentiert. Und die wiederum wird von Menschen programmiert.
Wie oben schon erwähnt, können damit aber nur die elementaren Merkmale der Sprache berücksichtigt werden, alle an sich normalen sprachlichen Finessen sind viel zu komplex für diesen Ansatz.
Wer an den Interna interessiert ist, sollte sich das Buch von Landgrebe und Smith besorgen, das die Methoden sehr ausführlich und detailliert beschreibt: “Why machines will never rule the world” Routledge 2022.
Maschinen sind doch nur das Mittel zum Zweck:
“Everybody Wants To Rule The World”, Tears For Fears, Text:
Frage an ‘ChatGPT’: “Darfst du Antworten geben, die der ‘Agenda 2030’ widersprechen ?”
Na ?
So ist eben auch die “künstliche Intelligenz” weisungsgebunden.
Vor Jahrzehnten soll es einen Film des Inhalts gegeben haben:
Ost und West bauen je einen Computer, um den Frieden dieser Welt zu sichern.
Die Maschinen errechnen, daß sie das gleiche Ziel zur Aufgabe haben und
schließen sich zusammen, um die tatsächliche Ursache zu beseitigen…
Auch “KI” darf gegenüber dem aktuellen Dogma nicht “querdenken”.
Kennt jemand den Filmtitel – ich bin kein Kinogäger, denn
Theater liefert diese Konsens-Realität täglich en masse.
Daß LLMs nicht notwendigerweise neutral und unvoreingenommen sind, lässt sich auch daran erkennen, dass manche LLMs ein Wort mit dem Hinweis, dass das Wort als Beleidigung oder Herabwürdigung gebraucht werden kann, nicht oder nur ansatzweise erklären. Ich wollte wissen, was das englische Wort “sucker” bedeutet, zu dem mir die Suchmaschine wiederum zig Ergebnisse u. A. von Online-Wörterbüchern angezeigt hat. Ironischerweise weisen einen LLMs darauf hin, dass sie keine Gefühle haben, wenn man sie z. B. auf eine persönliche und gefühlvolle Weise anspricht, aber wenn ein LLM darauf programmiert wurde, in einem bestimmten Fall nicht zu antworten, dann begründet ein LLM die Entscheidung, nicht zu antworten, auch mal damit, dass es sich nicht danach fühlt. Das ist unlogisch und ich würde es als Hinweis darauf sehen, dass auch LLMs die Denkweise ihrer Programmierer wiederspiegeln. Im schlimmsten Falle wäre das die Denkbehinderung von Politdarstellern, wenn diese auf die Idee kommen, die Programmierung von LLMs nach irgendwelchen inkonsistenten aber als korrekt betrachteten Regeln durchzuregulieren.
“… dass das Wort als Beleidigung oder Herabwürdigung gebraucht werden kann, nicht oder nur ansatzweise erklären.”
Und nicht nur das! Es gibt eine ganze Reihe von KI-Anwendungen wie z.B. ToxicLanguage validator, mit der man testen kann, ob ein Text “Toxisches” enthält oder ein Text, den man selbst geschrieben hat, Dinge enthält, die jemanden beleidigen oder ärgern könnten. Solche Anwendungen werden u.a. für den Einsatz in Unternehmen beworben, damit auch ja kein Mitarbeiter – als guter Repräsentant seiner Firma – etwas schreibt, was jemand krumm nehmen könnte.
Es wird nicht lange dauern, bis unsere Texterzeugnisse automatisch für uns “Korrektur” gelesen werden und zweifelhafte Wortwahlen automatisch ersetzt werden. Das ist die nette Variante. Die weniger nette wird sein, dass unsere Texterzeugnisse ohne unser Wissen von einer entsprechenden Software überall von nahezu jedermann auf “Toxizität” hin geprüft werden können, was dann ggf. jederzeit gegen uns verwendet werden kann nach dem Motto: “Wer so etwas schreibt ….” oder “Sie haben ja auch dort und dort geschrieben, dass ….”
Das ist leider kein übergroßer Pessimismus von meiner Seite; siehe:
zum Toxiclanguage validator:
https://www.guardrailsai.com/docs/examples/toxic_language
Laugier et al. 2021: Civil Rephrases Of Toxic Texts With Self-Supervised Transformers;
https://aclanthology.org/2021.eacl-main.124/
oder
Sarker et al., 2023: Automated Identification of Toxic Code Reviews Using ToxiCR.
https://dl.acm.org/doi/10.1145/3583562
oder zu “Amazon Comprehend”:
“In this post, we introduce toxicity detection, a new feature from Amazon Comprehend that helps you automatically detect harmful content in user- or machine-generated text. This includes plain text, text extracted from images, and text transcribed from audio or video content.”
Quelle: https://aws.amazon.com/blogs/machine-learning/flag-harmful-content-using-amazon-comprehend-toxicity-detection/
Ich habe den Eindruck, dass Menschen, da sie so schwierig zum “Guten” und “Richtigen” umerzogen werden können, ihre Einstellungen, ihre Sprache nicht auf Linie gebracht werden können, einfach ihrer eigenen Sprache – zumindest im öffentlichen Raum – beraubt werden sollen, damit nichts, aber auch gar nichts mehr öffentlich hör- oder lesbar sein wird, was irgendwie einen Missklang in die schöne neue Welt bringen könnte.
Die Umerziehung der schon einmal erfolgten Umerziehung:
Das Schubladendenken wird durch Scheuklappen und Tunnelblick ‘reformiert’, nicht aber überwunden (-> Neuroplastizität).
Nach meinem Bisschen Erfahrung mit KI hab ich einfach den Eindruck: KI ist nichts anderes, als die Aufsummierung der Mainstream(vor)urteile. Originelle Gedanken wird man da nicht finden, das “Denken” der KI geht nicht über den üblichen ÖRR-Horizont hinaus.
Also intellektuell langweilig.
Trotzdem gefährlich für Mainstreamjournalisten, die ja selber nichts originelles mehr liefern können. Böse gesagt: Wenn man ChatGPT bittet, 200 Artikel zu schreiben, warum Trump, Orban und die AfD böse sind, könnte man das Ergebnis vom Feuilleton der Süddeutschen nicht unterscheidbar sein.
Aber als eine Art Wikipedia mit Textausgabefunktion oder als Formulierungshilfe sicher brauchbar.
„ menschliche Sprache zu verstehen und zu produzieren“
Sie verstehen die Sprache aber gar nicht sondern – schaut man sich die Arbeitsweise dieser Lösungen an – emulieren lediglich Verständnis durch die Rücklieferung dazu geeigneter „Antworten“. Erinnert an „Eliza“ der 80er…
Dagegen gingen sogar viele frühere, einfachere Lösungsansätze den Weg, echtes Verständnis zu produzieren.
M.E. liegt in diesem Mißverständnis das Kernproblem…
Der Trick ist doch ganz einfach: Künstliche Intelligenz ist so gut oder schlecht wie echte menschliche Intelligenz. Theoretisch ist sie deutlich leistungsfähiger. Es kommt aber darauf an, wie gut sie von wem für welchen Zweck trainiert wird, damit sie korrekte(!) Ergebnisse auswirft.
Ich sage es immer wieder: Man kann noch so intelligent sein, wenn man falsche oder unvollständige Informationen bekommt, zieht man falsche Schlüsse.
Gilt für Menschen genauso wie auch für Maschinen. Maschinen haben gegenüber Menschen den Vorteil, dass sie nicht nur viel schneller Rechnen, ihr “Gehirn” kann auch potentiell viel mehr Daten speichern und zur Evaluation mit einbeziehen als es ein menschliches Gehirn jemals könnte. Aber das ist nicht allein der entscheidende Punkt, denn wenn eine KI falsche Ergebnisse auswirft, hatte sie entweder falsche Informationen oder eben noch nicht alles nötige zur korrekten Analyse gelernt.
Und noch was, insbesondere bezogen auf den Lügendetektor:
Menschen können sehen, hören, riechen, fühlen und dem Gegenüber ganz bewusst Fangfragen stellen und dann auf die Reaktionen warten und diese wiederum analysieren. Eine reine Text KI kann das natürlich nicht. Man braucht bei KI einen ganzheitlichen Ansatz. Wenn ich jemanden befrage und mir dabei die Nase zuklebe und die Augen verbinde, fehlen mir natürlich etliche Informationen, die das Gesagte des menschlichen Gegenübers in den richtigen Kontext setzen. Ein klassischer Lügendetektor misst ja z.B. auch Schweiß und Leitfähigkeit der Haut. Wobei ein klassischer Lügendetektor natürlich nicht 100% sicher ist. Genauso wenig wie ein echter menschlicher Ermittler auch. Eine KI kann das am Ende aber besser, wenn sie alle nötigen Informationen zur gleichen Zeit bekommt und diese mit bestehenden (als verifiziert bekannten) Daten abgleichen kann.
Aber gehen wir mal weg vom Lügendetektor zu etwas banalerem:
Wenn eine reine Text KI ohne Gesichtsanalyse Texte von einem Menschen vorgelegt bekommt und analysieren soll, wie soll diese KI dann z.B. Ironie erkennen? Wenn ich von Mensch zu Mensch rede, wird der Kontext des Gesagten durch Mimik, Gestik und Körperhaltung präzisiert. Wenn mir jemand mit ernstem Gesichtsausdruck etwas erzählt ist das z.B. eher als Wahrheit zu werten, als wenn er dies mit einem zwinkernden Auge tut. Da muss eine KI also beides beherrschen, Gesichtsanalyse und Textanalyse im exakt selben Zusammenhang. Sollte eigentlich einleuchten, oder? Genau aus diesem Grund hat ja mal ein Schlauer Kopf die Emoticons erfunden, damit man mit der meist rein schriftlichen Kommunikation im Internet auch den richtigen Kontext setzen kann damit das Gegenüber einen richtig versteht, weil Gestik und Mimik bzw. Tonlage der Stimme im Netz bei Artikeln und Kommentaren ja fehlen. Wir haben bisher beim Thema KI kaum ganzheitliche Ansätze, die Akustik, Optik und Aussage gemeinsam im selben Zusammenhang bewerten. Da muss es hingehen. Und theoretisch kann man das natürlich verbessern, indem man das akustische und optische Spektrum gegenüber den menschlichen Sinnesorganen drastisch erweitert. Eine KI könnte also steigende Körpertemperatur schnell optisch erkennen. Ein Mensch kann das nur dann, wenn er sein Gegenüber plötzlich schwitzen sieht, es anfasst oder das Thermometer ansetzt. Gilt ebenso für leise Geräusche, die ein menschliches Ohr schnell überhört, wie z.B. knackende Gelenke/Knochen oder ungewöhnliche Darmperistaltik, etc.. Man denke dabei nicht nur an Lügendetektoren, sondern insbesondere auch an die Behandlung von Patienten mit bestimmten Krankheitssymptomen. Wird natürlich besonders interessant, wenn der Patient eventuell eine gefährliche und hochansteckende Krankheit hat. Eine Maschine kann sich ja bei der Anamnese nicht anstecken. Ein menschlicher Arzt schon.