Erforschung von Fehlinformationen in LLMs
Interdisziplinäre Projektarbeit
Entdecken Sie, wie Large Language Models Fehlinformationen verbreiten und wie wir dem entgegenwirken können.
Tauchen Sie einEinleitung
In der heutigen digitalen Landschaft sind Large Language Models (LLMs) überall präsent. Sie bilden das Herzstück fast aller modernen Chatbots. Diese Systeme beeindrucken durch ihre Fähigkeit, komplexe Texte zu generieren, die oft nicht mehr von menschlichen Formulierungen zu unterscheiden sind. Doch hinter der sprachlichen Eleganz verbirgt sich eine fundamentale Herausforderung: Die Modelle sind darauf trainiert, einen sachlichen und selbstbewussten Tonfall zu pflegen, unabhängig davon, ob der Inhalt faktisch korrekt ist. Dies führt zur sogenannten «Autoritäts-Falle», bei der die Nutzer den plausibel klingenden, aber fehlerhaften Antworten, den sogenannten Halluzinationen, blind vertrauen.
Unsere persönliche Motivation für diese Arbeit entspringt der Beobachtung, dass KI-Tools zwar bereits massenhaft im Alltag genutzt werden, das Wissen über ihre technische Funktionsweise und ihre Grenzen jedoch oft fehlt. Viele Anwender:Innen nutzen diese mächtigen Werkzeuge, ohne zu wissen, wie sie durch die richtige Handhabung Fehler vermeiden oder die Zuverlässigkeit der Ergebnisse steigern können. Wir möchten mit dieser IDPA daher nicht nur die mathematische Komplexität beleuchten, sondern vor allem für einen kompetenten und kritischen Umgang mit KI sensibilisieren.
Da die Modelle lediglich berechnen, was statistisch «plausibel» klingt, stellt sich die Frage, ob wir jemals eine KI ohne Fehlinformationen erleben werden. Diese Arbeit setzt genau hier an und untersucht die tieferliegenden Mechanismen von der Vektoreinbettung bis hin zum Training durch Backpropagation.
Fragestellung
Im Zentrum steht die Untersuchung unserer Leitfrage:
Inwiefern führen die mathematischen Grundlagen von Large Language Models zwangsläufig zu Halluzinationen und welche Gegenmassnahmen sind wirksam?
Die vorliegende Arbeit ist in drei wesentliche Abschnitte unterteilt:
«Wie funktioniert ein LLM mathematisch?»
Um unsere Fragestellung zu beantworten, braucht man ein grundlegendes Verständnis von LLM. Daher erläutern wir den Aufbau eines LLMs, angefangen bei der Mathematik eines einzelnen Neurons über die Bedeutung von Vektoren bis hin zur Transformer-Architektur.
«Aus welchen Gründen halluzinieren LLMs?»
Wir untersuchen im Detail, wo technische Einschränkungen zu Fehlinformationen führen. Damit wir in einem nächsten Schritt gezielt nach Lösungen für diese Problemstellen suchen können.
«Wie kann man Halluzinationen vermindern?»
Wir suchen mögliche Lösungsansätze, um Halluzinationen entgegenzuwirken. Neben unserer Recherche führen wir hier auch ein Interview mit Fachpersonen durch.
Abschliessend ziehen wir ein Fazit, das sowohl technische Perspektiven für Entwickler als auch praktische Empfehlungen für die Anwendenden bereithält, um die KI als wertvolles Werkzeug zu nutzen, ohne der «Autoritäts-Falle» zu erliegen.
Übersicht
Um unsere Arbeit übersichtlicher zu gestalten haben wir sie in folgende Bereiche unterteilt.
LLM
Lernen Sie wie ein LLM funktioniert
Erfahre mehrUnsere Vorschläge
Was können Sie gegen Fehlinformationen machen?
Erfahre mehrAnfälligkeit
Lernen Sie wie Fehler in LLM entstehen
Erfahre mehrInterview
Interview mit Experten im LLM Bereich
Erfahre mehrFazit
Unser Zusammenfassung der Erkenntnisse der IDPA
Erfahre mehrInterview
Um unsere Recherche mit Fachwissen abzustürzen haben wir verschiedene Fachpersonen nach einem Interview gefragt. Ursprünglich war die Idee jemanden aus der ETH Zürich zu befragen, da dort mit "Apertus" vor kürzerem ein eigenes LLM entwickelt wurde. Leider antwortete uns niemand auf unsere Anfrage zu einem Interview. Anschliessend fragten wir eine Person von einer Fachhochschule an. Innerhalb dieses Dokument haben wir den Namen der Person, aufgrund des Datenschutzes, geschwärzt. Als diese eine etwas merkwürdige Antwort gab, interviewten wir Mikaela Buzdin, welche wir im persönlichen Bekanntenkreis fanden.
Organisation Interview
Auf der Webseite einer Fachhochschule wurden wir anschliessend auf eine Person, welche im Bereich LLM tätig ist, aufmerksam. Wir beschlossen diese anzuschreiben und nach einem Interview zu bitten. Nach einer initialen Zusage zu einem Interview, waren wir etwas enttäuscht, als uns mitgeteilt wurde wir sollen unsere Interview-Fragen mit ChatGPT oder Perprexity erarbeiten.
Mailverkehr mit der genannten Person:
Wir wissen nicht, warum die Person die Fragen nicht selbständig beantwortet hat. Vielleicht gab es ein Missverständnis und er dachte er würde durch das Beantworten der Frage unsere Recherche übernehmen. Wobei wir viel mehr seine persönliche Meinung erfahren wollten. Möglicherweise waren unsere Fragen auch zu simpel und er wollte uns auffordern, uns noch tiefer ins Thema einzulesen. Eine weitere Option besteht darin, dass wir mit unserer Recherche in ein Gebiet vorgestossen sind, in welchem es selbst für Fachpersonen schwer ist Aussagen zu treffen. Entsprechend seiner Empfehlung haben wir die Interview-Fragen mit einer künstlichen Intelligenz erarbeitet.
Nun haben wir Fragen, über Fehlinformationen und Halluzinationen innerhalb künstlicher Intelligenz, mit einer künstlichen Intelligenz beantworten lassen. Aufgrund dieser Ironie haben wir uns entschlossen, weiter nach einem möglichen Interview Ausschau zu halten. Im erweiterten Bekanntenkreis stiessen wir auf Mikaela, gelehrte Informatikerin Applikationsentwicklung EFZ und im letzten Semester des Studienganges "BSc Data Science & Artificial Intelligence" an der Fachhochschule Nordwestschweiz (FHNW). Neben dem Studium arbeitet Mikaela aktuell an einem generativen KI-Projekt, welches mit Transformer-ähnlichen Strukturen (TRELLIS) arbeitet. Das Ziel dieses Projektes ist es 3D Rekonstruktion aus 2D Bildern zu erstellen. Weitere Informationen über ihr Werdegang können in ihrem Portfolio gefunden werden.
Interview Fragen und Antworten
Warum treten Halluzinationen auf?
Ist es möglich, ein RAG-System aufzubauen, welches die Informationen direkt aus dem Internet bezieht?
Wird das Problem von Fehlinformationen durch das Skalieren der LLM behoben?
Welche Entwicklungen hatten bis jetzt den grössten Einfluss auf die Fehlerquote?
Welche Massnahmen werden aktuell entwickelt oder erforscht, um Halluzinationen weiter zu verhindern?
Was können private Anwender von ChatBots machen, um Halluzinationen zu verhindern?
Wie gross schätzen Sie die Auswirkung von gutem Prompt-Engineering?
Bringt es einen messbaren Mehrwert, wenn das Modell seine eigene Antwort in einem zweiten Schritt überprüft?
Denken Sie, dass wir bei der «Next-Token-Prediction» an ein Limit stossen werden?
Sollten wir unsere Zeit in die Forschung für neue Algorithmen investieren, welche einen anderen Ansatz verfolgen?
Auswertung des Interviews
Die beiden Interviews, sowohl mit Mikaela wie auch mit der generativen KI, ermöglichen uns nun die Themen aus zwei unterschiedlichen Blickwinkeln zu analysieren. Während Gemini die Fragen in den meisten Fällen sehr allgemeingültig beantwortete, hatte Mikaela eine klarere Meinung zu den Themen und distanzierte sich auch offiziell von Fragen, bei welchen sie nicht ausreichend Fakten hatte.
Im Interview wird klar, dass private Anwender am meisten beeinflussen können, indem sie durch Prompt Engineering ihre Prompts verbessern und nach Quellen fragen, welche sie anschliessend unabhängig von dem LLM überprüfen. Auch die korrekte Verwendung von verschiedenen Chats und der Online-Suchfunktion wird erwähnt.
Aus den Antworten ist ersichtlich, dass es bei der Entwicklung von LLM drei unterschiedliche Bereiche gibt, welche zur Verhinderung von Fehlinformation nützlich sein können. Es kann die LLM-Architektur angepasst werden, beim Training des LLM anders vorgegangen werden oder Umsystemen verwendet werden. Laut Gemini stösst auch die "Next-Token-Prediction" irgendwann an ein Limit, da die Vorhersage von nächsten Worten keine Faktenchecks beinhaltet. Gerade hier erwähnt Mikaela, dass wir schon viel weiter sind als diese Vorhersage. Zum Beispiel RLHF war im Training eine sehr effektive Variante, um Halluzinationen weiter einzudämmen. Zusätzlich erwähnt Mikaela, dass auch intern im Aufbau eines Transformers schon viel angepasst wurde. Durch das Verschieben oder Neuanordnen von Komponenten können andere Ziele erreicht werden. Umsysteme bieten zwar einen grossen Mehrwert, verschieben aber das Problem meist nur auf einen anderen Punkt. Bei RAG hat man beispielsweise das Problem, dass bei steigender Grösse nicht mehr alle Quellen verifiziert, werden können.
Zusätzlich ist uns beim Auswerten des Interviews noch etwas Weiteres aufgefallen. Gemini antwortete, dass aktuell Mechanismen entwickelt werden, damit LLM Antworten bei fehlenden Quellen oder Unsicherheiten verweigern können. Mikaela hat sich bei zwei Fragen distanziert und mit Aussagen wie "bin ich keine Expertin" klargemacht, dass die Fakten nicht vollständig sind oder sie etwas unsicher ist.
Das wäre für LLM sicherlich eine der grössten Entwicklungen gegen Halluzinationen. Wenn eine LLM Situationen erkennt, in welchen zu wenig Belege vorhanden sind, und diese anschliessend markiert, hätten die Benutzer einen ersten Anhaltspunkt, wie wahrheitsgetreu die Antwort sein kann.
Eine grosse Erkenntnis aus dem Mailverkehr mit der Person, von der Fachhochschule, und dem Interview war, dass unsere Fragestellung immer noch zu allgemein gehalten war. Daher passten wir diese noch während der Arbeit an.
Fazit
Am Anfang dieser Arbeit haben wir uns eine übergeordnete Fragestellung überlegt und davon mehrere untergeordnete Fragen abgeleitet. Dadurch können wir nun die übergeordnete Fragestellung "Inwiefern führen die mathematischen Grundlagen von Large Language Models zwangsläufig zu Halluzinationen welche Gegenmassnahmen sind wirksam?" beantworten.
Wie funktioniert ein Large Language Model mathematisch?
Damit wir das fundamentale Verständnis für LLMs erhielten, haben wir zuerst erarbeitet, wie ein LLM mathematisch aufgebaut ist. Es gibt viele verschiedene LLM-Architekturen. Während der Arbeit haben wir die Transformer-Architektur weiter angeschaut. Bei Transformern werden Wörter, vom Input, zuerst in Vektoren umgewandelt. Danach durchlaufen diese Vektoren die Attention. Innerhalb der Attention wird, mithilfe von mehreren Matrixmultiplikationen, Skalar Berechnungen und Softmax Funktionen, dem LLM ermöglicht den Kontext von Worten zu verstehen. Im darauffolgenden MLP, wird ein neurales Netzwerk verwendet, welches das Speichern von Informationen innerhalb des LLM ermöglicht. Auch hier werden Matrixmultiplikationen, Vektor Rechnungen und eine Funktion wie beispielsweise ReLU verwendet. Nach meheren Wiederholungen, der Attention und des MLP, kann das LLM angeben, welches Wort als nächstes besten auf den Gegebenen Text passt.
Aus welchen Gründen halluzinieren LLMs?
Erst während der Recherche fürs Thema wurde uns bewusst, dass die Architektur der aktuellen AI zwangsläufig zu Halluzinationen führt. Dies ist kein Fehler in der Software, sondern ein Teil des fundamentalen Prinzips, der Next-Token-Prediction. Es priorisiert eine plausibel klingende Antwort über die faktisch korrekte. Zudem hat das LLM kein "Wissen", es hat lediglich Milliarden von Parametern, die dieses "Wissen" beinhalten. Das führt immer dazu, dass ein gewisser Teil falsch sein musss, denn man kann nicht alle Informationen der Welt in einigen hundert Gigabytes ohne Verlust abspeichern.
Im Embedding können ähnliche Vektore etwas essenziell anderes bedeutet. Falls das LLM den falschen Vektor verwendet kann dadurch die komplette Generation beeinlusst werden. Sobald eine Fehlinformation, zum Beispiel durch das Prompt des Benutzers, in die Attention gelangt, wird die Attention darauf aufbauen. Dies führt dazu, dass die Antwort deutlich von der Wahrheit abweichen kann.
Unsere Recherche stützen wir zusätzlich mit einem Interview. Grundsätzlich überschnitten sich die Antworten des Interviews mit unserer Recherche. Es gab ein paar kleine neue Erkenntnisse, so zum Beispiel, das aktuell daran gearbeitet wird, die einzelnen Parameter eines LLM besser zu verstehen.
Welche Möglichkeiten gibt es, um Halluzinationen in LLMs zu vermindern?
Wir haben folgende mögliche Ansätze gefunden, um Halluzinationen innerhalb von LLMs zu reduzieren. Eine wichtige Erkenntnis ist, dass Next-Token-Prediction niemals komplett fehlerfrei werden wird. Mithilfe von diesen Möglichkeiten können die Halluzinationen jedoch weiter eingegrenzt werden. Sowohl private Anwender wie auch Entwickler können hier einen Beitrag leisten. Benutzer können am meisten Unterschied beim Prompt Engineering erreichen. Entwickler können mit Umsystemen, Architektur-Anpassungen und Trainingsprozess anpassungen gegen Halluzinationen vorgehen. Im Rahmen der Arbeit haben wir eine Website mit Tipps erstellt: f3o.ch/vorschlaege/. Damit wollen wir insbesondere Anwendern aufzeigen, was sie unternehmen können, um Falschinformationen zu verhindern.
Gesamtfazit
Wir möchten mit dieser Arbeit erreichen, dass Anwender von LLM und KI sich der Fehlinformationen bewusst sind. Heutzutage ist die Verwendung von generativen Tools eine grosse Chance, um unsere Produktivität zu fördern. Jedoch können, wie bereits erwähnt, Antworten überzeugend sein, aber aus Fehlinformationen bestehen. Selbst wenn die aktuelle Transformer-Architektur perfekt implementiert wird, entstehen durch die Next-Token-Prediction Fehler. Auch Quellenangaben von künstlichen Intelligenzen sind davon betroffen und müssen unabhängig überprüft werden. Neben dem Überprüfen der Fakten muss, aus unserer Sicht, das Wissen vermittelt werden, wie ein LLM korrekt gepromptet wird. Hier haben wir versucht mit unserer Webseite einen ersten Schritt zu gehen. Obwohl Agent-Architekturen auch durch Anwender erstellt werden können, finden wir das besonders Unternehmen noch mehr in diesem Gebiet investieren können. Gerade weil Transformer immer Halluzinationen haben werden, sind Agent-Architekturen ideal, um die Halluzinationen abzufangen. Zwar haben wir im Interview erfahren, dass RLHF in der Vergangenheit am Meisten gegen Fehlinformationen geholfen hat. Aufgrund unserer Recherche würden wir aber weniger darin investieren, da Transformer, selbst beim perfekten Training, Fehler machen werden. Interessant wäre aus unserer Sicht auch das erforschen und entwicklen von neuen LLM-Architekturen, wobei dies Zeit- und Ressourcenintensiv ist.
Aus unserer Sicht ist KI ein geniales Tool für kreative Sachen oder erste Entwürfe eines Produktes. Aktuell empfehlen wir für grössere Arbeiten, gerade bei Recherchen, KI nur sehr gezielt einzusetzen und Informationen immer zu überprüfen.