Erforschung von Fehlinformationen in LLMs

Interdisziplinäre Projektarbeit

Entdecken Sie, wie Large Language Models Fehlinformationen verbreiten und wie wir dem entgegenwirken können.

Tauchen Sie ein

Einleitung

In der heutigen digitalen Landschaft sind Large Language Models (LLMs) überall präsent. Sie bilden das Herzstück fast aller modernen Chatbots. Diese Systeme beeindrucken durch ihre Fähigkeit, komplexe Texte zu generieren, die oft nicht mehr von menschlichen Formulierungen zu unterscheiden sind. Doch hinter der sprachlichen Eleganz verbirgt sich eine fundamentale Herausforderung: Die Modelle sind darauf trainiert, einen sachlichen und selbstbewussten Tonfall zu pflegen, unabhängig davon, ob der Inhalt faktisch korrekt ist. Dies führt zur sogenannten «Autoritäts-Falle», bei der die Nutzer den plausibel klingenden, aber fehlerhaften Antworten, den sogenannten Halluzinationen, blind vertrauen.

Unsere persönliche Motivation für diese Arbeit entspringt der Beobachtung, dass KI-Tools zwar bereits massenhaft im Alltag genutzt werden, das Wissen über ihre technische Funktionsweise und ihre Grenzen jedoch oft fehlt. Viele Anwender:Innen nutzen diese mächtigen Werkzeuge, ohne zu wissen, wie sie durch die richtige Handhabung Fehler vermeiden oder die Zuverlässigkeit der Ergebnisse steigern können. Wir möchten mit dieser IDPA daher nicht nur die mathematische Komplexität beleuchten, sondern vor allem für einen kompetenten und kritischen Umgang mit KI sensibilisieren.

Da die Modelle lediglich berechnen, was statistisch «plausibel» klingt, stellt sich die Frage, ob wir jemals eine KI ohne Fehlinformationen erleben werden. Diese Arbeit setzt genau hier an und untersucht die tieferliegenden Mechanismen von der Vektoreinbettung bis hin zum Training durch Backpropagation.

Fragestellung

Im Zentrum steht die Untersuchung unserer Leitfrage:

Inwiefern führen die mathematischen Grundlagen von Large Language Models zwangsläufig zu Halluzinationen und welche Gegenmassnahmen sind wirksam?

Die vorliegende Arbeit ist in drei wesentliche Abschnitte unterteilt:

Abschliessend ziehen wir ein Fazit, das sowohl technische Perspektiven für Entwickler als auch praktische Empfehlungen für die Anwendenden bereithält, um die KI als wertvolles Werkzeug zu nutzen, ohne der «Autoritäts-Falle» zu erliegen.

Übersicht

Um unsere Arbeit übersichtlicher zu gestalten haben wir sie in folgende Bereiche unterteilt.

Interview

Um unsere Recherche mit Fachwissen abzustürzen haben wir verschiedene Fachpersonen nach einem Interview gefragt. Ursprünglich war die Idee jemanden aus der ETH Zürich zu befragen, da dort mit "Apertus" vor kürzerem ein eigenes LLM entwickelt wurde. Leider antwortete uns niemand auf unsere Anfrage zu einem Interview. Anschliessend fragten wir eine Person von einer Fachhochschule an. Innerhalb dieses Dokument haben wir den Namen der Person, aufgrund des Datenschutzes, geschwärzt. Als diese eine etwas merkwürdige Antwort gab, interviewten wir Mikaela Buzdin, welche wir im persönlichen Bekanntenkreis fanden.

Organisation Interview

Auf der Webseite einer Fachhochschule wurden wir anschliessend auf eine Person, welche im Bereich LLM tätig ist, aufmerksam. Wir beschlossen diese anzuschreiben und nach einem Interview zu bitten. Nach einer initialen Zusage zu einem Interview, waren wir etwas enttäuscht, als uns mitgeteilt wurde wir sollen unsere Interview-Fragen mit ChatGPT oder Perprexity erarbeiten.

Mailverkehr mit der genannten Person:
Wir: Anfrage für ein Interview

Sehr geehrter X

Mein Name ist Fabio Flückiger und ich schreibe Ihnen im Namen meines Lernendenteams von der GIBB (Gewerblich Industrielle Berufsfachschule Bern), Berufsmaturität. Im Rahmen unseres interdisziplinären Projekts (IDPA) untersuchen wir das Verhalten von Fehlinformationen innerhalb von künstlicher Intelligenz, insbesondere grosser Sprachmodelle (LLMs).

Unsere zentrale Fragestellung lautet: "Wie kann bei Künstlichen Intelligenzen die Auswirkung von Falschinformationen technisch eingeschränkt werden?“

Für den methodischen Teil unserer Arbeit, in dem wir die Struktur moderner Algorithmen und die Ursprünge von Fehlinformationen analysieren, wäre ein Interview mit einer Fachperson von unschätzbarem Wert. 

Wir sind durch die offizielle Webseite der FH auf den Tätigkeitsbereich der Person aufmerksam geworden, bei welcher Sie hinterlegt sind.

Hätten Sie Zeit für ein Interview? Wir können Ihnen die Fragen schriftlich zukommen lassen oder nach Terminvereinbarung das Interview per Videokonferenz, Telefon oder persönlich durchführen.

Vielen Dank für Ihre Zeit und Ihre Aufmerksamkeit.

Freundliche Grüsse
Isaiah Dias
Linus Fankhauser
Mihailo Milosevic
Fabio Flückiger

X: Zusage schriftliches Interview

Lieber Fabio Flückiger

Ihr könnt mir gerne eure Fragen schriftlich schicken, ich kann sie beantworten oder an eine entsprechende Fachperson weiterleiten.

Viel Erfolg mit der Arbeit

Mit freundlichem Gruss
X

Wir: Interviewfragen

Guten Tag Herr X

Ihre Antwort freut uns enorm. Vielen Dank.

Es würde uns freuen, wenn Sie folgende Fragen beantworten könnten. Wir haben uns schon etwas länger mit dem Thema LLM’s auseinandergesetzt und schliessen alle dieses Jahr die Lehre als Informatiker EFZ ab. Somit bitten wir Sie, die Fragen möglichst detailiert zu beantworten.

  • Warum treten Halluzinationen auf? Was sind die Problemstellen innerhalb einer LLM / eines Transformers?
  • Ist es möglich, ein RAG-System aufzubauen, welches die Informationen direkt aus dem Internet bezieht? (somit verlässt man sich nicht nur auf die Trainingsdaten – kann dies ein Lösungsansatz gegen Halluzinationen sein?)
  • Wird das Problem von Fehlinformationen durch das Skalieren der LLM behoben?
  • Welche Entwicklungen hatten bis jetzt den grössten Einfluss auf die Fehlerquote?
  • Welche Massnahmen werden aktuell entwickelt oder erforscht, um Halluzinationen weiter zu verhindern?
  • Was können private Anwender von ChatBots machen, um Halluzinationen zu verhindern?
  • Wie gross schätzen Sie die Auswirkung von gutem Prompt-Engineering?
  • Bringt es einen messbaren Mehrwert, wenn das Modell seine eigene Antwort in einem zweiten Schritt überprüft?
  • Denken Sie, dass wir bei der «Next-Token-Prediction» an ein Limit stossen werden?
  • Sollten wir unsere Zeit in die Forschung für neue Algorithmen investieren, welche einen anderen Ansatz verfolgen?

Damit wir Sie kurz in unserer Arbeit vorstellen können, würden wir uns zusätzlich über einen kurzen Steckbrief freuen. Besonders die Frage inwiefern Sie mit LLM’s zu tun haben.

Wir danken Ihnen für Ihre Bereitschaft und sind gespannt auf Ihre Antworten.

Freundliche Grüsse
Mihailo Milosevic
Isaiah Dias
Linus Fankhauser
Fabio Flückiger

X: Lösungsansatz

Lieber Fabio

Danke für deine Fragestellungen. Diese Fragen sind sinnvoll und gut formuliert. Sie sind aber auch knifflig und haben nicht unbedingt eindeutige Antworten.

Die Beantwortung dieser Fragen ist aber eigentlich der Inhalt eurer Projektarbeit und nicht meine Aufgabe, sondern eure 😊.

Ich schlage euch vor, ihr sucht nach ersten Antworten mit ChatGPT oder Copilot usw, und auch nach einer Antwort für das Gesamt Thema eurer Semesterarbeit à danach jede Frage vielleicht präziser stellen und nach Beispielen fragen.

Ebenfalls könnt ihr nach Büchern oder Publikationen suchen eurem Thema: ein guter Ort ist das Literatursuchprogramm elicit.com, oder perplexity.ai

Am Schluss erstellt ihr eine Liste mit den 5-10 wichtigsten Faktoren, welche die Projektfrage beantworten "Wie kann bei Künstlichen Intelligenzen die Auswirkung von Falschinformationen technisch eingeschränkt werden?“

Zu jedem Faktor Hinweise, was zu tun ist, und ein Beispiel.

Gerne hier meine erste Anfrage bei Perplexity  ( gute Übersicht meines Erachtens)

https://www.perplexity.ai/search/wie-kann-bei-kunstlichen-intel-3EBYzBdbSuS1x.QWbQjjvg#0

und ChatGPT

https://chatgpt.com/share/69678a57-489c-8006-8b25-d7c0fd8f4eb2

Mit freundlichem Gruss

X

Wir wissen nicht, warum die Person die Fragen nicht selbständig beantwortet hat. Vielleicht gab es ein Missverständnis und er dachte er würde durch das Beantworten der Frage unsere Recherche übernehmen. Wobei wir viel mehr seine persönliche Meinung erfahren wollten. Möglicherweise waren unsere Fragen auch zu simpel und er wollte uns auffordern, uns noch tiefer ins Thema einzulesen. Eine weitere Option besteht darin, dass wir mit unserer Recherche in ein Gebiet vorgestossen sind, in welchem es selbst für Fachpersonen schwer ist Aussagen zu treffen. Entsprechend seiner Empfehlung haben wir die Interview-Fragen mit einer künstlichen Intelligenz erarbeitet.

Nun haben wir Fragen, über Fehlinformationen und Halluzinationen innerhalb künstlicher Intelligenz, mit einer künstlichen Intelligenz beantworten lassen. Aufgrund dieser Ironie haben wir uns entschlossen, weiter nach einem möglichen Interview Ausschau zu halten. Im erweiterten Bekanntenkreis stiessen wir auf Mikaela, gelehrte Informatikerin Applikationsentwicklung EFZ und im letzten Semester des Studienganges "BSc Data Science & Artificial Intelligence" an der Fachhochschule Nordwestschweiz (FHNW). Neben dem Studium arbeitet Mikaela aktuell an einem generativen KI-Projekt, welches mit Transformer-ähnlichen Strukturen (TRELLIS) arbeitet. Das Ziel dieses Projektes ist es 3D Rekonstruktion aus 2D Bildern zu erstellen. Weitere Informationen über ihr Werdegang können in ihrem Portfolio gefunden werden.

Interview Fragen und Antworten

Warum treten Halluzinationen auf?

KI-generierte Antwort

Halluzinationen entstehen primär dadurch, dass Transformer als reine Vorhersagesysteme für das nächste Textelement konzipiert sind und über kein internes Verständnis von Wahrheit oder Fakten verfügen. Da diese Modelle darauf trainiert werden, menschliche Sprache und Schreibstile zu imitieren, priorisieren sie oft die Plausibilität und den sprachlichen Fluss gegenüber der faktischen Korrektheit. Problemstellen liegen insbesondere in Wissenslücken innerhalb der Trainingsdaten sowie in einer mangelhaften Kalibrierung, die dazu führt, dass das Modell bei Unsicherheit oder fehlender Evidenz dennoch eine Antwort generiert. Zusätzliche Fehlerquellen ergeben sich durch Abweichungen zwischen dem Trainingszeitpunkt und der aktuellen Anfrage sowie durch Ungenauigkeiten im Abrufprozess externer Informationen, was insgesamt zu einer Diskrepanz zwischen statistischer Wahrscheinlichkeit und realer Faktenlage führt.

Quelle: https://gemini.google.com/share/16e1eedaea84

Antwort von Mikaela

Halluzinationen können aus vielen Quellen entstehen, beispielsweise durch Overfitting oder Underfitting, je nachdem, wie die Trainingsdaten und/oder die Struktur des Transformers/LLMs sind oder wie einige Prozesse während der Datenaufbereitung stattfanden. Ein leicht illustrierbares Beispiel, das in letzter Zeit viel Aufmerksamkeit erhalten hat, ist die Frage „Is there a seahorse emoji?” bei ChatGPT. Da ChatGPT auf Next-Word-Prediction trainiert wurde und kein Seahorse-Emoji kennt, fiel es aufgrund interner Gewichte in einen langen Loop, in dem es sich dachte: „Ja, ich kenne das Seahorse-Emoji”, ein falsches Emoji postete, sich dann entschuldigte und wieder von vorne begann.

Ist es möglich, ein RAG-System aufzubauen, welches die Informationen direkt aus dem Internet bezieht?

KI-generierte Antwort

Technisch ist dies absolut möglich, indem man Sprachmodelle mit einer Live-Suche kombiniert und die gefundenen Dokumente direkt als Kontext für die Antwortgenerierung nutzt. Dieses Verfahren hilft oft effektiv gegen Halluzinationen, da die Aussagen auf aktuell recherchierten und verifizierten Fakten basieren statt rein auf dem Modellwissen. Der Erfolg hängt jedoch massgeblich von der Qualität der Quellen und der Abrufmechanik ab, da ungenaue Suchergebnisse sonst lediglich zu neuen Fehlern führen würden.

Quelle: https://gemini.google.com/share/473dfcb65adb

Antwort von Mikaela

Ja, es wäre möglich, aber es ist eine schreckliche Idee, die die „Halluzinationen” nur verschlimmert. Wenn wir Live-Daten aus dem Internet beziehen, beziehen wir unglaublich viele unverifizierte Informationen, oft auch Informationen, die sich direkt widersprechen. Wenn wir wahllos Daten aus dem Internet beziehen, fügen wir unserem Datensatz nur mehr Rauschen hinzu. Und auch wenn diese Daten eine Ahnung von aktuellen Themen haben, sind sie wahrscheinlich inkorrekt und somit ein grosses Risiko für Firmen, die LLMs anbieten. Wenn wir rein hypothetisch ein System aufbauen, das Daten automatisch korrekt und gut recherchiert bezieht, wäre dies möglich und könnte Halluzinationen verringern. Das rigorose Überprüfen der aktuell schon vorhandenen Daten wäre jedoch ein gleichwertiger, wenn nicht sogar besserer Ansatz, um Halluzinationen zu verhindern. Oft sind aktuelle Themen auch noch entwickelnde Geschichten bei welchen Halbwahrheiten und Rumore Vortritt vor Fakten nehmen.

Wird das Problem von Fehlinformationen durch das Skalieren der LLM behoben?

KI-generierte Antwort

Das reine Skalieren von Modellen behebt das Problem der Fehlinformation nicht zuverlässig. Zwar verbessern sich mit zunehmender Grösse viele Fähigkeiten und die Fehlerrate sinkt, doch die Wahrhaftigkeit steigt dabei nicht automatisch linear an. Grössere Modelle sind folglich nicht zwingend ehrlicher, weshalb gezielte Anpassungen wie Instruction-Tuning oft entscheidender sind als reine Modellgrösse.

Quelle: https://gemini.google.com/share/41a74bcf8c8e

Antwort von Mikaela

Das Problem lässt sich durch Skalierung und mehr Informationen reduzieren. Mehr Verständnis dieser Informationen führt natürlich zu einer Verminderung solcher Fehlinformationen. Eine vollständige Behebung wird jedoch nie möglich sein, solange Fehlinformationen in der Welt existieren – was sie vorhersehbar immer tun werden.

Welche Entwicklungen hatten bis jetzt den grössten Einfluss auf die Fehlerquote?

KI-generierte Antwort

Den grössten Einfluss hatten effizientere Trainingsmethoden zur Balance von Daten und Rechenleistung sowie die gezielte Ausrichtung der Modelle durch menschliches Feedback. Ergänzend dazu reduzierten der Zugriff auf externe Quellen zur Faktenprüfung und spezielle Eingabetechniken für logische Schlussfolgerungen die Fehlerraten erheblich, wobei erst präzisere Messverfahren eine solch gezielte Optimierung der Wahrheitstreue möglich machten.

Quelle: https://gemini.google.com/share/f1577ac31a56

Antwort von Mikaela

Es gibt viele verschiedene Ansätze, die der Entwicklung von LLMs helfen können. Human Feedback ist immer ein starker Kandidat für Verbesserungen. Auch generelle Erläuterungen bei schwierigen Themen, bei denen sich KI nicht sicher ist und dies auch klarmacht, sind hilfreich. Jedoch bin ich nicht intim beschäftigt mit der Historie der Entwicklung von Large Language Modellen, es steht sicher noch mehr Online dazu als ich hier vermittle.

Welche Massnahmen werden aktuell entwickelt oder erforscht, um Halluzinationen weiter zu verhindern?

KI-generierte Antwort

Die Forschung konzentriert sich aktuell stark auf die Weiterentwicklung von Retrieval-Augmented Generation, indem iterative Korrekturprozesse und dynamische Suchverfahren integriert werden, die Informationen erst bei explizitem Bedarf abrufen. Parallel dazu werden Mechanismen etabliert, die Modelle dazu zwingen, ihre eigenen Aussagen durch Verifikationsketten zu prüfen, externe Werkzeuge zur inhaltlichen Entlastung zu nutzen oder Antworten bei Unsicherheit und fehlenden Belegen gänzlich zu verweigern.

Quelle: https://gemini.google.com/share/37a5f038ca2f

Antwort von Mikaela

Auch hier bin ich keine Expertin, mir ist jedoch bewusst, dass es seit einiger Zeit ein erhöhtes Interesse an der Erklärbarkeit von KI gibt, insbesondere in LLMs. Es geht darum, zu untersuchen, was genau in den verschiedenen Gewichten und Vorurteilen eines Layers abläuft und wie allein schon die Einbettungen auf einer intimen und intuitiven Ebene erklärt werden können ist noch ein entwickelndes Thema, welches uns auch hilft exakte Massnahmen zu treffen um LLMs in diesen Ansätzen zu verbessern.

Was können private Anwender von ChatBots machen, um Halluzinationen zu verhindern?

KI-generierte Antwort

Private Anwender können Halluzinationen effektiv entgegenwirken, indem sie konsequent Belege wie Zitate oder Links einfordern und bevorzugt Modi mit aktiver Internetrecherche nutzen. Zudem empfiehlt es sich, das Modell anzuweisen, bei Unsicherheit zu schweigen, sowie Antworten durch mehrfache Abfragen auf ihre Konsistenz zu prüfen und komplexe Fragen in einzeln verifizierbare Fakten zu zerlegen.

Quelle: https://gemini.google.com/share/febe989dc02a

Antwort von Mikaela

Exaktes und einheitliches prompten, es gibt viele Arten wie man LLMs prompten kann um mehr Informationen zu gewinnen über den Generierungsprozess. Ebenfalls haben LLMs einen limitierten Kontext, somit sollte man Vorsichtig sein viele Sachen auf einmal zu Fragen. Ich kann empfehlen oft nach Quellen von Antworten zu fragen und diese zu überprüfen und jeweils nur 1 Frage pro Nachricht zu senden.

Wie gross schätzen Sie die Auswirkung von gutem Prompt-Engineering?

KI-generierte Antwort

Die Auswirkung ist empirisch substanziell, jedoch stark von der jeweiligen Aufgabe abhängig. Zwar können gezielte Strukturierung und Methoden wie Chain-of-Thought die Fehlerquoten massgeblich senken und das Reasoning verbessern, sie ersetzen jedoch kein fundiertes Grounding.

Quelle: https://gemini.google.com/share/f881278bfb1b

Antwort von Mikaela

Prompt-Engineering kann dem Output massiv helfen das zu kriegen was man erwartet, mehr Kontext verhilft Sprachmodellen exaktere Quellen zu beziehen und Outputs nach diesen Quellen zu produzieren.

Bringt es einen messbaren Mehrwert, wenn das Modell seine eigene Antwort in einem zweiten Schritt überprüft?

KI-generierte Antwort

Eine Überprüfung im zweiten Schritt bietet oft messbaren Mehrwert, indem sie durch iterative Feedbackschlaufen oder das Abwägen mehrerer Lösungswege zu robusteren Antworten führt und Halluzinationen reduziert.

Dieser Nutzen ist allerdings nicht garantiert, da die Zuverlässigkeit der Selbstkorrektur stark vom Setup sowie dem jeweiligen Evaluationsmass abhängt und negative Befunde zeigen, dass Modelle ihre Antworten nicht in jedem Kontext erfolgreich verbessern.

Quelle: https://gemini.google.com/share/bc31629f968c

Antwort von Mikaela

Nein, ein und dasselbe Modell würde nur seine eigenen Verzerrungen und Fehler verstärken. Auch wenn man ein anderes Modell nützt hilft man hier nur wenig, das kein Modell an sich eine Wahrheitsbasis besitzt.

Denken Sie, dass wir bei der «Next-Token-Prediction» an ein Limit stossen werden?

KI-generierte Antwort

Zwar skaliert Next-Token-Prediction gemäss den bekannten Gesetzen erstaunlich weit und profitiert stetig von mehr Rechenleistung, doch stossen wir bei Anforderungen wie Wahrheitstreue, langfristiger Planung und Werkzeugnutzung an qualitative Grenzen. Da reine Vorhersagemodelle keine Faktenreue garantieren, liegt der Fortschritt nicht allein in der weiteren Skalierung, sondern in der Ergänzung durch Mechanismen wie Retrieval und Verifikation, um diese strukturellen Lücken zu schliessen.

Quelle: https://gemini.google.com/share/ea56ae772f1e

Antwort von Mikaela

Das hängt davon ab, was hier mit dem Limit von genau gemeint ist. Natürlich ist eine Next-Token-Prediction nicht für Anwendungsfälle ausserhalb der Sprache optimal. Mit Transformer-Modellen, die viele verschiedene Architekturen nutzen, können wir jedoch Modelle bauen, die für verschiedene Aufgaben viel besser geeignet sind. Aktuell sind wir ja auch schon weiter als nur „Next-Token-Prediction“ und moderne Architekturen arbeiten mit verschiedenen Tasks zur Optimierung.

Sollten wir unsere Zeit in die Forschung für neue Algorithmen investieren, welche einen anderen Ansatz verfolgen?

KI-generierte Antwort

Strategisch gesehen deutet die aktuelle Evidenz darauf hin, dass wir weniger in isolierte Alternativen, sondern in hybride Ansätze investieren sollten. Besonders erfolgversprechend ist die Kombination aus Generierung, Recherche und Verifikation sowie der Einsatz von Sprachmodellen zur Steuerung externer Werkzeuge, um durch systematisches Verständnis bestehende Forschungslücken effektiv zu schliessen.

Quelle: https://gemini.google.com/share/b0340b616781

Antwort von Mikaela

Ja, grundsätzlich schon. Es gibt noch sehr viel Arbeit im Umfeld von KI und insbesondere von Transformer-Modellen in allen möglichen Richtungen: Performance, Rechenzeit, Erklärbarkeit, Stromverbrauch usw. Wie schon zuvor sollten wir uns weiterhin bemühen, neue Architekturen und Modellansätze zu entwickeln.

Auswertung des Interviews

Die beiden Interviews, sowohl mit Mikaela wie auch mit der generativen KI, ermöglichen uns nun die Themen aus zwei unterschiedlichen Blickwinkeln zu analysieren. Während Gemini die Fragen in den meisten Fällen sehr allgemeingültig beantwortete, hatte Mikaela eine klarere Meinung zu den Themen und distanzierte sich auch offiziell von Fragen, bei welchen sie nicht ausreichend Fakten hatte.

Im Interview wird klar, dass private Anwender am meisten beeinflussen können, indem sie durch Prompt Engineering ihre Prompts verbessern und nach Quellen fragen, welche sie anschliessend unabhängig von dem LLM überprüfen. Auch die korrekte Verwendung von verschiedenen Chats und der Online-Suchfunktion wird erwähnt.

Aus den Antworten ist ersichtlich, dass es bei der Entwicklung von LLM drei unterschiedliche Bereiche gibt, welche zur Verhinderung von Fehlinformation nützlich sein können. Es kann die LLM-Architektur angepasst werden, beim Training des LLM anders vorgegangen werden oder Umsystemen verwendet werden. Laut Gemini stösst auch die "Next-Token-Prediction" irgendwann an ein Limit, da die Vorhersage von nächsten Worten keine Faktenchecks beinhaltet. Gerade hier erwähnt Mikaela, dass wir schon viel weiter sind als diese Vorhersage. Zum Beispiel RLHF war im Training eine sehr effektive Variante, um Halluzinationen weiter einzudämmen. Zusätzlich erwähnt Mikaela, dass auch intern im Aufbau eines Transformers schon viel angepasst wurde. Durch das Verschieben oder Neuanordnen von Komponenten können andere Ziele erreicht werden. Umsysteme bieten zwar einen grossen Mehrwert, verschieben aber das Problem meist nur auf einen anderen Punkt. Bei RAG hat man beispielsweise das Problem, dass bei steigender Grösse nicht mehr alle Quellen verifiziert, werden können.

Zusätzlich ist uns beim Auswerten des Interviews noch etwas Weiteres aufgefallen. Gemini antwortete, dass aktuell Mechanismen entwickelt werden, damit LLM Antworten bei fehlenden Quellen oder Unsicherheiten verweigern können. Mikaela hat sich bei zwei Fragen distanziert und mit Aussagen wie "bin ich keine Expertin" klargemacht, dass die Fakten nicht vollständig sind oder sie etwas unsicher ist.

Das wäre für LLM sicherlich eine der grössten Entwicklungen gegen Halluzinationen. Wenn eine LLM Situationen erkennt, in welchen zu wenig Belege vorhanden sind, und diese anschliessend markiert, hätten die Benutzer einen ersten Anhaltspunkt, wie wahrheitsgetreu die Antwort sein kann.

Eine grosse Erkenntnis aus dem Mailverkehr mit der Person, von der Fachhochschule, und dem Interview war, dass unsere Fragestellung immer noch zu allgemein gehalten war. Daher passten wir diese noch während der Arbeit an.

Fazit

Am Anfang dieser Arbeit haben wir uns eine übergeordnete Fragestellung überlegt und davon mehrere untergeordnete Fragen abgeleitet. Dadurch können wir nun die übergeordnete Fragestellung "Inwiefern führen die mathematischen Grundlagen von Large Language Models zwangsläufig zu Halluzinationen welche Gegenmassnahmen sind wirksam?" beantworten.

Wie funktioniert ein Large Language Model mathematisch?

Damit wir das fundamentale Verständnis für LLMs erhielten, haben wir zuerst erarbeitet, wie ein LLM mathematisch aufgebaut ist. Es gibt viele verschiedene LLM-Architekturen. Während der Arbeit haben wir die Transformer-Architektur weiter angeschaut. Bei Transformern werden Wörter, vom Input, zuerst in Vektoren umgewandelt. Danach durchlaufen diese Vektoren die Attention. Innerhalb der Attention wird, mithilfe von mehreren Matrixmultiplikationen, Skalar Berechnungen und Softmax Funktionen, dem LLM ermöglicht den Kontext von Worten zu verstehen. Im darauffolgenden MLP, wird ein neurales Netzwerk verwendet, welches das Speichern von Informationen innerhalb des LLM ermöglicht. Auch hier werden Matrixmultiplikationen, Vektor Rechnungen und eine Funktion wie beispielsweise ReLU verwendet. Nach meheren Wiederholungen, der Attention und des MLP, kann das LLM angeben, welches Wort als nächstes besten auf den Gegebenen Text passt.

Aus welchen Gründen halluzinieren LLMs?

Erst während der Recherche fürs Thema wurde uns bewusst, dass die Architektur der aktuellen AI zwangsläufig zu Halluzinationen führt. Dies ist kein Fehler in der Software, sondern ein Teil des fundamentalen Prinzips, der Next-Token-Prediction. Es priorisiert eine plausibel klingende Antwort über die faktisch korrekte. Zudem hat das LLM kein "Wissen", es hat lediglich Milliarden von Parametern, die dieses "Wissen" beinhalten. Das führt immer dazu, dass ein gewisser Teil falsch sein musss, denn man kann nicht alle Informationen der Welt in einigen hundert Gigabytes ohne Verlust abspeichern.

Im Embedding können ähnliche Vektore etwas essenziell anderes bedeutet. Falls das LLM den falschen Vektor verwendet kann dadurch die komplette Generation beeinlusst werden. Sobald eine Fehlinformation, zum Beispiel durch das Prompt des Benutzers, in die Attention gelangt, wird die Attention darauf aufbauen. Dies führt dazu, dass die Antwort deutlich von der Wahrheit abweichen kann.

Unsere Recherche stützen wir zusätzlich mit einem Interview. Grundsätzlich überschnitten sich die Antworten des Interviews mit unserer Recherche. Es gab ein paar kleine neue Erkenntnisse, so zum Beispiel, das aktuell daran gearbeitet wird, die einzelnen Parameter eines LLM besser zu verstehen.

Welche Möglichkeiten gibt es, um Halluzinationen in LLMs zu vermindern?

Wir haben folgende mögliche Ansätze gefunden, um Halluzinationen innerhalb von LLMs zu reduzieren. Eine wichtige Erkenntnis ist, dass Next-Token-Prediction niemals komplett fehlerfrei werden wird. Mithilfe von diesen Möglichkeiten können die Halluzinationen jedoch weiter eingegrenzt werden. Sowohl private Anwender wie auch Entwickler können hier einen Beitrag leisten. Benutzer können am meisten Unterschied beim Prompt Engineering erreichen. Entwickler können mit Umsystemen, Architektur-Anpassungen und Trainingsprozess anpassungen gegen Halluzinationen vorgehen. Im Rahmen der Arbeit haben wir eine Website mit Tipps erstellt: f3o.ch/vorschlaege/. Damit wollen wir insbesondere Anwendern aufzeigen, was sie unternehmen können, um Falschinformationen zu verhindern.

Gesamtfazit

Wir möchten mit dieser Arbeit erreichen, dass Anwender von LLM und KI sich der Fehlinformationen bewusst sind. Heutzutage ist die Verwendung von generativen Tools eine grosse Chance, um unsere Produktivität zu fördern. Jedoch können, wie bereits erwähnt, Antworten überzeugend sein, aber aus Fehlinformationen bestehen. Selbst wenn die aktuelle Transformer-Architektur perfekt implementiert wird, entstehen durch die Next-Token-Prediction Fehler. Auch Quellenangaben von künstlichen Intelligenzen sind davon betroffen und müssen unabhängig überprüft werden. Neben dem Überprüfen der Fakten muss, aus unserer Sicht, das Wissen vermittelt werden, wie ein LLM korrekt gepromptet wird. Hier haben wir versucht mit unserer Webseite einen ersten Schritt zu gehen. Obwohl Agent-Architekturen auch durch Anwender erstellt werden können, finden wir das besonders Unternehmen noch mehr in diesem Gebiet investieren können. Gerade weil Transformer immer Halluzinationen haben werden, sind Agent-Architekturen ideal, um die Halluzinationen abzufangen. Zwar haben wir im Interview erfahren, dass RLHF in der Vergangenheit am Meisten gegen Fehlinformationen geholfen hat. Aufgrund unserer Recherche würden wir aber weniger darin investieren, da Transformer, selbst beim perfekten Training, Fehler machen werden. Interessant wäre aus unserer Sicht auch das erforschen und entwicklen von neuen LLM-Architekturen, wobei dies Zeit- und Ressourcenintensiv ist.

Aus unserer Sicht ist KI ein geniales Tool für kreative Sachen oder erste Entwürfe eines Produktes. Aktuell empfehlen wir für grössere Arbeiten, gerade bei Recherchen, KI nur sehr gezielt einzusetzen und Informationen immer zu überprüfen.