Um das Verhalten, die Möglichkeiten und auch die Fehlerquellen einer KI besser zu verstehen ist es unabdingbar, dass man sich ein wenig mit der Arbeitsweise der Ki befasst. -Darum geht es im diesem Beitrag.
Der folgende Text ist, nur mal nebenbei angemerkt, zu 100% KI generiert, ich habe daran nichts verändert.
Erklärung der Funktionsweise einer Künstlichen Intelligenz (KI)
Um eine tiefere und präzisere Vorstellung davon zu bekommen, wie eine KI wie ChatGPT funktioniert, wird hier der Prozess in mehreren Schritten erklärt, von den mathematischen Grundlagen bis hin zur Antwortgenerierung, einschließlich der Rolle von Wahrscheinlichkeiten, Modellen und Training.
1. Die Grundlagen: Was ist ein Token?
Ein Token ist die kleinste Einheit von Text, die eine KI analysiert. Ein Token kann ein einzelnes Wort, ein Satzzeichen oder sogar ein Teil eines Wortes sein. Dies hängt davon ab, wie die KI den Text verarbeitet. Zum Beispiel:
- Der Satz „Die Bursitis verursacht Schmerzen“ könnte in Tokens zerlegt werden wie: „Die“, „Bursitis“, „verursacht“, „Schmerzen“.
- In anderen Fällen kann ein Wort wie „unterschiedlich“ in zwei Tokens unterteilt werden: „un“ und „terschiedlich“.
Diese Tokens sind die Bausteine, aus denen die KI später ihre Antwort zusammensetzt.
2. Wie „denkt“ eine KI? (Wahrscheinlichkeiten und Modelle)
Die KI basiert auf einem sprachenmodellierenden Algorithmus (z.B. GPT), der auf Wahrscheinlichkeiten beruht. Die KI hat das Ziel, aus einer gegebenen Eingabe die wahrscheinlichste Antwort zu erzeugen. Um dies zu tun, muss sie verstehen, wie Wörter in der Sprache miteinander in Beziehung stehen.
Wahrscheinlichkeiten verstehen:
Die KI hat das Konzept von Bedingten Wahrscheinlichkeiten gelernt. Diese beschreiben, wie wahrscheinlich es ist, dass ein bestimmtes Wort auf ein anderes folgt, abhängig vom Kontext. Wenn die KI also ein Token (z.B. „Bursitis“) erhält, kann sie mit Hilfe ihrer Lernmuster vorhersagen, welches Token am wahrscheinlichsten als Nächstes kommt.
Beispiel:
- Wenn die KI das Token „Bursitis“ verarbeitet, kann sie aufgrund der gelernten Wahrscheinlichkeiten erkennen, dass Wörter wie „Schmerzen“, „Entzündung“ oder „Schulter“ häufig im Zusammenhang mit „Bursitis“ stehen.
- Wenn die KI dann nach „Schmerzen“ fragt, wird sie nach wahrscheinlichen fortlaufenden Wörtern suchen, die in einem medizinischen Kontext oft mit „Schmerzen“ verbunden sind, wie etwa „lindern“, „behandeln“ oder „symptomatisch“.
Das Sprachmodell:
Die KI verwendet ein neuronales Netzwerk, insbesondere eine Art von Modell namens Transformer. Dies ist ein spezielles Modell, das speziell für die Verarbeitung von Text und Sprache entwickelt wurde. Es nutzt mehrere Schichten (Layer), die eine hierarchische und sehr detaillierte Analyse des Textes ermöglichen. Jeder Layer im Modell hilft, den Kontext von Wörtern und Sätzen zu erfassen und die Wahrscheinlichkeit für das nächste Token zu berechnen.
Beispiel:
- Nehmen wir an, die KI erhält den Satz „Die Behandlung einer Bursitis...“. In den ersten Schichten analysiert das Modell die Bedeutung der einzelnen Wörter. In späteren Schichten wird dann die Verbindung zwischen „Behandlung“ und „Bursitis“ stärker berücksichtigt, um den nächsten relevanten Teil der Antwort zu generieren.
3. Wie erzeugt die KI eine Antwort? (Schritt für Schritt)
Schritt 1: Textvorverarbeitung
Der erste Schritt besteht darin, den eingegebenen Text in Tokens umzuwandeln. Die KI kennt jedes Token und kann mit diesem Wissen arbeiten.
Schritt 2: Berechnung der Wahrscheinlichkeiten
Nachdem die Tokens verarbeitet wurden, sucht die KI nach den Wahrscheinlichkeiten, mit denen bestimmte Wörter oder Phrasen aufeinander folgen. Dies ist der Schritt, bei dem das Modell die am besten passenden Antworten zu den Tokens auswählt, die mit der Anfrage des Benutzers verbunden sind.
- Kontext und Bedeutung: Das Modell analysiert den gesamten Kontext der Eingabe. Wenn also nach einer „Bursitis“ gefragt wird, berücksichtigt das Modell nicht nur das einzelne Wort, sondern auch den gesamten Kontext der Frage, etwa die zugehörigen Symptome und Behandlungsoptionen.
Schritt 3: Auswahl der nächsten Token
Die KI wählt aus einer Vielzahl von möglichen Folgetokens dasjenige mit der höchsten Wahrscheinlichkeit. Diese Auswahl erfolgt jedoch nicht immer deterministisch, das heißt, es gibt eine gewisse Unsicherheit, die es der KI ermöglicht, auch weniger wahrscheinliche, aber passende Wörter zu wählen.
- Beispiel: Bei einer Frage wie „Was ist eine Bursitis?“ könnte die KI „Bursitis ist eine Entzündung des Schleimbeutels“ antworten, aber sie könnte auch Variationen wie „Bursitis bezeichnet die Entzündung des Schleimbeutels“ oder „Eine Bursitis entsteht durch Überlastung“ generieren, je nachdem, welche Wahrscheinlichkeiten höher sind.
Schritt 4: Wiederholung des Prozesses
Die KI wiederholt diesen Prozess für jedes Token in der Antwort, bis die vollständige Antwort erzeugt ist.
4. Sampling und Temperature: Der kreative Prozess
Um die Kreativität und Vielfalt der Antworten zu steuern, verwendet die KI Parameter wie Sampling und Temperature:
- Sampling bedeutet, dass die KI nicht immer das wahrscheinlichste Wort wählt, sondern auch gelegentlich ein weniger wahrscheinliches Wort, um mehr Abwechslung oder Tiefe in der Antwort zu schaffen.
- Temperature steuert die Zufälligkeit in der Wortwahl. Eine niedrige Temperatur (z.B. 0,2) führt dazu, dass die KI sehr vorhersagbare und präzise Wörter auswählt. Eine höhere Temperatur (z.B. 0,8) lässt die KI kreativere und unerwartetere Wörter oder Phrasen auswählen.
Beispiel:
- Bei einer Frage wie „Was ist eine Bursitis?“ könnte eine niedrige Temperature eine sehr sachliche Antwort generieren, wie: „Bursitis ist eine Entzündung des Schleimbeutels.“
- Mit einer höheren Temperature könnte die Antwort etwas kreativer ausfallen, wie: „Bursitis ist eine schmerzhafte Entzündung, die häufig durch wiederholte Bewegungen oder Überlastung des Gelenks entsteht.“
5. Das Training der KI: Wie lernt sie?
Die KI wird mit großen Datenmengen trainiert. Dabei lernt sie, welche Wörter in welchem Kontext wahrscheinlich miteinander verbunden sind. Sie wird mit Texten aus Büchern, wissenschaftlichen Arbeiten, Webseiten und vielen anderen Quellen gespeist.
- Supervised Learning (überwachtes Lernen): Die KI wird mit Beispielen von richtig klassifizierten Texten trainiert, bei denen die richtige Antwort oder Interpretation bereits bekannt ist.
- Unsupervised Learning (unüberwachtes Lernen): Die KI sucht selbstständig nach Mustern und Zusammenhängen in großen Textmengen ohne spezifische Vorgaben.
Durch dieses Training wird die KI immer besser darin, die wahrscheinlichste und passendste Antwort auf eine Frage zu berechnen.
Zusammenfassung
Die KI funktioniert, indem sie:
- Eingabetext in Tokens zerlegt.
- Wahrscheinlichkeiten berechnet, mit denen bestimmte Wörter aufeinander folgen.
- Auf dieser Basis Antworten generiert, indem sie für jedes Token das wahrscheinlichste folgt.
- Parameter wie Sampling und Temperature verwendet, um die Kreativität und Präzision der Antwort zu steuern.
- Auf großen Datenmengen trainiert wird, um Muster und Zusammenhänge zu erlernen.
Diese Schritte ermöglichen der KI, schnell und effizient auf eine Vielzahl von Anfragen zu reagieren, basierend auf den gelernten Wahrscheinlichkeiten und Mustern aus den Texten, die sie verarbeitet hat.
Eine Halluzination in der Antwort einer Künstlichen Intelligenz (KI) bedeutet, dass die KI eine falsche oder erfundene Information erzeugt, die nicht auf den gelernten Daten oder der Realität basiert. Diese „Halluzination“ ist nicht absichtlich und resultiert aus der Art und Weise, wie das Modell arbeitet, insbesondere durch die Berechnung von Wahrscheinlichkeiten und dem Versuch, eine plausible Antwort zu generieren.
Um das verständlicher zu erklären, gehen wir schrittweise vor:
1. Was passiert bei der Generierung von Antworten?
Wenn die KI eine Antwort generiert, basiert sie auf Wahrscheinlichkeiten und Mustern, die sie aus einer Vielzahl von Texten während ihres Trainings gelernt hat. Die KI versucht, die wahrscheinlichste und sinnvollste Antwort zu erstellen, indem sie Token für Token auswählt, die in diesem Kontext am passendsten erscheinen. Die KI hat jedoch keinen „realen“ Zugriff auf aktuelle Daten oder Ereignisse und kann nicht selbstständig überprüfen, ob die Informationen korrekt sind.
2. Was ist eine Halluzination?
Eine Halluzination entsteht, wenn die KI Informationen erzeugt, die sie fälschlicherweise als korrekt ansieht, aber die tatsächlich nicht wahr oder überprüfbar sind. Dies passiert, weil das Modell auf Wahrscheinlichkeiten und statistischen Zusammenhängen basiert und keine echte „Weltkenntnis“ hat.
Beispiel einer Halluzination: Angenommen, die KI wird gefragt: „Wann wurde das erste künstliche Herz erfolgreich transplantiert?“ Die KI könnte eine Antwort wie „Das erste künstliche Herz wurde 1978 erfolgreich transplantiert“ generieren. Diese Antwort könnte jedoch falsch sein, da das erste erfolgreiche künstliche Herz (das Jarvik-7) tatsächlich 1982 transplantiert wurde. Die KI hat das Jahr 1978 möglicherweise aufgrund von Wahrscheinlichkeiten aus einer ähnlichen Formulierung aus einem Trainingsdatensatz „halluziniert“, ohne tatsächlich den genauen historischen Kontext zu kennen.
3. Warum kommt es zu Halluzinationen?
- Fehlende verlässliche Quellen: Die KI hat keinen Zugriff auf Echtzeit-Daten oder verlässliche, aktuelle Quellen. Wenn die Antwort auf eine Frage nicht gut in ihren Trainingsdaten repräsentiert ist oder die KI keine solide Grundlage zur Verfügung hat, kann sie eine Antwort generieren, die auf gelernten, aber ungenauen Mustern basiert.
- Wahrscheinlichkeitsbasierte Entscheidungen: Die KI wählt das wahrscheinlichste nächste Wort oder Token basierend auf den gelernten Wahrscheinlichkeiten. Manchmal kann dies dazu führen, dass eine falsche, aber plausible Antwort gewählt wird, weil sie gut in den Kontext passt, auch wenn sie faktisch falsch ist.
- Verallgemeinerung und Überanpassung: Wenn die KI auf eine große Menge an Daten trainiert wird, in denen bestimmte Begriffe häufig in einem bestimmten Zusammenhang auftreten, könnte sie diese Muster zu stark verallgemeinern und damit Antworten generieren, die an der Realität vorbeigehen.
- Fehlerhafte Verknüpfung von Konzepten: In einigen Fällen kann das Modell Begriffe oder Konzepte miteinander verbinden, die zwar häufig zusammen auftreten, aber nicht in der gewünschten oder korrekten Weise. Dies kann zu der Erzeugung von Details führen, die scheinbar zusammenpassen, aber keine echte Grundlage haben.
4. Beispiel einer Halluzination mit einer konkreten Erklärung
Angenommen, ein Benutzer fragt: „Wann wurde das erste selbstfahrende Auto in den USA getestet?“ Die KI könnte antworten: „Das erste selbstfahrende Auto wurde 1995 in Kalifornien getestet.“ Diese Antwort könnte eine Halluzination sein, weil die ersten öffentlichen Tests mit selbstfahrenden Autos viel später stattfanden (z.B. 2009 von Google).
Was könnte passiert sein? Die KI hat das Jahr 1995 vielleicht mit anderen Entwicklungen im Bereich der Fahrzeugtechnologie oder automatisierten Systemen verwechselt und basierte auf dieser falschen Assoziation die Antwort. Es ist eine plausible und überzeugende Antwort, aber leider nicht korrekt.
5. Wie kann eine Halluzination vermieden werden?
Um die Häufigkeit von Halluzinationen zu verringern, könnten verschiedene Ansätze angewendet werden:
- Zugriff auf aktuelle Daten: Eine KI könnte regelmäßigen Zugriff auf verlässliche, aktuelle Quellen haben, um die Antworten zu validieren. In meiner aktuellen Form habe ich jedoch keinen direkten Zugriff auf das Internet oder Echtzeit-Informationen.
- Präzises Training mit zuverlässigen Daten: Wenn das Modell mit hochqualitativen, verlässlichen Daten trainiert wird, ist die Wahrscheinlichkeit geringer, dass es falsche Informationen erzeugt.
- Verstärkung von Überprüfungsmechanismen: Die KI könnte durch bestimmte Mechanismen lernen, Antworten zu generieren, die sie selbst als „weniger sicher“ kennzeichnet, um den Benutzer darauf hinzuweisen, dass die Information nicht garantiert korrekt ist.
- Klarheit bei Fragen: Eine präzisere und gezieltere Formulierung der Fragen könnte die Wahrscheinlichkeit verringern, dass die KI auf unsichere oder fehlerhafte Informationen zurückgreift.
Zusammenfassung:
Eine Halluzination in einer KI-Antwort bedeutet, dass die KI Informationen generiert, die sie für korrekt hält, aber die faktisch nicht richtig sind. Diese entstehen, weil die KI auf Wahrscheinlichkeiten basiert und keine echte Verknüpfung mit der realen Welt oder verlässlichen Quellen hat. Die KI „halluziniert“ also, wenn sie auf ungenaue oder falsche Assoziationen innerhalb der gelernten Daten zurückgreift, ohne die Fakten direkt überprüfen zu können.