Künstliche Intelligenz mit leuchtenden Neuronen und Nebel

ChatGPT wird immer „halluzinieren“: OpenAI erklärt die Grenzen und künftige Verbesserungen

OpenAI hat Einblicke in die inhärenten Grenzen von Sprachmodellen wie ChatGPT gegeben. Laut einer Analyse des Unternehmens werden diese KI-Systeme auch in Zukunft falsche Informationen generieren, sogenannte Halluzinationen. Allerdings arbeitet OpenAI daran, dass die Modelle ihre Unsicherheit besser erkennen und kommunizieren können.

Warum KI "halluziniert"

Die Kernursache für Halluzinationen liegt in der Architektur und dem Trainingsziel von Sprachmodellen. Sie sind darauf ausgelegt, das statistisch wahrscheinlichste nächste Wort vorherzusagen, nicht unbedingt die Wahrheit zu sagen. Da ihnen ein echtes Verständnis von Wahrheit fehlt, können sie falsche Aussagen genauso flüssig formulieren wie korrekte, solange sie sprachlich plausibel klingen. Dies ist in kreativen Kontexten erwünscht, birgt aber Risiken, wenn Nutzer faktische Genauigkeit erwarten.

OpenAI unterscheidet verschiedene Arten von Halluzinationen:

  • Intrinsische Halluzinationen: Diese widersprechen direkt der gestellten Anfrage.
  • Extrinsische Halluzinationen: Diese weichen vom Trainingswissen oder der Realität ab, beispielsweise durch erfundene Zitate oder falsche biografische Daten.
  • "Arbitrary-Fact"-Halluzinationen: Aussagen über Fakten, die selten oder gar nicht im Trainingsmaterial vorkamen, was zu Raten und Unsicherheit führt.

Lösungsansätze und zukünftige Entwicklungen

Um Halluzinationen einzudämmen, setzt OpenAI auf eine Kombination aus verschiedenen technischen Ansätzen. Dazu gehören:

  • Verstärkendes Lernen mit menschlichem Feedback.
  • Integration externer Werkzeuge wie Rechner oder Datenbanken.
  • Nutzung von Suchfunktionen (Retrieval-Augmented Generation).
  • Spezialisierte Subsysteme zur Faktenprüfung.

Langfristig soll eine modulare Architektur, ein "System aus Systemen", für kontrolliertere und verlässlichere Antworten sorgen.

Erkennung von Unsicherheit

Obwohl Halluzinationen nicht vollständig eliminiert werden können, arbeitet OpenAI daran, dass Modelle ihre eigene Unsicherheit erkennen und mitteilen. Zukünftige Versionen sollen signalisieren, wenn sie keine verlässliche Antwort geben können, externe Tools zur Hilfe nutzen, um Rat fragen oder die Ausgabe abbrechen. Dieses Verhalten soll menschlicher Unsicherheit ähneln, wo Menschen ebenfalls zugeben, etwas nicht zu wissen, anstatt zu raten.

Ein Beispiel für diesen Fortschritt ist die Reaktion eines Modells auf ein ungelöstes mathematisches Problem. Während frühere Versionen falsche Antworten gaben, erkannte das aktuelle Modell, dass es das Problem nicht lösen kann, und kommunizierte dies. Ähnlich verhielt es sich bei einem schwierigen Problem der Internationalen Mathematik-Olympiade. Die Verbesserungen sollen in einigen Monaten in kommerziellen Modellen verfügbar sein.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like