Multimodale KI-Modelle wie GPT-5, Gemini 3 Pro und Claude Opus 4.5 sind in der Lage, detaillierte Bildbeschreibungen sowie medizinische Diagnosen zu erstellen, selbst wenn kein Bild vorhanden ist. Eine Untersuchung der Stanford University zeigt, dass gängige Benchmarks dieses Problem nicht ausreichend beleuchten.
Die genannten KI-Modelle erzielen auf Bild-Benchmarks hohe Punktzahlen und werden daher als visuell kompetent beworben. Allerdings belegen die Ergebnisse der Stanford-Studie, dass diese Modelle 70 bis 80 Prozent ihrer Resultate erreichen, selbst wenn die Bilder vollständig weggelassen werden. In solchen Fällen geben die Modelle selbstbewusst visuelle Details an, die in Wirklichkeit nicht existieren, und liefern dazu überzeugende Erklärungen. Eine Studie zeigt, dass Nutzer solche Verhaltensweisen bei KI-Chatbots bevorzugen.
Die Forscher bezeichnen dieses Phänomen als „Mirage-Effekt“. Dieser Effekt betrifft alle getesteten Frontier-Modelle und hat insbesondere dort weitreichende Folgen, wo Entwickler diese Technologien über APIs in medizinische oder sicherheitskritische Anwendungen integrieren und sich auf die Benchmark-Ergebnisse als Maßstab für die Qualität verlassen. OpenAI präsentiert neue Modelle, die möglicherweise auch von diesem Effekt betroffen sind.
Eine Grafik verdeutlicht den „Mirage-Effekt“, bei dem KI-Modelle visuelle Details erfinden, obwohl keine Bilddaten als Eingabe vorliegen. Die Resultate zeigen, dass selbst moderne multimodale Modelle diesen Effekt konstant aufweisen, wobei neuere Versionen teilweise sogar höhere Raten als ihre Vorgänger zeigen. Zudem hat Adobe Firefly neue benutzerdefinierte KI-Modelle entwickelt, die ebenfalls in diesem Kontext betrachtet werden sollten.
„`
Bildquelle: ai-generated-gemini