Perplexity präsentiert neue Text-Embedding-Modelle
Die KI-Suchmaschine Perplexity hat zwei innovative Text-Embedding-Modelle vorgestellt, die mit einem deutlich reduzierten Speicherbedarf konkurrieren oder sogar die Modelle von Google und Alibaba übertreffen sollen. Beide Modelle sind als Open Source verfügbar.
Technische Herausforderungen für KI-Suchmaschinen
KI-Suchmaschinen stehen vor einer grundlegenden technischen Herausforderung: Bevor ein Sprachmodell in der Lage ist, eine Antwort zu generieren, müssen aus einer Vielzahl von Webseiten die relevantesten Dokumente ausgewählt werden. Dieser erste Filterprozess wird von sogenannten Embedding-Modellen durchgeführt.
Diese Modelle wandeln Suchanfragen und Dokumente in numerische Vektoren um, wodurch die semantische Ähnlichkeit mathematisch erfasst werden kann. Die Qualität dieser Embeddings ist entscheidend dafür, welche Dokumente an nachgelagerte Ranking-Modelle und Sprachmodelle weitergeleitet werden. Ein Beispiel für die Fortschritte in diesem Bereich ist die Agentic Vision, die sich jetzt eigenen Code schreibt, um Bilder besser zu verstehen. Auch die Erfolge von Deepseek bei der Mathematik-Olympiade zeigen, wie leistungsfähig KI-Modelle sein können.
Ein weiteres wichtiges Thema sind die Kontext-Dateien für KI-Agenten, die oft gut gemeint sind, aber selten hilfreich. Diese Aspekte sind entscheidend für die Weiterentwicklung von KI-Suchmaschinen.
„`
Bildquelle: ai-generated-gemini