OpenAI revolutioniert die Art und Weise, wie Unternehmen auf interne Informationen zugreifen. Mit der neuen Funktion "Company Knowledge" wird ChatGPT zu einer leistungsstarken Suchmaschine für geschäftskritische Daten, die in Diensten wie Slack, SharePoint, Google Drive und GitHub gespeichert sind. Diese Neuerung verspricht, die Effizienz zu steigern und den Informationsfluss innerhalb von Organisationen zu optimieren.
Key Takeaways
- ChatGPT wird zur internen Suchmaschine für Unternehmensdaten.
- Unterstützt werden Datenquellen wie Slack, SharePoint, Google Drive und GitHub.
- Die Funktion basiert auf GPT-5 und soll präzise Antworten mit Quellenangaben liefern.
- Manuelle Aktivierung ist erforderlich; keine Web-Suche oder Bildgenerierung.
- Risiken wie "Workslop" und die Notwendigkeit menschlicher Prüfung bleiben bestehen.
ChatGPT als interne Suchmaschine
"Company Knowledge" ist speziell für Business-, Enterprise- und Education-Nutzer konzipiert. Die Funktion ermöglicht es ChatGPT, auf unternehmensinterne Dokumente und Daten zuzugreifen und diese zu durchsuchen. Ziel ist es, die künstliche Intelligenz als eine Art Suchmaschine für das Arbeitsumfeld zu etablieren. Laut OpenAI sollen die generierten Antworten nicht nur informativ sein, sondern auch präzise Quellenangaben enthalten, was die Nachvollziehbarkeit und Verlässlichkeit erhöhen soll. Selbst vage formulierte Fragen sollen so beantwortet werden können.
Herausforderungen und Risiken
Obwohl die Idee einer solchen Funktion vielversprechend ist, birgt die praktische Umsetzung Herausforderungen. Insbesondere die Fähigkeit von Large Language Models (LLMs), zuverlässig aus einer Vielzahl von Quellen zu zitieren und dabei präzise Informationen zu liefern, ist technisch anspruchsvoll. Es besteht das Risiko von "Workslop", also unklaren oder fehlerhaften Informationen, die bereits Kosten für Unternehmen verursachen. Studien deuten darauf hin, dass LLMs am effektivsten bei klar definierten Aufgaben oder explorativen Suchanfragen sind, bei denen es darum geht, relevante Quellen zu identifizieren. Das Zitieren bleibt eine Schwachstelle, bei der Fehler wie ungenaue Angaben oder Fehlinterpretationen auftreten können.
Kontext-Engineering und menschliche Aufsicht
Die Leistung von LLMs kann durch irrelevante Informationen in langen Kontexten beeinträchtigt werden. Daher gewinnt "Context Engineering" – die sorgfältige Auswahl, Strukturierung und Begrenzung des Kontexts – an Bedeutung. Eine zu große, zu kleine oder falsch platzierte Informationsmenge kann das Modell aus dem Tritt bringen oder zu unnötigen Kosten führen. Experten betonen die Wichtigkeit, den Kontext gezielt auszuwählen. Unternehmen, die solche Systeme einführen, müssen ihre Mitarbeiter über deren Grenzen aufklären. Menschliches Fachwissen und kritische Prüfung bleiben unerlässlich, um Fehler zu vermeiden, die durch eine übermäßige Abhängigkeit von der Technologie entstehen können. OpenAI selbst thematisiert diese Risiken in seiner Ankündigung nicht explizit.