Microsoft hat einen neuen Audio-Modus für seinen KI-Assistenten Copilot angekündigt, der auf dem fortschrittlichen Sprachmodell MAI-Voice-1 basiert. Dieses Modell ist nun in Copilot Labs verfügbar und ermöglicht die Erzeugung von KI-Stimmen, die laut Microsoft-AI-Chef Mustafa Suleyman nicht nur sprechen, sondern auch "performen" können. Die Neuerung verspricht eine deutlich natürlichere und ausdrucksstärkere Interaktion mit der künstlichen Intelligenz.
Hauptmerkmale des neuen Audio-Modus
- Fortschrittliches Sprachmodell: MAI-Voice-1 ist das erste große Sprachmodell von Microsoft, das speziell für die Erzeugung von KI-Stimmen entwickelt wurde.
- Vielseitige Stimmen und Stile: Nutzer können aus einer breiten Palette von Stimmen und Sprecharten wählen, die von klassischen Zitaten bis hin zu modernen Sportkommentaren reichen.
- Drei wählbare Modi:
- Emotive Mode: Ermöglicht eine ausdrucksstarke Wiedergabe, bei der die KI freie Textinterpretationen vornimmt.
- Story Mode: Ideal für das Erzählen von Geschichten mit mehreren Stimmen, was die Immersion erhöht.
- Scripted Mode: Bietet eine wortgetreue Wiedergabe des vorgegebenen Textes für präzise Anwendungen.
Verfügbarkeit und Ausblick
Der neue Audio-Modus ist ab sofort über Copilot Labs zugänglich. Microsofts Investition in KI-gestützte Sprachmodelle unterstreicht das Bestreben, die Benutzererfahrung mit seinen Produkten kontinuierlich zu verbessern und KI noch intuitiver und vielseitiger zu gestalten. Die Fähigkeit der KI, nicht nur zu sprechen, sondern auch zu "performen", eröffnet neue Möglichkeiten für Content-Erstellung, Bildung und interaktive Anwendungen.