Digitale Netzwerkknoten mit leuchtenden Verbindungen

Tencent revolutioniert maschinelle Übersetzung mit neuen Open-Source-Modellen

Das chinesische Technologieunternehmen Tencent hat zwei fortschrittliche Open-Source-Übersetzungsmodelle veröffentlicht, die in internationalen Vergleichen etablierte Dienste wie Google Translate übertreffen. Die Modelle, Hunyuan-MT-7B und Hunyuan-MT-Chimera-7B, erzielten bei der WMT2025, einem wichtigen Workshop für maschinelle Übersetzung, in 30 von 31 getesteten Sprachkombinationen Spitzenwerte.

Wichtige Erkenntnisse

  • Tencents neue Modelle übertreffen Google Translate und proprietäre KI-Systeme wie GPT-4.1 und Gemini 2.5 Pro in vielen Kategorien.
  • Die Modelle sind mit 7 Milliarden Parametern deutlich kleiner und ressourcenschonender als viele Konkurrenzmodelle.
  • Sie unterstützen bidirektionale Übersetzungen für 33 Sprachen, mit einem besonderen Fokus auf chinesische Minderheitensprachen.
  • Ein neuartiges, fünfstufiges Trainingsverfahren und ein Fusionsansatz beim Chimera-Modell tragen zur hohen Leistung bei.

Leistungsstarke Übersetzung für 33 Sprachen

Tencents neue KI-Systeme, Hunyuan-MT-7B und Hunyuan-MT-Chimera-7B, bieten bidirektionale Übersetzungsfähigkeiten für insgesamt 33 Sprachen. Das Spektrum reicht von weit verbreiteten Sprachen wie Chinesisch, Englisch und Japanisch bis hin zu weniger digitalisierten Sprachen wie Tschechisch, Marathi, Estnisch und Isländisch. Ein besonderer Schwerpunkt liegt auf der Übersetzung zwischen Mandarin-Chinesisch und ethnischen Minderheitensprachen Chinas, darunter Kasachisch, Uigurisch, Mongolisch und Tibetisch.

Überlegene Leistung trotz geringerer Größe

In direkten Vergleichen zeigt sich, dass die 7-Milliarden-Parameter-Modelle von Tencent etablierte Systeme deutlich übertreffen. Gegenüber Google Translate werden Verbesserungen von 15 bis 65 Prozent erzielt, je nach Sprachrichtung und Bewertungskriterium. Auch proprietäre KI-Systeme wie GPT-4.1, Claude 4 Sonnet und Gemini 2.5 Pro werden in den meisten Kategorien geschlagen. Bemerkenswert ist, dass die Tencent-Modelle trotz ihrer deutlich geringeren Größe – im Vergleich zu größeren Foundational-Modellen – vergleichbare oder sogar bessere Leistungen erzielen. Dies macht sie effizienter in Bezug auf Ressourcenbedarf und Hardwareanforderungen.

Innovative Trainingsmethoden

Tencent hat ein ausgeklügeltes, fünfstufiges Trainingsverfahren für seine Modelle entwickelt. Dieses beginnt mit dem Training auf allgemeinen Texten, gefolgt von einer Verfeinerung mit übersetzungsspezifischen Daten. Anschließend kommen überwachtes Lernen, Verstärkungslernen und ein spezielles "Weak-to-Strong" Reinforcement Learning zum Einsatz. Für das Training wurde ein umfangreicher Datensatz von 1,3 Billionen Token speziell für Minderheitensprachen verwendet, der 112 verschiedene Sprachen und Dialekte abdeckt. Das Chimera-Modell nutzt zusätzlich einen Fusionsansatz, der mehrere Übersetzungsvorschläge kombiniert, um die Endübersetzung zu verbessern und durchschnittlich 2,3 Prozent bessere Ergebnisse zu erzielen.

Die Modelle sind frei auf Hugging Face verfügbar, und der Quellcode wird auf GitHub bereitgestellt, was Entwicklern und Forschern den Zugang erleichtert.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like