Wer kann Sprache besser erkennen: Mensch oder Maschine? In geräuschvoller Umgebung erreichen Systeme für die Spracherkennung eine hohe Präzision und übertreffen sogar Menschen. Aber anders als Menschen brauchen Maschinen riesige Datenmengen.
Die automatische Spracherkennung (ASR) hat in den letzten Jahren bemerkenswerte Fortschritte gemacht, insbesondere bei global häufig verwendeten Sprachen wie Englisch. Während man noch vor 2020 davon ausging, dass menschliche Spracherkennungsfähigkeiten denen von automatischen Systemen weit überlegen sind, zeigen einige aktuelle Systeme eine vergleichbare Leistung. Ziel der Weiterentwicklung von ASR war, die Fehlerrate zu minimieren, unabhängig davon, wie gut Menschen in der gleichen Geräuschumgebung abschneiden. Denn auch Menschen erreichen in geräuschvollen Umgebungen keine perfekte Genauigkeit.
In ihrer aktuellen Studie verglich die Computerlinguistin Eleanor Chodroff von der Universität Zürich gemeinsam mit ihrer Kollegin Chloe Patman von der Cambridge University die Spracherkennungsleistung zweier beliebter Systeme – wav2vec 2.0 von Meta und Whisper von OpenAI – direkt mit britischen Muttersprachlern. Sie testeten die ASR-Systeme unter Bedingungen wie sprachähnlichem Rauschen oder Kneipenlärm, jeweils mit und ohne Gesichtsmaske aus Baumwolle.
Neuestes OpenAI-System besser
Die Ergebnisse zeigten, dass Menschen bei den ASR-Systemen überlegen waren. Allerdings übertraf das neueste OpenAI-System Whisper large-v3 die menschliche Leistung in allen getesteten Bedingungen deutlich, ausser bei realistischem Kneipenlärm, wo es mit der menschlichen Leistung mithalten konnte.
Whisper large-v3 bewies damit seine Fähigkeit, die akustischen Eigenschaften von Sprache zu verarbeiten und sie erfolgreich einem Satz zuzuordnen. «Dies war beeindruckend, als die getesteten Sätze aus dem Zusammenhang gerissen wurden und es auch schwierig war, ein Wort aus den vorhergehenden Wörtern vorherzusagen», erklärt UZH-Expertin Eleanor Chodroff.
Riesige Mengen an Trainingsdaten
Ein genauerer Blick auf die ASR-Systeme und ihre Trainingsmethoden zeigt, wie bemerkenswert die menschliche Leistung nach wie vor ist. Beide getesteten Systeme basieren auf Deep Learning, aber das leistungsstärkste System Whisper benötigt immense Mengen an Trainingsdaten. Während wav2vec 2.0 von Meta mit 960 Stunden englischer Sprachdaten trainiert wurde, griff das Standardsystem von Whisper auf mehr als 75 Jahre Sprachdaten zurück. Das System, das die menschlichen Fähigkeiten tatsächlich übertraf, nutzte sogar mehr als 500 Jahre Sprachdaten. «Menschen erreichen diese Leistung in nur wenigen Jahren», betont Chodroff. «Ausserdem bleibt die automatische Spracherkennung in fast allen anderen Sprachen weiterhin eine grosse Herausforderung.»
Unterschiedliche Fehler
Die Studie zeigte auch, dass Menschen und ASR-Systeme unterschiedliche Fehler machen. Englische Zuhörende bildeten fast immer grammatikalisch korrekte Sätze, schrieben aber häufig Satzfragmente, anstatt zu versuchen, für jeden Teil des gesprochenen Satzes ein geschriebenes Wort zu liefern. wav2vec 2.0 hingegen produzierte unter schwierigsten Bedingungen häufig Kauderwelsch. Whisper lieferte zwar grammatikalisch korrekte Sätze, neigte aber dazu, Lücken mit völlig falschen Informationen zu füllen.
Titelbild: In geräuschvoller Umgebung erreichen moderne Spracherkennungssysteme eine beeindruckende Präzision (Bild: Istock.com/South agency)