«Das kann doch DeepL schnell machen» – das KI-Dilemma in der Übersetzungsbranche

Der Siegeszug der KI hat nicht erst seit der Einführung von ChatGPT Einzug gehalten. In der Übersetzungsbranche gibt es seit nunmehr acht Jahren eine sehr dominante KI-basierte Übersetzungsmaschine: DeepL. Und genauso lange gibt es schon Diskussionen über den Sinn und Unsinn von maschineller Texterstellung oder in diesem Fall Übersetzungen. Von vielen geliebt, erleichtert DeepL den nicht ganz so sprachaffinen Menschen das Leben. Von Übersetzern wird sie jedoch oftmals kritisch betrachtet, einige hegen sogar eine offene Abneigung gegen DeepL. Der Grund dafür ist einleuchtend, hat DeepL doch für viele von ihnen das goldene Zeitalter der Übersetzung beendet, denn viele Texte können nun von Laien übersetzt werden. Welche Gefahren und Herausforderungen dies birgt, wollen wir genauer unter die Lupe nehmen.

DeepL? Wer benutzt denn sowas?

Zuerst einmal ein kurzer Steckbrief über DeepL: Das Tool wurde 2016 und 2017 innerhalb der Linguee GmbH, ebenfalls eine Übersetzungsmaschine, entwickelt. Sie basiert auf neuronalen Netzwerken, die fortlaufend mit Hilfe im Internet frei verfügbarer Übersetzungen trainiert wird. Sogenannte Webcrawler durchforsten das Internet nach Übersetzungen und füttern so die Maschine. Die Übersetzungsmaschine ist nach wie vor kostenlos, es gibt aber mittlerweile auch die kostenpflichtige Version DeepL Pro, die insbesondere für professionelle Übersetzer interessant ist. So bietet sie ein Software-Plugin für sogenannte CAT-Tools (computergestützte Übersetzungstools, mit denen zum Beispiel die Einheitlichkeit der Terminologie gewährleistet werden kann) wie SDL Studio, das es Übersetzern erleichtert, die Maschine in ihrer Arbeit zu verwenden. Ausserdem ist bei der Pro-Version auch der Datenschutz gewährleistet, was bei der kostenlosen Version nicht der Fall ist. Aus diesem Grund dürfen sensible Daten niemals in die kostenlose DeepL-Version eingegeben werden.

Was vielleicht überraschen mag: Auch Übersetzer benutzen Übersetzungsmaschinen, teilweise auch DeepL (Pro, versteht sich). Da taucht natürlich bei vielen Kunden die Frage auf, wofür denn eigentlich noch etwas bezahlt werden muss. Und tatsächlich hat die Annahme, dass Übersetzer nun nichts mehr tun müssten, dazu geführt, dass die Preise für Übersetzungen drastisch gesunken sind. So stark, dass viele Übersetzer nicht mehr von ihrem Beruf leben können. Hinzu kommt, dass der Übersetzungsmarkt relativ gesättigt ist. Die Konkurrenz ist riesig und zahlreiche Firmen versuchen mit Dumpingpreisen die Kundschaft anzulocken. Das Übersetzungsvolumen nimmt über lange Sicht gesehen zwar zu, aber die Preise befinden sich im Sinkflug.

Dass dies auf lange Sicht nicht funktioniert, sieht man an der teilweise stark variierenden Qualität der Übersetzungen. Man darf sich hier auch nicht wundern, denn Dumping-Preise führen zu Dumping-Qualität. Und mit einer Maschine ist es eben nicht getan, ansonsten könnte jeder Übersetzer werden. Die Praxis zeigt, dass dem nicht so ist. Besser wäre hier also die Frage: Welche Fähigkeiten werden benötigt, um eine solche Maschine zu bedienen?

DeepL ist nur so deep wie der Mensch dahinter

Auch hier gilt: Die Maschine ist nur so gut wie der Mensch, der sie bedient. Wer die Fremdsprache nicht beherrscht, kann nur schwer beurteilen, ob die Übersetzung von DeepL tatsächlich sinnvoll ist. Und genau da liegt die Krux: DeepL-Übersetzungen sind nicht immer korrekt. Jemand, der sich also nicht auskennt, lässt sich demzufolge auf eine Lotterie ein. Die Gewinnchancen sind dabei mehr oder weniger hoch, je nach Komplexität des Ausgangstextes. Bei sehr allgemein gehaltenen Texten funktioniert DeepL relativ gut. Bei fachlich spezialisierten Übersetzungen jedoch sieht die Geschichte anders aus. Hier sind Fachkenntnisse und spezielle Terminologie nötig. Denn das englische «bill» heisst nicht in jedem Kontext «Rechnung». Und «das Gelbe vom Ei» wird nicht mit «the yellow of the egg» übersetzt. Auch Wortwitze und Metaphern, die meist sehr kulturspezifisch sind, werden von DeepL oft nicht erkannt und dementsprechend nicht korrekt übersetzt.

Zudem ist das Thema Datenschutz insbesondere seit dem Auftauchen von ChatGPT ein brisantes Thema. Denn genau wie bei DeepL suchen Webcrawler das Internet nach Informationen ab. Alle Texte, die ChatGPT generiert, basieren auf Inhalten, die irgendwann schonmal geschrieben wurden. Leider lässt sich auf ChatGPT nicht zurückverfolgen, woher die Maschine die Texte nimmt, da es noch keine Zitierfunktion gibt.

Und täglich grüsst das Murmeltier

Ein weiteres Phänomen, das mit der Einführung von ChatGPT einher geht, ist die Gefahr, dass mit der übermässigen Nutzung von KI für die Texterstellung die Qualität der KI-generierten Texte mit der Zeit abnimmt und es zu einer Abflachung der Sprache kommt. Was genau ist damit gemeint? Durch KI sollte die Qualität doch gesteigert werden, denn KI ist schliesslich schlauer und schneller als wir, oder? Schneller ja, aber nur so schlau wie der Mensch, der sie benutzt. Was passiert nun also, wenn Menschen KI-Texte erstellen, die nicht so sprachaffin sind und die Qualität der Maschine nur minder beurteilen können oder nicht einmal kontrollieren, was ChatGPT von sich gibt?

Wie bereits erwähnt, setzt ChatGPT Webcrawler ein, die das Internet nach Informationen durchforsten. Die ersten KI-erstellten Texte basieren also auf Texten, die von Menschen geschrieben wurden. Diese Texte sind von der Qualität her meistens besser als die KI. Warum? Der KI fehlt einerseits die Menschlichkeit. Wenn man sich mit KI etwas auskennt, merkt man sehr schnell, ob ein Text von einer Maschine geschrieben wurde. Und das ist meist kein Indiz für gute Qualität, denn das Ziel ist, dass der Text so daher kommt, als ob er von einem sprachlich begabten Menschen geschrieben worden wäre. In der Regel aber ist die Sprache recht standardisiert und zwar so sehr, dass sich mittlerweile ein typischer ChatGPT-Stil etabliert hat. Wiederum kein Indiz für Qualität. Andererseits sind die Quellen, auf die sich ChatGPT beruft, teilweise recht fragwürdig und man kann sich nicht auf die Korrektheit der Maschine verlassen.

Was passiert also, wenn KI-erstellte Texte, die nicht nachbearbeitet und geprüft wurden, im Internet herumschwirren? Die Webcrawler finden diese Texte und gebrauchen sie für neue ChatGPT-Texte, die dann wiederum von Webcrawlern gefunden werden. Mit der Zeit zitiert sich ChatGPT also selber. Das Problematische daran ist, dass ChatGPT viele falsche Fakten produziert, die dann im Internet herumschwirren und wieder von ChatGPT zitiert werden.

Fake-News haben Hochkonjunktur dank ChatGPT

Erst kürzlich gab es sogar einen Fall, bei dem sich herausstellte, dass ChatGPT und Bard (Googles eigene KI) sich gegenseitig zitierten und dabei richtig viel Unsinn ausspuckten. Ein Journalist fragte dabei ChatGPT, ob der Konkurrent Bard bereits eingestellt worden sei. ChatGPT behauptete schliesslich, dass Bard am 21. März abgestellt worden sei, was natürlich komplett falsch ist. Woher nahm ChatGPT diese Information? Es stellte sich heraus, dass die Quelle für diese Behauptung ein Tweet ist. Darin wird ein Screenshot eines Gesprächs gezeigt, in dem Bard von sich selbst behauptet, abgeschaltet worden zu sein. Jetzt stellt sich die nächste Frage: Warum behauptet Bard so etwas, das nachweislich nicht stimmt? Nun, Bards Falschbehauptung stammte aus einem Forum, in dem jemand einen Witz über Bards Abschaltung gemacht hatte. Warum nahm Bard dies als valide Quelle wahr? Das liegt daran, dass jemand einen gefälschten Newsartikel verfasst hatte und dabei ChatGPT genutzt hatte.

Das Problem daran? Mit der Zeit werden immer mehr KI-generierte Texte im Internet herumschwirren. Die Unterscheidung zwischen validen Artikeln und Fake-News fällt dabei immer schwerer. Dasselbe Problem lässt sich auch bei Übersetzungen beobachten. Im Internet schwirren KI-generierte Übersetzungen herum, die teilweise von minderer Qualität und je nach Komplexität der Ausgangstexte sogar gänzlich falsch sind.

Bei ITSA arbeiten wir hybrid

Sollen Sie nun als Laie komplett auf DeepL oder ChatGPT verzichten? Keineswegs. Wenn Sie einen Text vor sich haben, den Sie nur verstehen wollen, lassen Sie der KI ruhig freie Hand. Oder wenn Sie schnell mal eine E-Mail in einer Fremdsprache verfassen wollen, ist das auch kein Problem. Problematischer wird es aber bei Texten mit offiziellem Charakter. Das heisst, Texte, die für die Öffentlichkeit oder für eine Behörde bestimmt sind. Sie wollen die Übersetzung und damit den Erfolg Ihrer Aussage oder Ihrer Kampagne schliesslich nicht gänzlich in die Hände des Zufalls geben.

Deswegen arbeiten wir bei ITSA hybrid. Wir arbeiten ausschliesslich mit professionellen Übersetzern zusammen, die die Tücken von DeepL kennen und genau wissen, wo sie bei der Maschine eingreifen müssen. Man kann eine Maschine laufen lassen, aber die Richtung gibt immer noch der Mensch vor. Und wenn der Mensch diese nicht kennt, läuft auch die Maschine irgendwann ins Nirgendwo.