Allen Menschen eine Teilhabe zu ermöglichen, das ist das Ziel von Barrierefreiheit. Staat, Verwaltung und Kommunen haben hier eine besondere Verantwortung, allen Bürger*innen ihre Angebote barrierefrei zugänglich zu machen. Das gilt natürlich auch für die digitale Welt. Wir sprachen mit Alexander Stricker, geschäftsführender Gesellschafter der Firma Charamel, über den Gebärdensprach-Avatar für Kommunen. Bereits 53 Kommunen machen mit bei diesem Projekt, das gehörlosen Menschen eine digitale Teilhabe ermöglicht. Ganz nebenbei profitieren die Kommunen nach dem „Einer für Alle“-Prinzip, denn entwickelt wurde ein Baukastensystem, das für eine einfache Umsetzung des Gebärdensprach-Avatars sorgt.
Interview
Wie sind Sie auf die Idee gekommen, einen Gebärdensprach-Avatar für Kommunen zu entwickeln?
Alexander Stricker: Die Idee, etwas mit Gebärdensprache und Avataren zu machen, gab es schon 2003. Damals war die technische Umsetzung jedoch nicht so einfach, man hätte einen kühlschrankgroßen Rechner gebraucht, um den Avatar in Echtzeit zu animieren. 2020 haben wir ein Forschungsprojekt gestartet, das vom Bundesministerium für Bildung und Forschung unterstützt wurde; am Rande dieses Projektes haben wir viele Gespräche mit Kommunen geführt. Im Rahmen des OZG gibt es Vorschriften für eine barrierefreie Teilhabe, die aber kaum erfüllt werden. Eine vollkommene Übersetzung von Texten für gehörlose Menschen gab es nicht. Und da hatten wir die Idee: Wir setzen ein Beteiligungskonzept auf, führen Webinare durch und stellen die Idee eines Gebärdensprach-Avatars den Kommunen vor. Und das ist mit offenen Armen aufgenommen worden.
Wie ist das Pilotprojekt gestartet? Und wie soll es weitergehen?
2022 sind wir mit einem Kick-off Meeting gestartet. Jetzt sind wir dabei, das gesamte Textmaterial, das wir von den Kommunen bekommen haben, zu durchforsten. Damit bauen wir ein Informationskorpus auf, der dann letztendlich vergebärdet wird. Auf dessen Basis wird auch ein intelligentes System entwickelt, das eine modulare Zusammenstellung von Informationen und Texten zur Verfügung stellen kann. Daraus können sich Kommunen bedienen und ihre Sätze in Gebärdensprache umbauen. Es soll ein Baukasten entwickelt werden, mit dessen Hilfe Kommunen eine Übersetzung vornehmen können.
Warum ein Baukasten?
Ein Baukasten deshalb, weil wir eine künstliche Intelligenz langfristig antrainieren müssen. Das braucht Zeit und benötigt viele Daten, die allerdings erst generiert werden müssen. Ein erstes System wollen wir in den nächsten Monaten vorstellen. Es ist dann für jede Kommune im Rahmen eines Lizenzmodells verfügbar. Beim Beteiligungskonzept, von dem ich bereits sprach, können immer noch Kommunen mit einsteigen. Durch die Beteiligung profitieren die Kommunen und haben mehr Vorteile als beim Erwerb einer Lizenz. Außerdem gestalten sie eine Lösung mit.
Wie haben Sie das Beteiligungsprojekt aufgesetzt?
Es ist ein gemeinsames Projekt gewesen, das wir ganz demokratisch durchgeführt haben. Städte, Gemeinden, Kreise und Bezirke haben unterschiedliche Inhaltsschwerpunkte und daraus sind fünf Inhaltspakete für jede Art der Kommune entwickelt worden. Die werden mit Inhalten befüllt, das ist eine sehr komplexe linguistische Aufbereitung von Texten. Wir haben über 2.600 Seiten an Textmaterial bekommen, das muss erst mal gefiltert und analysiert werden. Daraus wird dann gezieltes Vokabular für die Kommunen produziert, die die Grundlage für das Erstellen von Gebärdensprach-Animationen sind. Letztlich fließen diese Daten dann in das KI-System ein.
Brauchen die Mitarbeitenden in den Kommunen eine Schulung, um mit dem Baukasten arbeiten zu können?
Die Arbeit soll den Online-Redakteur*innen so einfach wie möglich gemacht werden. Sie haben die Möglichkeit, die Textbausteine individuell auf die Kommune anzupassen.
Nehmen wir zum Beispiel eine Websiten-Navigation. Laut BITV 2.0 muss die Kommune sie erklären. Das bauen wir im Rahmen eines Baukastens so modular wie möglich um. Ich habe einen Text, den ich mit Zusatzinformationen versehen kann. Da eine Übersetzung in Gebärdensprache keine 1:1 Übersetzung ist, werden kontextbezogen verständliche Gebärdensprach-Animationen gematcht.
Der Gebärdensprach-Avatar ist eigentlich eine Avatarin und heißt Livian. Sie sieht sehr authentisch aus und sehr androgyn. Wie haben Sie das Ganze technisch umgesetzt?
Es gab im Rahmen des Forschungsprojektes verschiedene Evaluationsstufen. Wir haben angefangen mit einem Avatar, der wie ein Cartoon aussah. Die gehörlosen Projektpartner in unserem Team gaben die Rückmeldung, dass das Gesicht über mehr Mimik verfügen müsste. Wir haben uns auch die Studien des Bundesministeriums für Arbeit und Soziales und den Best-Practice-Leitfaden der Uni Wien angeschaut, wo verschiedene Avatare im Gebärdensprachbereich evaluiert wurden. Die Ergebnisse haben wir genutzt und versucht, den Avatar visuell weiterzuentwickeln.
Grundsätzlich wird ein Avatar in einer 3-D-Software entwickelt. Die bieten verschiedene Möglichkeiten. Das kann man ganz manuell machen. Aber man kann auch bestimmte Teilkomponenten eines realen Menschen einscannen und auf den Avatar drauflegen. Bei uns erfolgte das über einen Mix verschiedener Elemente. Das Ergebnis ist ein recht realistisch aussehender Avatar, die Livian. Es gibt darüber hinaus eine Weiterentwicklung dieser Figur. Und wir wollen noch realistischer werden.
Vielen Dank für das Gespräch!
Das Interview führte Diane Schöppe