Sie gehören zu den am öftesten beklagten Ärgernissen des digitalen Zeitalters: Laut telefonierende Mitmenschen, die im Zug oder im Bus, im Restaurant oder auf der Parkbank ihre Handygespräche führen, als ob sie ungestört Zuhause oder im Büro sässen. Ein derartiges Vorkommnis während einer Zugfahrt war es denn auch, das Tanja Schultz, Professorin am Institut für Technik in Karlsruhe dazu bewog, ein Gerät zu entwickeln, das Sprache sozusagen vom Gesicht ablesen kann. Dabei lesen Sensoren die Elektrizität der Muskeln, die bei der Sprechbewegung eingesetzt werden. Die Technik wird Elektromyographie genannt und könnte in Zukunft dazu führen, dass Telefongespräche ganz ohne Stimmbandeinsatz geführt werden können. Die Impulse der Gesichtsmuskeln würden dann im Kommunikationsgerät umgesetzt und in eine synthetische Stimme verwandelt. Der Text kann vorher auch noch übersetzt und dann in der gewünschten Sprache wiedergegeben werden. Auf diese Weise wäre es möglich, mit Menschen zu sprechen, deren Sprache wir nicht kennen – solange unser Kommunikationsgerät mit der richtigen Software ausgerüstet ist. Auch diese Software existiert; sie wurde ebenfalls in Karlsruhe entwickelt:
"Das Simultanübersetzungssystem, das am Institut für Anthropomatik des KIT entwickelt wurde, dient als automatischer Simultandolmetscher für Vorlesungen und Parlamentsdebatten. Es erkennt und übersetzt Sprache in Echtzeit mit geringer Latenz. Das Übersetzungsergebnis lässt sich entweder in Form von kontinuierlich ausgegebenem Text lesen, aber auch mittels gerichteter Lautsprecher oder mobil auf dem Smartphone anhören. Dabei richtet ein neuartiges mit Ultraschall arbeitendes Lautsprechersystem einen Strahl auf ausgewählte Zuhörer – der Nachbar hört von der Übersetzung nichts. So lässt sich eine Simultanübersetzung von unterschiedlichen Zuhörern in unterschiedlichen Sprachen hören. Das System läuft auf nur einem Laptop und ist daher sehr mobil."Es wird noch eine Weile dauern, bis das Handy für die lautlose Kommunikation der Frau Professor Schultz massenmarktfähig ist. Im Moment braucht es immer noch neun Sensoren, die ins Gesicht geklebt werden (siehe Bild), damit Sprache auch ohne Ton verstanden wird. Dass es aber früher oder später massenmarktfähig werden wird, daran haben wir keinen Zweifel.
Haben wir ähnliche Geräte nicht schon vor Jahren im Raumschiff Enterprise im Einsatz gesehen?
Keine Kommentare:
Kommentar veröffentlichen