Wenn die Neuronen lauschen
An der University of Southern California haben die Biomediziner Jim-Shih Liaw und Theodore W. Berger eine Bio-Software entwickelt, die nicht nur allen anderen Spracherkennungssystemen überlegen ist, sondern unter erschwerten Bedingungen besser als der Mensch hören kann.
In Testläufen schlug das Berger-Liaw-Neural-Network nicht nur andere sprecherunabhängige Computersysteme, sondern auch die besten menschlichen Ohren.
Tausendfach weißes Rauschen
Selbst wenn die Ziellaute von einem weißen Rauschen mit 1000fach
stärkerer Amplitude überlagert waren, konnte es noch die Worte
unterscheiden. Menschliche Testhörer scheiterten schon bei viel
geringeren Störungen. Berger-Liaw kam noch auf sechzig Prozent
Wiedererkennungsrate, selbst wenn der Umgebungslärm 560 Mal stärker
war als die Zielsignale.
Gerade elf Neuronen
Dieses Ergebnis erzielten die Forscher, indem sie das aus gerade elf Neuronen in dreißig Verbindungen bestehende Netz mit variablen Zeittakten arbeiten ließen.
Trial & Error
Während ein herkömmlicher Computer alle Aufgaben nach
festgelegten Regeln mit einem einzigen Prozessor bearbeitet, sind
neuronale Netze aus mehreren oder vielen Einheiten - den so
genannten Neuronen - aufgebaut, die miteinander verbunden sind.
Während einer Trainingsphase lernen sie durch "Versuch und Irrtum",
was von ihnen verlangt wird. Dabei programmieren sie sich
gewissermaßen selbst.
Gehörlose, Fluglotsen, Geheimdienst
Die Wissenschafter haben ihr System zum Patent angemeldet. Es soll in Zukunft Gehörlosen ebenso zu Gute kommen wie Fluglotsen.
Dass es für das Berger-Liaw-Netz kein Problem darstellt, individuelle Stimmen zu identifizieren, dürfte auch die US-Geheim- und Polizeidienste interessieren.