Mobile Mikrofone in ihrer Ladestation vor dem Ausschwärmen in den Raum (Foto: washington.edu)

Forscher der University of Washington haben ein neues Akustiksystem aus intelligenten Lautsprechern und mehreren Mikrofonen auf mobilen Minirobotern entwickelt, das Räume in Sprachzonen unterteilen und die Positionen einzelner Sprecher verfolgen kann. Was sie aufnehmen, wird über intelligente Lautsprecher abgestrahlt. Mithilfe von Deep-Learning-Algorithmen können Nutzer bestimmte Bereiche stummschalten oder Gespräche trennen - selbst wenn zwei benachbarte Personen ähnliche Stimmen haben.

Die Mikrofone mit einem Durchmesser von jeweils etwa 2,5 Zentimetern schwärmen autonom von einer Ladestation in den Raum aus und kehren nach getaner Arbeit wieder dorthin zurück. Dadurch lässt sich das System in verschiedenen Räumlichkeiten nutzen - es richtet sich automatisch ein. Bei einer Besprechung im Konferenzraum könnte ein solches System beispielsweise anstelle eines zentralen Mikrofons eingesetzt werden, um die Audioqualität im Raum zu verbessern.

"Wenn ich meine Augen schliesse und zehn Leute in einem Raum reden, weiss ich nicht, wer genau was sagt und wo im Raum er sich befindet. Das ist für das menschliche Gehirn äusserst schwer zu verarbeiten. Bisher war es auch für die Technologie schwierig. Doch mit unserem akustischen Roboterschwarm sind wir jetzt in der Lage, die Positionen mehrerer Personen zu verfolgen, die in einem Raum sprechen, und ihre Stimmen zu trennen", so Malek Itani, Doktorand an der Paul G. Allen School of Computer Science & Engineering.

Roboterschwärme benötigten bisher Kameras oder ähnliche Hilfsmittel, um zu navigieren. Itanis Entwicklung orientiert sich allein anhand von Geräuschen. Der Prototyp besteht aus sieben kleinen Robotern. Wenn sie sich von ihrem Ladegerät entfernen, gibt jeder ein hochfrequentes Geräusch von sich, wie eine Fledermaus beim Navigieren, wobei er diese Frequenz und andere Sensoren nutzt, um Hindernissen auszuweichen und sich fortzubewegen.

Sie distanzieren sich so weit wie möglich voneinander, da grössere Entfernungen die Unterscheidung und Lokalisierung sprechender Personen erleichtern. Die Forscher haben die Roboter in Büros, Wohnzimmern und Küchen mit sprechenden Gruppen von drei bis fünf Personen getestet. In allen Umgebungen konnte das System in 90 Prozent der Fälle verschiedene Stimmen innerhalb eines Abstands von 50 Zentimetern voneinander erkennen.