Akustische Kontrolle: Objektiver als das menschliche Gehör

 Akustische Kontrolle: Objektiver als das menschliche Gehör
In der industriellen Fertigung führt die Prüfung von Maschinen und Produkten anhand akustischer Signale noch ein Nischendasein. Fraunhofer zeigt auf der Hannover Messe 2017 ein kognitives System, das fehlerhafte Geräusche objektiver als das menschliche Ohr erkennt: Die Technologie hat erste Praxistests bereits erfolgreich bestanden und spürte dabei bis zu 99 % der Fehler auf.

Bei der industriellen Fertigung ist entscheidend, dass Maschinen funktionieren und das Produkt keine Mängel aufweist. Der Produktionsprozess wird daher kontinuierlich überwacht – von Menschen, aber auch von immer mehr Sensoren, Kameras und Software.

Meist orientiert sich die von Maschinen übernommene, automatisierte Prüfung an visuellen oder physikalischen Kriterien. Nur der Mensch setzt ganz natürlich auch seine Ohren ein; wenn etwas ungewöhnlich klingt, schaltet er die Maschine sicherheitshalber ab. Das Problem: Jeder Mensch nimmt Geräusche unterschiedlich war. Ob etwas schief läuft, ist daher eher ein subjektives Gefühl und bietet eine entsprechend erhöhte Fehleranfälligkeit.
Training mit Millionen von Datensätzen
Das Fraunhofer-Institut für Digitale Medientechnologie (IDMT) entwickelt kognitive Systeme, die Fehler anhand von akustischen Signalen exakt erkennen. Der technologische Ansatz vereint intelligente akustische Messtechnik und Signalanalyse, maschinelles Lernen sowie sichere, flexible Datenspeicher.
„Wir integrieren die Intelligenz des Hörens in die industrielle Zustandskontrolle von Maschinen bzw. automatisierten Prüf- und Testsystemen für Produkte“, erklärt Steffen Holly vom IDMT-Geschäftsfeld „Industrial Media Applications“. Hat man sie einmal trainiert, können kognitive Systeme objektiver hören als das menschliche Gehör: Statt zwei stehen ihnen sozusagen viele Tausende Ohren zur Verfügung – in Form millionenfacher, neutraler Datensätze. Erste Pilotprojekte mit der Industrie laufen bereits; die Forscher konnten dabei bis zu 99 % der Defekte rein akustisch aufspüren.
Geräusche eindeutig zuordnen
Die Wissenschaftler identifizieren mögliche Geräuschquellen und analysieren deren Ursachen, erstellen ein Lärmmodell der Umgebung und richten darauf ihre Mikrofone aus. „Ideal ist es, das menschliche Ohr nachzustellen: Es empfängt Töne über die Luft“, schildert Holly. Störgeräusche wie Stimmen oder der Lärm eines vorbeifahrenden Gabelstaplers rechnet das System aus dem Gesamtsignal heraus. Dieses wird dann immer wieder mit zuvor ermittelten, labor-reinen Referenzgeräuschen abgeglichen.
Mit Hilfe neuronaler Netze entwickeln die Wissenschaftler Schritt für Schritt Algorithmen, die in der Lage sind, Fehler anhand von Geräuschen zu erkennen: „Je reiner das akustische Signal vorliegt, desto besser erkennt das kognitive System Abweichungen“, erklärt Holly. Die Technologie ist so feinfühlig, dass sie auch Nuancen in der Fehlerstärke anzeigt und komplexe Aufgabenstellungen bewältigt.
Beispiel Automobilproduktion: In modernen Autositzen sind viele einzelne Motoren eingebaut, mit deren Hilfe der Fahrer seinen Sitz individuell einstellen kann. Die Bauweise der Motoren ist nicht gleich, ihre Geräusche verschieden, sie sind zudem an unterschiedlichen Stellen verbaut. „Bei einem Pilotprojekt mit einem Automobilzulieferer spürte unser akustisches Monitoring alle Fehlerquellen einwandfrei auf“, berichtet Holly.
Flexibler, sicherer Datenspeicher in der Cloud
Die Datensicherheit der gesammelten akustischen Signale gewährleisten die Fraunhofer-Forscher durch Nutzerberechtigungen, Rechte- und Identitätsmanagement. Ein Beispiel ist das Entkoppeln von realen und virtuellen Identitäten, um beim Auswerten der Daten durch unterschiedliche Personen keine Nutzerrechte zu verletzten.
Meist sind Maschinen und Testsysteme fest in der Fertigungsstraße verbaut. Die Forscher lagern ihre akustischen Datensätze daher in einem sicheren Cloudspeicher ab. „Wir können so sehr flexibel auf Änderungen im Produktionsablauf reagieren und unser kognitives System dementsprechend anpassen“, stellt Holly einen weiteren Vorteil dar.
Das System im Einsatz kennenlernen
Auf der Hannover Messe 2017 zeigen die Forscher am Stand C16/C22 in Halle 2 einen Demonstrator ihres kognitiven Systems zur akustischen Qualitätsprüfung. Besucher können erleben, wie einzelne Geräusche aus industriellen Fertigungsprozessen erfasst und korrekt zugeordnet, wie die Daten verarbeitet, analysiert und wie sie sicher verwaltet werden.
Julia Hallebach ist für das Fraunhofer-Institut für Digitale Medientechnologie (IDMT) im PR-Bereich tätig.