Immer mehr Künstliche Intelligenz in der Produktion

 Immer mehr Künstliche Intelligenz in der Produktion

Maschinen können bereits ähnlich gut wie der Mensch laufen, greifen, sprechen, zuhören, lesen. Auf dem Gebiet hat sich in den vergangenen fünf Jahren mehr getan als in den 50 Jahren zuvor. Bild: wissenschaft.de

Die künstliche Intelligenz (KI) wird eine Revolution auslösen. Aber sie hat auch ihre Fallstricke, wie auf der Konferenz Smarte Maschinen im Einsatz – künstliche Intelligenz in der Produktion“ wieder einmal deutlich wurde.

Wer dem Google-Sprachsystem „Duplex“ dabei zuhört, wie es eloquent telefonisch einen Friseurtermin für einen Damen-Haarschnitt vereinbart, ist erstaunt, wie virtuos eine Maschine heute schon sprachlich agieren kann. „Das würde ich als recht smarte Maschine bezeichnen“, sagt Technologieexperte und Autor Ulrich Eberl zur Eröffnung der Konferenz „Smarte Maschinen im Einsatz, künstliche Intelligenz in der Produktion“, die am 15. Mai von der Konradin Mediengruppe in Zusammenarbeit mit dem Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA in Stuttgart veranstaltet wurde. Die Angerufene habe nicht bemerkt, dass sie mit einer Maschine gesprochen habe. „Maschinen können bereits ähnlich gut wie der Mensch laufen, greifen, sprechen, zuhören, lesen“, so Eberl, „auf dem Gebiet hat sich in den vergangenen 5 Jahren mehr getan als in den 50 Jahren zuvor.“

Deutschland stehe im internationalen Wettbewerb gut da, betont Eberl: Nicht nur die Hälfte der Patente rund um das autonome Fahren stamme aus Deutschland. Auch die Datenbewältigung, die das maschinelle Lernen mit sich bringt, kommt uns ein Stück weit zugute: „Deutsche Unternehmen haben hier den Vorteil, dass sie dank unserer starken industriellen Basis über viele Daten bereits verfügen.“ Blickt man allerdings auf die strategische Ausrichtung der Unternehmen hat Deutschland noch einiges aufzuholen: Nur ein Viertel aller deutscher Unternehmen hat laut Eberl eine Strategie, wie sie künstliche Intelligenz (KI) im Unternehmen integrieren wollen. Rund 60 Prozent der befragten Unternehmen behaupten, diese Kompetenz auch nicht auf dem Markt zu finden.

Möglichst natürliche Interaktion zwischen Mensch und Maschine

Für ein erfolgreiches Umdenken in der Industrie sei ein Kulturwandel nötig, betont Marco Huber, designierter Leiter des Zentrums für Cyber-Cognitive Intelligence am Fraunhofer IPA: „Für digital first müssen nicht nur die Technologie und das Geschäftsmodell passen, sondern auch die Denkweise.“ Unternehmen erreichen das aus seiner Sicht am ehesten, wenn sie innerhalb ihrer Strukturen eine Art Startup-Kultur aufbauen. Ein wichtiger Trend aus seiner Sicht ist die Produktion hochgradig personalisierter Güter, die dank Vernetzung und neuer Technologien wie 3D-Druck kaum teurer seien als massenproduzierte Waren. Wichtig sei dafür eine möglichst natürliche Interaktion zwischen Mensch und Maschine: „Dazu müssen die Maschinen ihre Sensitivität und Mobilität sowie das Erkennen von Emotionen lernen und verbessern.“

Stehen wir kurz vor Machtübernahme durch die Maschinen? Wolfgang Hildesheim, Leiter IBM Watson und Artificial Intelligence, weist in seinem Vortrag auf die sogenannte Gartner-Kurve hin: „Zwei Drittel aller zukünftigen Technologien haben mit künstlicher Intelligenz zu tun, es ist ein Megatrend.“ Ein Megatrend, auf den IBM schon früh aufgesprungen ist: Für Hildesheim beginnt die Geschichte der KI 1997 mit dem Sieg des IBM-Computers Deep Blue über den damDeepaligen Schach-Weltmeister Gary Kasparov.

Der nächste Meilenstein sei der Sieg von Watson gewesen. 2011 hat dieses KI-basierte Computerprogramm bei der US-Wissens-Show Jeopardy menschliche Mitspieler erstmals eindeutig besiegt. Dass der Sieg der Google-Software Deep Mind gegen den weltbesten Go-Spieler, den Südkoreaner Lee Sedol, ein weiterer Meilenstein der künstlichen Intelligenz ist, darin sind sich die meisten Redner der Konferenz einig. Dieser Sieg sowie die enorme Verbesserung automatischer Übersetzungssysteme – etwa durch Google oder durch das deutsche Unternehmen DEEPL – zeigen das Potenzial des „Deep Learning“, des Lernens mittels künstlichen neuronalen Netzen. „Maschinen können in gewissem Rahmen selbständig lernen“, sagt Hildesheim.

Doch Deep Learning birgt auch Probleme, betont Michael May, Leiter Data Analytics & Artificial Intelligence bei Siemens: „Wir sehen auch, wo künstliche Intelligenz nicht so gut ist“. So lassen sich die künstlichen neuronalen Netze verwirren: Schon ein verändertes Pixel lässt sie auf Bildern Dinge erkennen, die gar nicht drauf sind. Ein Pferd wird so zum Frosch. „Für autonome Autos ist das eine Gefahr“, sagt May. „Was ist, wenn sie ein solches Bild falsch interpretieren?“ Nicht alles lasse sich mit Deep Learning lösen, warnt der Siemens-Forscher. Mit seinen 200 Daten- und KI-Experten hat Siemens eine Reihe von Systemen entwickelt. So gibt es eine Gasturbine, die sich selber kontrolliert– aber nur in einem gewissen Bereich. „Die Einschränkung ist bei Sicherheitsfragen wichtig“, erklärt May. Schließlich lägen die Deep-Learning-Algorithmen bisher nicht zu 100 Prozent richtig – doch in der Sicherheitspraxis brauche es häufig diese 100 Prozent.

Maschinelles Lernen ist kein Allheil-Mittel

Google habe es da leichter, denn der potentielle Schaden, der durch Ungenauigkeiten entstehe, sei bei Google-Anwendungen meist geringer als bei Sicherheitsthemen in der Industrie. „Maschinelles Lernen ist kein Allheil-Mittel“, sagt Wieland Holfelder, der Leiter des Google Entwicklungszentrums in München. „Klassische semantische Netze haben auch ihre Berechtigung.“ Lieber als über die Schwächen der KI spricht er über die erfolgreichen, spektakulären Google-Experimente, beispielsweise über jenes, bei dem 14 Roboter ohne Anleitung gelernt haben, verschiedene Gegenstände aus Schachteln zu greifen – bei 800.000 Greifversuchen und über Monate, nur verbunden mittels einem neuronalen Netzwerk.

Auch wenn Google an einer denkbar guten Datenquelle sitzt  –„ein signifikanter Anteil des Traffics im Internet geht über unsere Systeme“ – warnt Holfelder, vor blindem Datensammeln. „Zunächst muss man Ziele definieren, dann erst Daten sammeln und präparieren“. Eine „Narrow AI“, die sich sehr konkreten, eingegrenzten Themenfeldern widmet, sei besser zu bearbeiten. Dem stimmen die Industrievertreter wie May von Siemens und Steven Peters, der Leiter Artificial Intelligence Research der Daimler AG zu: „Man glaubt oft, viele Daten zu haben, aber 80 Prozent sind alt oder überholt“ oder passen nicht gut genug zum zu lösenden Problem. „Daran scheitern viele Anwendungsfälle.“

Inwiefern spektakuläre Versuche, wie jener mit den 14 Google-Robotern, die Welt wirklich voranbringen, bleibt umstritten. Schließlich koste jeder dieser Roboter zwischen 100.000 und 200.000 Euro erklärt Fraunhofer-Forscher Huber. „Roboter über Monate lernen zu lassen,  kann sich kaum einer leisten.“ In Deutschland werde deshalb viel daran geforscht, inwiefern virtuelle Lernumgebungen und Simulationen den gleichen Nutzen bringen – ganz ohne teure Hardware. Der deutsche Erfindergeist sei daher einmal wieder gefragt. (Eva Wolfangel)