Auf dem Weg zur digitalen Beschichtung

 Auf dem Weg zur digitalen Beschichtung

Neue Partikel in Werkstoffen einzusetzen, bleibt eine Herausforderung, weil vielfach ungewiss ist, wie sie reagieren. Bild: Fraunhofer IPA

Nanopartikel verändern Materialien zu Hochleistungswerkstoffen. Deshalb wird Nanotechnologie für vielfältige und unterschiedlichste Produkte eingesetzt. Neue Partikel in Werkstoffen einzusetzen, bleibt jedoch eine Herausforderung, weil vielfach ungewiss ist, wie sie reagieren. Um die Entwicklungszeiten zu verkürzen und die Qualität der ganzen Prozesskette abzusichern, erfassen Wissenschaftler des Fraunhofer IPA die Prozessdaten und vernetzen die Produktion über die Cloud miteinander.

Nanotechnologie gilt als eine der Schlüsseltechnologien des 21. Jahrhunderts und ihre Anwendungen haben nahezu geräuschlos den Markt erobert. Nanotechnologie steckt in Energiespeichern wie Batterien oder Akkus, Autozubehör, in Kleidung, Kosmetika, Medikamenten und sogar Lebensmitteln. Dank nanomodifizierter Hochleistungswerkstoffe werden Kunststoffe robuster, Metalle leichter und Energiespeicher effizienter. Um dieses Ergebnis zu erreichen, werden konventionelle Werkstoffe mit nanoskaligen Füllstoffen – winzigen Partikeln, zwischen einem und mehreren hundert Nanometern groß – modifiziert.

Ein Nanometer misst gerade mal einen Milliardstel Meter, ein menschliches Haar ist mit 80.000 Nanometern innerhalb der Nanotechnologie schon ein Koloss. Nanopartikel wie Graphen, Carbon Nanohorns, Carbon Nanotubes oder Nanosilberfasern werden in streng nacheinander folgenden, sogenannten Batch-Prozessen hergestellt. Ihre Produktion erfolgt „stapelweise“ und diskontinuierlich. Nanopartikel werden typischerweise in Reaktoren synthetisiert, anschließend oft funktionalisiert. Danach erfolgt eine Weiterverarbeitung in Form von Pulvern oder eine Dispergierung in Tinten oder Pasten. Die Fertigung des Endprodukts erfolgt dann durch herkömmliche Prozesse wie beispielsweise Druck- oder Beschichtungsprozesse.

Batch-Prozesse führen zu Qualitätsproblemen

Erst beim letzten Schritt wird das Nanomaterial tatsächlich kontinuierlich, inline verarbeitet. Das große Problem bei diesen Batch-Prozessen sind Qualitätsschwankungen. „Jedes Batch – das Rohmaterial und die Dispersion – haben andere Eigenschaften durch unterschiedliche Lagerdauern oder -Bedingungen, Transport- oder Umgebungseinflüsse“, erklärt Ivica Kolaric, Leiter der Abteilung Funktionale Materialien am Fraunhofer IPA. Es sei daher schwierig, die Qualität stabil zu halten. Jedes Batch müsse neu eingefahren werden, denn Lagertechnik, Arbeitszeiten oder Umrüstzeiten hätten Auswirkungen auf die Eigenschaften, sprich die Verteilung der Nanomaterialien in den Schichten, daraus resultierend auf die Schichteigenschaften, und damit auf die Entwicklungszeit und – kosten.

Theoriebasierte Simulationsmodelle helfen nicht weiter

Werden Schichten mit Nanomaterial optimiert, kann der Herstellungsprozess die Mikrostruktur und damit auch die Materialeigenschaften ändern. Aus diesem Grund muss eine realistische Simulation den Herstellungsprozess als Grundlage nehmen, die daraus resultierenden Eigenschaften auf Materialebene ableiten und diese dann auf die Bauteilebene übertragen. Hierfür gibt es eine Reihe kommerzieller Tools, die auch eine nichtlineare Material- und Strukturmodellierung zulassen und somit in der Lage sind, herstellungsprozessbedingte Einflüsse auf Komposit-Materialien eingeschränkt zu erfassen und zu analysieren.

Diese Tools werden jedoch meist prädiktiv angewendet und erfordern aktuell noch eine experimentelle Validierung, welche kosten- und zeitintensiv sein kann. Abhilfe könnte die Kopplung von etablierten Struktursimulations-Tools mit simulationsgestützter Modellierung des Herstellungsprozesses liefern. Dadurch könnten sowohl Batchprozesse als auch Rolle-zu-Rolle-Prozesse in einem Closed-loop-Verfahren automatisch an die Kundenanforderungen oder an veränderte Umgebungsbedingungen angepasst werden.

„Wenn man ein neues Produkt auf den Markt bringen will, dann verlangen der Komponentenhersteller oder der Endanwender in der Regel experimentell oder simulativ validierte Materialdaten“, weiß Kolaric. Simulationsmodelle, die diese Daten generierten, gebe es viele beispielsweise Montecarlo- oder Multiskalen-Simulationsmodelle, aber diese seien schwer skalierbar und entsprächen nicht der Realität.

Dispersions- und Beschichtungsprozess werden vernetzt

Die Experten vom Fraunhofer IPA haben daher einen anderen Weg eingeschlagen, wobei sie am Grundgedanken der Simulation festhielten. Allerdings versuchten die Stuttgarter, Daten empirisch zu erfassen und anhand dieser Prozessparameter abzuleiten und zu postulieren. Ivica Kolaric spricht in diesem Zusammenhang von einem „Big-Data-Ansatz“. Auf Wunsch der Industrie habe man den Dispersionsprozess und den Beschichtungsprozess vernetzt. „Die Pasten-Herstellung kann jetzt über die Cloud mit der Beschichtung kommunizieren“, berichtet Kolaric. Man habe ein kongruentes Datenmanagement von der Dispersion bis in die Beschichtung hinein. Zwischen Dispersion und Beschichtung würden die Daten erfasst und verglichen. Damit hätten die Wissenschaftler die Grundlage dafür geschaffen, vom Partikel bis in die Beschichtung alle Daten einheitlich erfassen und bewerten zu können. Nicht ohne Stolz spricht Kolaric deshalb auch von einer Modellfabrik. (ig)