Mark Schubert verändert Holzeigenschaften mit Hilfe des Enzyms Laccase. Doch die Suche den nach passenden ­Ingredienzien ist komplex – sie ähnelt der Suche nach dem Schlüssel zu einem unbekannten Schloss. Statt teurer, langwieriger Versuchsreihen nutzt Schubert künstliche Intelligenz: Sie führt ihn schneller zum Ziel.

Mark Schubert ist Spezialist für die biochemische Modifikation von Holz. Er arbeitet mit dem Enzym Laccase, das die chemische Struktur der Holz­ober­fläche verändern kann und so zusätzliche Funktionalisierungen von Holz ermöglicht, ohne die Struktur des Werkstoffs zu verändern. Durch das Anbinden funktioneller Moleküle an die Holzstruktur entwickeln die Empa-Forscher etwa wasserfeste oder antimikrobielle Holzoberflächen. Auch das Selbstverkleben von Holzfasern ohne chemische Bindemittel wird auf diese Weise machbar – so entstehen bereits heute lösemittelfreie Faserplatten für die Isolation.

Das Problem dabei: Es gibt viele Varianten des Enzyms Laccase, die sich in der Architektur des chemisch aktiven Zentrums unterscheiden, und nicht alle reagieren mit dem gewünschten Substrat. Es ist schwierig vorherzusagen, ob eine bestimmte Laccase mit einem spezifischen Zielsubstrat reagiert; daher erfordert das Identifizieren geeigneter Laccase-Substrat-Paare kostenintensive und zeitaufwändige Versuchsreihen. Molekulare Simulationen könnten das Problem lösen: Man bräuchte nur eine genaue Strukturanalyse der Laccase und könnte dann den chemischen Reaktionsmechanismus für jede gewünschte Kombination im Computer durchspielen. Doch das erfordert eine hohe Rechenkapazität und wäre selbst dann noch äusserst langwierig und teuer.

«Deep learning» aus der Fachliteratur
Es gibt allerdings eine Abkürzung, sie heisst «Deep learning». Ein Computerprogramm wird mit Daten aus der Fachliteratur und eigenen Experimenten dazu trainiert, Muster zu erkennen: Welche Laccase oxidiert welches Substrat? Unter welchen Bedingungen könnte der erwünschte chemische Prozess am besten stattfinden? Das Beste daran: Die Suche funktioniert selbst, wenn nicht alle Details über den chemischen Mechanismus bekannt sind.

Entscheidend für den Erfolg ist die Bereitstellung der Daten in passender Form und die Architektur des gewählten «deep learning»-Netzwerks. Schubert arbeitet schon seit mehr als sieben Jahren mit neuronalen Netzen. Seine erste Arbeit zu dem Thema stammt aus dem Jahr 2012, die jüngste von 2018. «Früher haben wir mit flachen neuronalen Netzen gearbeitet: mit einem Input-Layer, einem Hidden Layer und einem Output-Layer. Heute arbeiten wir mit deutlich komplexeren Netzen. Sie enthalten mehrere Hidden Layers und leisten deutlich mehr.» Schubert trainiert seine Algorithmen mit bekannten Datensätzen und testet sie mit Datensätzen, die das System noch nie gesehen hat. Und er hat Erstaunliches über die Robustheit der Suchmaschine «Smart Wood» zu berichten: Früher konnte er nur sorgfältig ausgesuchte, aussagekräftige Daten verwenden, um zu guten Ergebnissen zu kommen. Inzwischen testet er seine Systeme auch mit teils unbrauchbaren Datenhaufen. Die Maschine erkennt selbständig, was sie brauchen kann und was nicht.

Industrieanwendung
Die Robustheit des Systems erlaubt es, die «Deep learning»-Maschine bereits in der Industrie einzusetzen. Bei der Partnerfirma Pavatex, mit der Schubert seit langem zusammenarbeitet, werden mit Hilfe von Laccasen selbstbindende Isolationsplatten produziert. Die Produktion steckt voller Sensoren, es fallen riesige Datenmengen an, die irgendetwas über die Qualität der erzeugten Platten aussagen. Nur was? Schuberts Smart-Wood-Suchmaschine findet den Zusammenhang.

Derzeit ist der Forscher daran, die Produktion auf diese Weise zu optimieren. Falls an einer Stelle der Faserverarbeitung etwas danebengeht, soll die Produktion justiert werden, bevor die Qualität des Produktes zu schlecht wird. Das erspart aufwändige Kontrollen des Endprodukts und kann die Fehlerquote im Produktionsprozess entscheidend vermindern.

mehr dazu . . .

Share.
Exit mobile version