Künstliche Intelligenz (KI) wird einen erheblichen Wandel in der Gesellschaft auslösen. Sobald Algorithmen unser Wahlverhalten beeinflussen oder Lehrpläne für Schulen entwerfen, ist die Politik gefragt, um Schäden zu begrenzen. Im Auftrag der TA-Swiss entsteht nun eine Studie zu Chancen und Risiken von KI.

Nicht nur, wenn uns das irritierend charmante Gesicht eines humanoiden Roboters neugierig anblickt, ist künstliche Intelligenz (KI) im Spiel. Ganz anders als die sprechende und lernfähige menschenähnliche Maschine «Sophia», die ein Hongkonger Unternehmen der Welt im vergangenen Jahr präsentierte, begegnet uns KI in physisch nicht zu verortender Form im Alltag, wenn beispielsweise unsere Aktionen im Internet Daten generieren, aus denen Unternehmen ihre Schlussfolgerungen ziehen. Neue Datenschutzregelungen zeigen, dass die Politik sich intensiv mit den Auswirkungen des digitalen Wandels befasst.

KI wirft jedoch auch gesellschaftlich relevante Fragen auf, die weit über den Datenschutz hinausgehen, wenn etwa Algorithmen menschliche Entscheidungen ersetzen, an der Börse handeln oder das Wählerverhalten beeinflussen. Daher hat die Stiftung für Technologiefolgen-Abschätzung, TA-Swiss, drei Forschungseinrichtungen beauftragt, die neuen Herausforderungen zu untersuchen. Ein Team an der Empa erarbeitet, gemeinsam mit der «Digital Society Initiative» der Universität Zürich (UZH) und dem Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften (ÖAW) bis Herbst 2019 konkrete Handlungsempfehlungen für die Schweizer Politik und Wirtschaft.

«Wir untersuchen derzeit die Chancen und Risiken für Innovationen, Forschung und Bildung rund um künstliche Intelligenz», sagt Clemens Mader von der Empa-Abteilung «Technologie und Gesellschaft» in St. Gallen, der gemeinsam mit Claudia Som und Lorenz Hilty an dem Projekt beteiligt ist. Wissenschaftler der UZH und ÖAW bearbeiten zudem die Bereiche Konsum, Medien, Arbeit und Verwaltung. Darüber hinaus wird jeder Teilbereich zusätzlich unter ethischen und rechtlichen Aspekten unter die Lupe genommen.

Sobald erste Ergebnisse vorliegen, werden die Forschenden die Anwendungsbereiche im Austausch mit nationalen und internationalen Stakeholdern untersuchen. «So erreichen wir, dass gesellschaftlich relevante Themen nicht innerhalb einer Bubble einzelner Fachbereiche beurteilt werden, sondern sich ein Bild aus allen Perspektiven zusammensetzt», so Mader.

Eine der Aufgaben der Wissenschaftler ist es nun, Anwendungsmöglichkeiten von KI in der Forschung und als Innovationsmotor zu untersuchen.
Wie man eine Gesellschaft vorbereitet

Zudem sollen gesellschaftlich relevante Fragen angegangen werden. Wie etwa lässt sich eine Gesellschaft darauf einstellen, künstliche Intelligenz kritisch weiterzuentwickeln und selbstbewusst einzusetzen? «Hier ist der Bildungsbereich gefragt, der die künftigen Forscher hervorbringt – und zwar von der Kindergartenstufe bis zu den Hochschulen», sagt Mader.

Für den schulischen Bereich werden dazu Pilotprojekte untersucht, die bereits KI-Anwendungen einsetzen, wie etwa in einer Schule im Silicon Valley. Hier lernen Schüler mit Tablets und werden von KI-Software in ihrem Lernverhalten beobachtet. Die Programme geben daraufhin Ratschläge, wie man die Kinder individuell fördern soll. «Wenn der Computer über das Curriculum von Schülern entscheidet, muss man beachten, dass hier Persönlichkeitsrechte, Datenschutz und in der Folge die gesellschaftliche Entwicklung betroffen sind», sagt der Forscher.

Die Sorge, dass Computer nicht nur nützlich, sondern riskant für eine Gesellschaft sein könnten – bis hin zu einem Wandel im Demokratieverständnis –, ist nicht neu. Die Möglichkeiten der maschinellen Analysen nehmen rasch zu. «Wenn KI-Anwendungen enorme Datenmengen sammeln und auswerten, ändern sich dadurch viele Lebensbereiche in unserem Alltag, weit über Bereiche wie das Online-Shopping hinaus», sagt Mader. Dies gelte es in einen politischen Rahmen zu setzen, um mit Gefahren umzugehen, aber auch Innovationspotenziale fördern zu können.

mehr dazu . . .

Share.
Exit mobile version