Künstliche Intelligenz. Wie denken Roboter?
- 17.11.2017
- Künstliche Intelligenz ist heute bereits in Form von Assistenzsystemen allgegenwärtig und unterstützt uns bei der Suche im Internet, bei komplexen Entscheidungen durch das Bewerten von Informationen oder bei der Suche von Lösungen. In den nächsten Jahren wird die erste Generation von Robotern und autonomen selbstfahrenden Autos dazukommen, und den alltäglichen Lebensraum mit uns teilen. Die Geschwindigkeit dieser Veränderungen überwältigt, auch deshalb, weil wir Nutzer nicht im Detail verstehen, wie künstliche Intelligenz denkt, also die Umgebung wahrnimmt, die Situation bewertet und das Verhalten plant. Die Antwort auf diese Frage ist aber verblüffend einfach. Heutige Systeme lernen, wie der Mensch es tut: In einem ersten Schritt lernen sie Muster in den Daten zu erkennen, also in den Videosequenzen einer Kamera, in den Sensoren eines Roboters oder in den Texten, die wir im Internet veröffentlichen. In einem zweiten Schritt erlernt das System, die Muster in Bezug zu den Ergebnissen und dem Verhalten zu setzen. Dazu nutzt man Lernen an Beispielen, die durch meist menschliche Bewertungen oder menschliches Verhalten in den gleichen Situationen vorgegeben sind. Das System lernt also, das menschliche Verhalten und die dazu notwendige Erkennung von Strukturen in den wahrgenommen Signalen zu reproduzieren. Um komplexes Verhalten, wie das Fahren eines autonomen Fahrzeuges, erlernen zu können, braucht es deshalb unglaublich große Mengen an Beispielen oder Daten von echten Fahrsituationen, die von einem Menschen durchgeführt wurden. Mehr Daten heißt, bessere Entscheidungen in komplexeren Situationen zu treffen. Dieser einfache Zusammenhang macht Daten heute so unglaublich wichtig und auch wertvoll für IT-Unternehmen, und führt zu dramatischen Verschiebungen in Wertschöpfungsketten. So bezahlen wir bereits heute Dienstleistungen häufig damit, dass wir Daten preisgeben und den IT-Unternehmen im Gegenzug erlauben, mit diesen Daten Zusammenhänge in der Welt erlernen zu können. Am Institut für Kognitionswissenschaft der Universität Osnabrück beschäftigen wir uns mit unterschiedlichen Aspekten von Datensystemen, die immer wichtiger und wertvoller werden. Dazu gehört das Cognitive Computing, eine neue Generation von künstlicher Intelligenz, die den Benutzer stärker integriert. Solch ein System ist eine Art Super-Assistent, der auf viel mehr Daten als ein menschlicher Assistent in Echtzeit zugreifen kann und so bei komplexen Entscheidungen hilfreich ist. Eines unserer Systeme hilft bei der Erkennung von Grippeausbrüchen, indem es zum Beispiel konventionelle Daten der Gesundheitsbehörden, Daten aus den sozialen Medien und Information, die es selbstständig aus Texten extrahiert, kombiniert. Ähnliche Systeme werden genutzt, um komplexe, für den Menschen nicht erkennbare Zusammenhänge bei Krankheiten aufzu - decken und damit Ärzten bei der Diagnose zu helfen. Wie sicher sind diese Systeme? Fast immer werden diese Systeme sicherer sein als die Entscheidung des Menschen. Autonome Fahrzeuge werden Unfälle verhindern und medizinische Assistenten Menschen retten können. Zugleich ist es unvermeidbar, dass diese Systeme Fehler machen und Menschen Schaden zufügen. Deshalb ist es unabdingbar, dass wir heute Regeln und Erwartungen an autonome Systeme erarbeiten und genau definieren, wie sich solche Systeme verhalten sollen und wie unsere Gesellschaft Fehler von autonomen Systemen bewertet und den Nutzen gegen den Schaden abwägen will. Bei der Analyse und Umsetzung von moralischen Aspekten künstlicher Intelligenz ist das Institut für Kognitionswissenschaft der Universität Osnabrück eine der international führenden Forschungseinrichtungen.