Kommentar von Dr. Andreas Becks, SAS KI und Cognitive Computing – Versuch einer Entmystifizierung
Gut 15 Jahre liegt der Kinostart von „A.I. – Künstliche Intelligenz“ schon zurück. Was damals Gegenstand eines erfolgreichen Science-Fiction-Films von Steven Spielberg war, scheint heute deutlich näher gerückt, wie ich aus so mancher Schlagzeile schließe. Doch stellt sich hier die Frage, was künstliche Intelligenz tatsächlich schon kann. In welchen Bereichen ist der Einsatz sinnvoll? Und: Wo sind die Grenzen?
Anbieter zum Thema

Um all diese Fragen zu beantworten, lohnt ein kurzer Blick auf die Begrifflichkeiten. Denn das Thema künstliche Intelligenz (KI) sorgt nach wie vor für Verwirrung und Unsicherheit. Ängstliche Fragen wie „Sind Roboter bald intelligenter als Menschen?“ und „Werden sie uns die Arbeitsplätze wegnehmen?“ bestimmen die Schlagzeilen – auch bei gut informierten Fachmedien.
Dahinter steckt oft eine tief greifende Unsicherheit bezüglich neuer (disruptiver) Technologien, die stark in das Selbstverständnis des Menschen und seiner differenzierenden Fähigkeiten eingreifen. Schaut man jedoch, was KI und Cognitive Computing heute wirklich können und wo die Forschung die Zukunft sieht, erscheint die Realität schon etwas weniger bedrohlich.
Intelligenzsimulanten
Künstliche Intelligenz beschäftigt sich mit der Modellierung und Automatisierung intelligenten Verhaltens. Auch wenn hier von „Intelligenz“ die Rede ist (bei aller Schwammigkeit des Begriffs), simuliert ein Computer lediglich Intelligenz. Das heißt, Maschinen sind in der Lage, einzelne intelligente Funktionen in Vertretung des Menschen zu übernehmen, zum Beispiel in Form von Mustererkennung, Suchprogrammen oder Systemen, die ihr Verhalten an den Bediener anpassen. Von freien Entscheidungen und Bewusstsein sind sie jedoch weit entfernt.
Der Begriff Cognitive Computing beschreibt Systeme, die in einer für den Menschen natürlichen Weise mit ihm kommunizieren und zum Beispiel Sprache oder Stimmungen verstehen. Kognitive Systeme sind lernfähig, indem sie für ein besseres Analyseergebnis Feedback nutzen und Parameter anpassen. Und sie nutzen zahlreiche, strukturierte wie unstrukturierte Datenquellen. Damit sie gut funktionieren, sind jeweils klar abgegrenzte Anwendungsfelder nötig.
Nicht alles umsetzen, was geht
Wie man sieht, braucht Mensch keine Angst zu haben, dass KI-Systeme und Maschinen auf absehbare Zeit die Weltherrschaft übernehmen – wie es die Geschichtenerzähler in Buch und Film so häufig als düstere Vision zeichnen. Die Systeme können zwar lernen (in dem Sinne, dass sie sich automatisch anpassen), aber das bedeutet nicht, dass sie denken können. Wichtig ist jedoch, dass sie ethisch-gesellschaftlich eingeordnet werden.
Auf die Frage, was geht, muss daher immer die Frage folgen, was darf und soll? Denn nicht alles, was heute schon technisch möglich wäre, ist 1) ökonomisch sinnvoll und/oder 2) mit ethischen Gesichtspunkten vereinbar. Klar ist, dass KI und Cognitive Computing in präzise definierten Einsatzbereichen (beispielsweise als intelligente Assistenzsysteme) sinnvoll sind. Aber wie lassen sich technologische Möglichkeiten und gesellschaftliche Verträglichkeit in Einklang bringen?
Technologische Möglichkeiten und gesellschaftliche Verträglichkeit im Einklang
Die Frage nach der Vereinbarkeit von Technologie und Gesellschaft stellt sich bei jeder Art von Datenanalyse, denn auch ein Verbraucher möchte wissen, wie seine Daten genutzt werden – und hat diesbezüglich nicht allzu großes Vertrauen in Unternehmen, wie eine SAS-Studie zu Datenschutz und Online-Nutzung [PDF] unlängst gezeigt hat.
Doch gerade im Zusammenhang mit KI kommt noch eine stärker emotional gefärbte Komponente hinzu: nämlich die Angst, dass Maschinen und Roboter den Menschen in seiner Existenz bedrohen könnten. Hier geht es um Recht und Ethik. Was passiert, wenn Drohnen zur Terrorbekämpfung eingesetzt werden und einen Unschuldigen töten? Wer übernimmt bei selbstfahrenden Autos die Verantwortung für einen Unfall? Der Fahrer, der Kfz-Hersteller oder derjenige, der die Daten auswertet?
Hierzu hat das Future of Life Institute einen interessanten offenen Brief veröffentlicht, der sich damit beschäftigt, wie sich Superintelligenz erforschen und ungefährlich nutzen lässt. Als wichtigste Maxime postuliert der Brief das Schaffen größtmöglicher Vorteile für die Gesellschaft. Dazu sollen KI-Systeme zuverlässig das tun, was der Mensch von ihnen verlangt. In den „Research Priorities for Robust and Beneficial Articifial Intelligence“ ist festgelegt, worauf bei den entsprechenden Technologien geachtet werden sollte. Unter wirtschaftlichem Aspekt gilt es beispielsweise, nachteilige Effekte wie Ungleichheit und Arbeitslosigkeit zu vermeiden, die mit einer Automatisierung von Prozessen einhergehen können. Ein weiterer wichtiger Punkt ist natürlich der Datenschutz und wie angesichts der Auswertung von Daten aus Überwachungskameras, E-Mails, Telefonverbindungen etc. durch KI-Systeme die Privatsphäre des einzelnen geschützt werden kann.
Alle an einem Strang
Das Erfolgsrezept für den gesamtgesellschaftlichen Nutzen sieht das Institut in der interdisziplinären Kooperation verschiedener Bereiche wie Wirtschaft, Gesetzgebung, Philosophie oder Computerwissenschaft. Das ist sicher notwendig. Und man kann getrost noch einen Schritt weitergehen. Auch Unternehmen wie SAS haben die Verantwortung, Transparenz zu schaffen und den vertrauenswürdigen Umgang mit Daten zu unterstützen, die sich aus dem KI-Umfeld ergeben. Wenn dies geschieht, ergeben sich große Chancen für die Nutzung, ohne dass – wie in „A.I.“ – Roboter mit Bewusstsein emotionale Bindungen aufbauen oder gar die Menschheit ablösen.
* Dieser Artikel wurde von unserem Schwesterportal BigData-Insider übernommen.
(ID:44306857)