Kaum ein Tag vergeht an dem nicht das Zeitalter der künstlichen Intelligenz ausgerufen wird. Nur wenige Lebensbereiche kommen mittlerweile noch ohne digitale Prozesse aus. Entsprechend programmierte Computer schlagen in den bekannten Strategiespielen Schach und Go selbst Großmeister. Daraus wird geschlussfolgert, dass bald alle wichtigen Entscheidungen durch KI getroffen werden (sollten) und zwar besser als von Menschen. Doch das ist ein Trugschluss. Ein kritischer Blick auf Chancen und Risiken.
Rasante Entwicklung
Als im Umfeld der RAND Corporation 1956 das erste KI-Programm „Logic Theorist“ entstand, wurde erstmals von „künstlicher Intelligenz“ gesprochen. Das bezog sich zunächst auf die Simulation mathematischer Problemlösungsansätze. 1966 wurde bereits der erste Chatbot ELIZA eingesetzt, 1997 schlug ein Schachcomputer erstmals den amtierenden Weltmeister.
Die Entwicklung immer leistungsfähigerer IT schlug sich auch im wirtschaftlichen Erfolg nieder. Der weltweite KI-Umsatz wird aktuell auf umgerechnet mehrere Hundert Mrd Euro geschätzt. KI wird auch den Dienstleistungsbereich umwälzen und könnte bis zu 40 Prozent aller bisherigen Arbeitsplätze ersetzen – auch in sogenannten kreativen Berufen.
Chancen und Risiken
Natürlich hat sich auch die Finanzbranche auf das Thema gestürzt und einen KI-Index aufgelegt, der ähnlich wie Bitcoin, als Geheimtipp gehandelt wird. Die fortschreitende digitale Technik ist in der Lage, riesige Datenmengen in unglaublicher Geschwindigkeit zu verarbeiten und Steuerungsprozesse zu automatisieren. Wo es um überschaubare, genau definierte Regeln der Verarbeitung großer Datenmengen geht ist KI der menschlichen Denkleistung überlegen.
Aber – und es ist wichtig, das zu verstehen – es handelt sich im Grunde um programmierte Rechenleistung, die auf komplexen aber dennoch beschränkten Modellen basiert. Was als kreative Leistung erscheint ist oft nur eine Rekombination bereits bekannter Bildelemente, Tonfolgen oder philosophischer „Phrasen“. Die Behauptung: „KI ist der menschlichen Intelligenz überlegen“ basiert auf einem reduktionistisch-operativen Verständnis von Intelligenz.
Der tödliche Unfall eines sich selbst steuernden Tesla hat KI-Risiken überdeutlich gemacht. Je komplexer Sachverhalte werden, desto mehr zeigen sich Lücken in der Modellierung. Deshalb sind auch diverse rein KI-gesteuerte Investmentvehikel gescheitert. Muster zu erkennen reicht eben nicht. Wir müssen auch Korrelation und Kausalität unterscheiden.
Die wichtigsten Entscheidungen dürfen wir nicht KI überlassen
KI kann ethische Bewertungen und demokratische Aushandlungsprozesse unterstützen aber nicht ersetzen. Die Lebenswirklichkeit aller Menschen kann nicht komplett in einem KI-Programm abgebildet werden. Und selbst wenn dies technisch möglich wäre: Wer kann überhaupt wollen, dass eine Instanz über all unsere Daten verfügt?
Wenn es um gesellschaftliche oder politische Entscheidungen geht, so können diese nicht einfach an KI delegiert werden. Auch die ausgetüffteltsten Algorithmen sind nicht besser als die Annahmen und Daten mit denen sie gefüttert werden. Lücken und Fehler im System führen zu schlechten Ergebnissen: Gerade die wichtigsten Entscheidungen dürfen wir deshalb nicht KI überlassen. Wir müssen uns der un-bequemen Aufgabe stellen, sie selbst zu treffen.