Die Erwartungen an die Künstliche Intelligenz sind enorm. Dabei ist diese Schlüsseltechnologie nicht so weit, wie viele glauben: Wo ihre Grenzen liegen – und woran das liegt.
Von Ralf Otte
Nach ungefähr zwei Jahren eines regelrechten KI-Hypes stellt sich beginnende Ernüchterung ein. Sowohl Entscheider als auch das Publikum bemerken, dass viele der versprochenen KI- Produkte doch nicht so schnell auf den Markt gelangen. Der Autor wird an dieser Stelle noch weitergehen und die These aufstellen, dass fast keine der hochfliegenden Ankündigungen jemals umgesetzt werden. In den nächsten Jahren werden wir zwar weiterhin von zahlreichen erfolgreichen Fallbeispielen (Use Cases) hören und von KI-Heilsversprechungen aller Art, wie zum Beispiel, dass die KI helfen könnte, den Kampf gegen Krebs zu gewinnen, den Welthunger zu besiegen oder die Anzahl der Verkehrstoten drastisch zu senken. Aber keines dieser Versprechen wird wahrscheinlich wahr werden. Doch trotz der zahlreichen Unzulänglichkeiten der Künstlichen Intelligenz ist sie riskanter denn je, denn die KI wird das Leben aller Menschen stark beeinflussen.
Um KI besser zu verstehen, hilft eine mögliche Taxonomie von Intelligenzstufen, die folgendermaßen definiert sein könnten: Deduktion (Stufe 1), Induktion (Stufe 2), Kognition (Stufe 3), Wahrnehmung und Bewusstsein (Stufe 4), Selbstwahrnehmungsintelligenz (Stufe 5), Gefühlsintelligenz (Stufe 6), Willensintelligenz (Stufe 7), menschliche Intelligenz der Selbstreflexion (Stufe 8). Anhand dieser Aufstellung wird deutlich, dass sich die heutige KI – trotz ihrer hohen „rationalen“ Intelligenz – auf einer recht geringen Intelligenzstufe befindet (Stufe 2 bis 3), jedenfalls verglichen mit der Intelligenz des Menschen. Der Grund dafür hat es in sich: Heutige KI ist eine rein mathematische KI, die als Softwarealgorithmus auf einem Computer implementiert wird. Das schafft zwar große Vorteile, da die Implementierung meist recht einfach ist. Aber eine rein mathematische Umsetzung von Intelligenz hat eben auch gravierende Nachteile. Denn die Grenzen der Mathematik selbst sind damit zwangsläufig auch die Grenzen jedweder KI. Im menschlichen Gehirn laufen keinerlei mathematische Prozesse ab, dort existieren neuronale Netze, mit ihren physikalischen, chemischen und biologischen Eigenschaften, und genau dieser Unterschied ist entscheidend für die riesigen Intelligenzunterschiede zwischen Mensch und Maschine.
Betrachten wir mit dieser Vorabeinschätzung das maschinelle Lernen etwas näher: Eine wichtige Säule der heutigen KI sind künstliche neuronale Netze (KNN), die man beispielsweise als einfache sogenannte Backpropagation Netze oder Deep-Learning-Netze ausführt. Damit bezeichnen Fachleute jene auf Computern existierenden mathematischen Simulationen, von denen Fachleute glauben, dass ungefähr so die Informationsverarbeitung des Gehirns modelliert werden kann. Diese Art der Modellierung ist sogar überaus erfolgreich. Wir besitzen mit den KNN sogenannte universelle Approximatoren, und der Anwendungsnutzen ist enorm. Weiß man beispielsweise, dass der zu beschreibende Zusammenhang durch eine stetige Funktion dargestellt werden kann, wobei man die Funktion gar nicht kennen muss, kann ein KNN verwendet werden, welches diesen Zusammenhang anhand von Daten beliebig genau approximiert. Wir haben mit unseren Computern schon universelle Rechenmaschinen, nun besitzen wir auch noch eine universelle Lernmaschine. Auch haben wir mit sogenannten neuronalen Faltungsnetzen (CNN) nahezu universelle Bildverarbeitungsmaschinen und mit den großen Sprachmodellen (LLMModelle) nahezu universelle Sprachverarbeitungsmaschinen. Es ist daher kein Wunder, dass mit vielen Menschen die Phantasie durchgeht, dass sie die KITechnologie bewundern oder fürchten.
Um die KI für die Praktiker realistischer einzuordnen, wollen wir uns nun einer Typisierung der Machbarkeit zuwenden: Die erste Gruppe beschreibt Probleme, die mit KI gut lösbar sind, die zweite Gruppe Probleme, die mittels KI nur schwer lösbar sind, und die dritte Gruppe beinhaltet alle Aufgabenstellungen, die man mittels KI gar nicht lösen kann – und zwar prinzipiell nicht. Enorme Summen ließen sich einsparen, wenn zu Beginn aller KI-Projekte klar wäre, zu welcher Kategorie das zu bearbeitende Problem gehört. Hier drei Beispiele, um dies zu verdeutlichen: Die KI-Optimierung des Einkaufes einer Firma durch die Analyse aller bisherigen Einkaufstransaktionen dieser Firma zählt zur ersten Gruppe. Die automatisierte KI-Steuerung eines Kraftwerkes zählt zur zweiten Gruppe. Den Straßenverkehr in Deutschland durch den Einsatz von KI-Autos vollständig vollautonom durchzuführen gehört in die Gruppe der prinzipiell unlösbaren Aufgaben.
Damit kommen wir abermals zum maschinellen Lernen (ML), der heutigen KI-Königsdisziplin. Wir zählen alle ML-Verfahren zur induktiven KI (dies entspricht in obiger Taxonomie der Intelligenzstufe 2). Maschinelles Lernen bedeutet also Lernen aus Daten – das Analogon beim Menschen wäre das Lernen aus Erfahrung. Nun gibt es endlos viele Daten in der Welt, wir sprechen von Zettabyte oder gar Yottabyte. Haben wir also genug Daten, um alles zu lernen, was wir lernen wollen? Und wenn wir genug Daten hätten, können wir dann alles lernen, was wir lernen möchten?
Die Antwort ist ein klares Nein. Kein Mensch würde mit KI die Lottozahlen vom nächsten Samstag vorhersagen wollen, obwohl die Daten der Ziehungen der letzten Jahrzehnte vorliegen. Warum nicht? Weil jeder (intuitiv) weiß, dass es keinen Zusammenhang zwischen den Lottoziehungen der Vergangenheit und der Lottoziehung am kommenden Samstag gibt. Gelernt werden können jedoch nur eindeutige Funktionen, manche Funktionsklassen jedoch extrem genau, wie das nach dem amerikanischen Wissenschaftler George V. Cybenko benannte CybenkoTheorem aussagt. Cybenko zeigte schon im Jahr 1989, dass mit bestimmten neuronalen Netzen stetige Funktionen sogar beliebig genau nachbildbar sind. Stetige Funktion sind dabei Funktionen, die man vereinfacht gesagt mit einem Stift durchzeichnen kann, ohne diesen abzusetzen, also Funktionen ohne Lücken und Sprünge. Wenn es um die Lottozahlen geht, dann liegt eine solche Funktion nicht vor. Darf ein solcher Zusammenhang aus guten Gründen aber vermutet werden – insbesondere in industriellen Prozessen ist das meist gegeben –, so ist eine Approximation theoretisch gut möglich. Allerdings muss nun die vorhandene Datenlandschaft ganz genau überprüft werden. Denn schließlich müssen die Daten die unbekannte, aber durch die KI zu lernende Funktion abbilden können. Hier gibt es leider erhebliche Probleme in der Praxis, denn die Daten für die KI müssen repräsentativ, rückverfolgbar, reproduzierbar und ausreichend vorhanden sein. Manchmal liegen solche Daten vor. Oft leider nicht. Unerfahrene KI-Projektleiter merken häufig erst am Schluss, dass die Daten, auf denen das gesamte Projekt aufbaut, eben doch nicht repräsentativ waren. Hier passieren ständig gravierende Anwendungsfehler.
Wurde die KI auf nicht repräsentativen Daten trainiert, können die Ausgaben der KI im Anwendungsfall natürlich völlig falsch sein. Lernende KI-Verfahren sollten daher nicht im Extrapolationsraum betrieben werden, also nicht in Datenräumen, in denen vorab keine Lerndaten vorlagen. Ein Beispiel: Trainiert man eine KI im Lerndatenbereich von 0 bis 100 darauf, Quadratzahlen zu addieren, so kann die KI die Addition später im gesamten Lerndatenraum von 0 bis 100 korrekt ausführen, selbstverständlich auch für nicht eintrainierte Beispiele. Fragt man aber nach der Addition zweier Quadratzahlen im Bereich um die 1000, werden die Ergebnisse der KI falsch sein; sie wird leider „halluzinieren“. Warum?
Weil der Extrapolationsbereich von 1000 viel zu weit vom vorab gelernten Interpolationsbereich zwischen 0 und 100 entfernt ist. Man sollte meinen, solche Fehler passieren nicht. Doch selbst dort, wo die professionellsten KI-Anwendungen zu erwarten wären, im Militär, werden solche Fehler gemacht – erwähnt sei der mutmaßliche Einsatz der KI im Gazakrieg (Operation Lavender).
Oder denken wir an das autonome Fahren und die Unfälle, die solche Fahrzeuge erzeugen, weil sie auf Situationen treffen, die fernab von gelernten Zuständen liegen. Leider weiß man oft gar nicht, was für Zustände in der Anwendungsphase auftreten könnten, wodurch KI-Systeme sehr häufig, aber unbekannterweise im Extrapolationsraum angewendet werden. Verkehrsunfälle, zerstörte Maschinen, fehlerhafte Börsenvorhersagen können und werden die Folge sein. Oder das KI-System „halluziniert“ – eine höfliche Umschreibung für „völlig falsche“ Aussagen. Kein Ingenieur würde ein Bremssystem auf den Markt bringen, das ab und zu halluziniert. Wenn es indes um KI geht, scheint man viele einstmals gute ingenieursmäßige Standards wieder vergessen zu haben. Zu groß ist die Illusion, die Hollywood und die großen Techkonzerne erzeugen, zu blauäugig sind Manager oder Politiker. Das liegt aber nicht an den Entscheidern selbst, sondern an fehlender technischer Aufklärung.
Ein kurzer Zwischenstand: Aufgabenstellungen, die durch eine unbekannte, jedoch implizit vorhandene Funktion (Abbildung) beschrieben werden können und bei denen die gegebene Datenlandschaft diese Abbildung repräsentiert, sind sehr gut mit KI zu lösen. Beispiele sind nahezu alle Prozesse in den Unternehmen, vom Einkauf, Verkauf über die Produktion, den Service und die Entwicklung. Schwer (bis gar nicht) zu lösen sind hingegen Probleme, bei denen die spätere Anwendung im Extrapolationsraum liegen wird.
Allerdings gibt es für diese Probleme Lösungsstrategien. Eine wichtige liegt darin, dass die KI wenigstens mitteilt, wenn ihr Ergebnis unsicher ist. Das ist technisch sogar trivial lösbar: Erstens ist bekannt, wie weit man vom Lerndatenraum entfernt ist – es gibt immer eine Metrik. Zweitens setzt man bei derartigen Befürchtungen stets mehrere KIVerfahren in Konkurrenz zueinander ein.
Warum wird diese Art von Qualitätssicherung dann nicht gemacht? Weil den Einkäufern in den Unternehmen eine Illusion verkauft wird. Es wird so getan, als wäre KI eine Art Kunst, die ein zwar undurchschaubares, aber garantiert sicheres Werkzeug hervorbringt. Doch so ist es nicht. KI-Projekte müssen deshalb besser umgesetzt beziehungsweise schon besser eingekauft werden: Zwingen die Einkäufer die KI-Anbieter endlich dazu, dass jene ihre (im Use Case) zugesagten Ergebnisse garantieren, was machbar ist, zwingen sie die KI-Anbieter zusätzlich zu Güteangaben ihrer KI-Modelle und zum Bau einer KI, die jederzeit selbst mitteilt, wenn ihre Ergebnisse nicht genutzt werden dürfen, dann bekommt man gutes technisches KI-Handwerk ausgeliefert. Jedenfalls für den Fall, dass das Problem mit KI überhaupt lösbar ist.
Nun sind aber nicht alle Aufgaben mittels KI lösbar. Für den Anwender ist es deshalb wichtig, die unlösbaren Problemstellungen zu kennen. Dafür seien kurz grundsätzliche Restriktionen erläutert.
- Das Problem der Semantik: KI versteht nicht, was sie tut. Dieser Punkt ist insbesondere für Anwender der generativen KI wichtig, denn selbst die ausgeklügelt klingenden Antworten eines Chatbots sind immer nur rein syntaktischer Natur. Nichts davon wird durch die KI verstanden – heute nicht und morgen auch nicht.
- Das Problem der Deduktion: KI kann eine gewisse Komplexität nicht automatisiert bearbeiten.
- Das Problem der Induktion: KI kann das Lernproblem nicht lösen. Dies bedeutet, wie oben schon angedeutet, dass es nicht möglich ist, außer in Trivialfällen, die KI im besagten Extrapolationsraum einzusetzen.
- Das Problem des Bewusstseins: KI kann die Umgebung nicht wahrnehmen. Dieser Punkt deutet an, dass alle heutigen Systeme des maschinellen Sehens keine wirklichen Wahrnehmungen besitzen, sondern immer nur Simulationen von Sehprozessen sind. Viele Anwender denken, dass es ausreicht, das Sehen digital zu simulieren, da es bisher auch ausreichte, das menschliche Denken und Lernen digital (mathematisch) zu simulieren – einfach weil die Ergebnisse der KI dort überzeugend sind. Aber beim Sehen bemerkt man die Grenzen der Simulation, insbesondere im anlogen Umfeld.
- Das Problem der Gefühle: KI kann keine Gefühle ausprägen.
- Das Problem des Willens: KI kann keine Willensprozesse ausprägen.
Die Punkte 5. und 6. sind eigentlich nicht als Mangel einer technischen KI anzusehen, denn für heutige Anwendungen sind keine Systeme mit Gefühls- oder gar Willensprozessen nötig.
Diese Bemerkungen sind übrigens nicht rein akademischer Natur. Die genannten Grenzen führen beispielsweise dazu, dass selbst in zehn oder 20 Jahren immer noch keine Roboter in unserem (chaotischen) Haushalt einsetzbar sein werden. Oder salopp formuliert: Den Kaffee müssen wir uns im Jahr 2040 immer noch selbst holen, so merkwürdig das für viele klingen mag, weil die KI heute scheinbar ständig von einem Erfolg zum nächsten gelangt – ja, aber eben nur in digitalen Umgebungen, nicht in analogen. Den Kaffee wird ein Roboter also nur dann holen, wenn wir unseren Haushalt zu einer Art digitaler Fabrik umbauen und an jeder Ecke digitale Sensoren einbauen. Doch wer wollte das schon?
Kommen wir zu einem weiteren, wichtigen Sachverhalt für die Praxis. Die in Punkt 2. angesprochene nicht überwindbare Komplexitätsgrenze der KI hat großen Einfluss auf das autonome Fahren. Es kann vorausgesagt werden, dass es niemals möglich sein wird, den gesamten Straßenverkehr in Deutschland vollautonom abzuwickeln, weil die Komplexität der Interaktionen im Straßenverkehr der Komplexität der sogenannten Prädikatenlogik entspricht. Für die Prädikatenlogik – eine von mehreren Logiksystemen – wurde mathematisch jedoch exakt bewiesen, dass logische Entscheidungsprozesse unendlich lange dauern können oder gar zu widersprüchlichen Aussagen führen, die innerhalb des Systems selbst nicht auflösbar sind.
Man braucht solche Versuche daher auch gar nicht zu starten, denn mathematische Beweise sind für die heutige KI zwingend, da sie eine mathematische KI ist. Mit demselben Argument ist schon jetzt festgelegt, dass die KI niemals zur automatisierten Rechtsprechung eingesetzt werden darf, denn auch das Bürgerliche Gesetzbuch entspricht der Komplexität der Prädikatenlogik. Zur Einordnung: Jeder (erwachsene) Mensch wendet verschiedene Logiksysteme intuitiv an. Ein Beispiel: In der Aussagenlogik wird die Aussage „dieser Frosch ist grün“ einfach durch hinschauen überprüft. In der mächtigeren Prädikatenlogik lässt sich die universellere Aussage „alle Frösche sind grün“ nicht mehr so einfachprüfen. Aber es hilft ein einziger Frosch, der nicht grün ist, um die Aussage durch Gegenbeweis wenigstens zu falsifizieren.
Für die KI ist der Umgang mit der Prädikatenlogik schwierig. Insbesondere die sogenannte Prädikatenlogik 2. Ordnung mit Aussagen wie „Frösche können alle Farben haben“ stellt die mathematische KI vor erhebliche Probleme. Denn laut dem berühmten Logiker Kurt Gödel gibt es wie oben ausgeführt in allen hinreichend starken Systemen (und dazu zählt die Prädikatenlogik 2. Ordnung) zwingend Aussagen, die sich formal weder beweisen noch widerlegen lassen. Das trifft die KI mit voller Wucht, denn es verhindert prinzipiell zahlreiche geplante KI-Anwendungen, wie die erwähnten voll automatisierten Gerichtsentscheide. Recht kann nur ein menschlicher Richter sprechen, für den die obige Komplexitätsgrenze nämlich nicht gilt, da er auch mit nicht formalen Beweisen arbeiten kann. Anwälte und Richter könnten KI zur Beweissichtung oder mittels Chatbots zur Argumentation verwenden, das ist möglich, nicht aber für die automatisierte Rechtsprechung selbst.
Es gibt viele weitere Fälle, in denen der Einsatz von KI aus Komplexitätsgründen versagt. KI kann Code generieren und Code über Code, aber immer nur bis zu einer gewissen Grenze. Es kann nicht passieren, dass sich eine KI immer weiter selbst optimiert und repariert, denn sobald diese Aufgabenstellung die Komplexität der Prädikatenlogik erreicht, kommt es zu inneren Widersprüchen und damit zum Stillstand. Systeme, die ihre eignen Baupläne enthalten, kommen zwingend in unbeweisbare Zustände, das ergibt sich abermals aus dem erwähnten Unvollständigkeitssatz des besagten Kurt Gödel. Daher nochmals: Alle mathematischen Systeme unterliegen derartigen Restriktionen. Niemals können heutige, mathematikbasierte KI-Maschinen die Menschheit übernehmen, diese Ängste werden zwar „bewusst“ verbreitet – sie sind aber völlig absurd.
Dennoch ist die KI sehr riskant geworden. Abschließend soll daher eine Risikoeinschätzung folgen, denn auch hier sollte sich niemand Illusionen machen. Der Europäische AI Act soll das Risiko von KI-Anwendungen bewerten und dafür Sorge tragen, dass bestimmte Anwendungen den Betroffenen nicht zu viele Risiken aufbürden. Die mehr als 400 Seiten der Verordnung sind ein gutes und nützliches Regelwerk, denn die KI ist riskant – trotz oder gerade wegen ihrer oben genannten Mängel. Die KI stellt nämlich ein „perfektes“ Instrumentarium zur Überwachung bereit. Man kann technische oder kaufmännische Prozesse überwachen oder Krankheiten, aber eben auch Menschen und ganze Bevölkerungsgruppen. Der Anwender der KI-Verfahren entscheidet, was er mit der KI machen wird. Ein Skalpell kann Leben retten. Oder Leben zerstören.
Schauen wir uns ein Beispiel an, um diese Problematik zu verdeutlichen: Mittels KI-Verfahren lassen sich heutzutage gute Bildklassifikatoren realisieren, die sich etwa einsetzen lassen, um Produktionsprozesse zu überwachen. Natürlich wird man diese im Unternehmen nur einsetzen, wenn die Gütemaße der Klassifikatoren gut genug sind. Zwei wichtige Gütemaße des Klassifikators sind die Sensitivität und die Spezifität. Sensitivität bedeutet im Produktionsumfeld, dass dann, wenn ein Endprodukt einen Mangel aufweist, dieser durch die KI-Bilderkennung auch erkannt wird. Spezifität bedeutet, dass dann, wenn ein Produkt keinen Mangel aufweist, dieses Produkt die Gütekontrolle auch unbehelligt passieren darf. KI ist für solche technischen Anwendungen prädestiniert.
Was aber wäre mit der visuellen Überwachung von Personengruppen? Stellen wir uns hierzu einen KI-Klassifikator vor, der eine Menschengruppe in zwei Kategorien einteilen soll. Die eine Gruppe seien (mutmaßliche) Terroristen, die andere Gruppe unbescholtene Bürger. Im Beispiel verwenden wir einen KI-Video-Klassifikator mit einer Sensitivität von 99 Prozent und einer Spezifität von ebenfalls 99 Prozent. Diese beiden Gütemaßzahlen sind sehr gut, sie werden in der Praxis oft nicht erreicht. Der AI Act würde einen KI-Einsatz mit dieser Qualität sicherlich erlauben. Jetzt nehmen wir 300 Studenten, die in einer Großstadt die Terroristen repräsentieren sollen, um das KI-System zu testen. Das System installieren wir an einem Bahnhof, den in der Woche etwa eine Million Menschen passieren. Was ist nun zu erwarten? Die Sensitivität besagt, dass wir mit unserem KI-System 99 Prozent der Terroristen erkennen werden, also von den 300 Terroristen 297 aufspüren können. Das ist ziemlich gut. Die Spezifität von 99 Prozent besagt nun, dass auch bei den unbescholtenen Bürgern ein Fehler von ein Prozent (falschpositive) gemacht werden wird. Also werden wir von etwa einer Million unbescholtenen Bürgern, die den Bahnhof während dieser Zeit passieren, ungefähr 10.000 Bürger als (mutmaßliche) Terroristen deklarieren. Diese 10.000 Menschen müssen später der Polizei beweisen, dass sie gar keine Terroristen sind. Das ist gesellschaftlich natürlich unzumutbar.
Selbstverständlich ist es logisch, dass jeder KI-Einsatz aufgrund von Fehlern einen Preis erfordert, der eben bezahlt werden muss. Im Industrieeinsatz wird das von vornherein berücksichtigt, denn den Preis zahlt das einsetzende Unternehmen selbst. Im Bereich der KI-Überwachung trägt jedoch der Bürger die „Kosten“, denn er muss beweisen, dass er kein Terrorist ist. Da die „Kosten“ also ausgelagert werden können (weg vom KI-Anbieter und hin zum Betroffenen), wird das alles völlig verordnungskonform so eingesetzt werden, natürlich im Namen der Sicherheit – wir sollten uns hier keine Illusionen machen.
Aktuell geht von der KI eine latente Gefahr aus, denn die riesigen Werbebudgets von KI-Unternehmen sorgen dafür, dass den Entscheidern viele Vorteile der KI verkauft werden, die in der Realität so gar nicht existieren. Wird die KI in den Unternehmen selbst eingesetzt und werden die KI-Verordnung und der Datenschutz eingehalten, ist der Einsatz sehr häufig von Vorteil und teilweise sogar extrem gewinnbringend. Wird die KI jedoch in der Gesellschaft eingesetzt, gehen von ihr erhebliche Risiken aus. Letztlich kommt es zu einer Allianz von Macht und Technologie. Selbst eine fehlerhafte und mangelhafte Technologie kann so zu einer großen Gefahr werden. Während medial oft über eine zukünftige Singularität und Machtübernahme durch eine KI gesprochen wird, sind die Gefahren viel subtiler und vor allem gegenwärtig. Man könnte sich eine KI-Maschinenschicht vorstellen, die über die Gesellschaft gestülpt wird und die trotz ihrer massiven Mängel das Leben und Arbeiten von Million Menschen überwacht, steuert und regelt. Besitzer dieser Technologien hätten natürlich den Luxus, davon nicht betroffen zu sein. Es ist daher zu hoffen, dass der Einsatz der KI in der Gesellschaft kritisch begleitet werden wird. Das sollte keine Illusion sein.