Eine lange Geschichte von Enttäuschungen
Die Vergangenheit hat gezeigt, dass Künstliche Intelligenz immer wieder auf Hindernisse gestossen ist und die Resultate immer wieder enttäuscht haben. Sicherlich haben sich viele von uns nur schon bei den obigen Beispielen an eigene Erfahrungen erinnert, als der Computer lächerliche Antworten geliefert hat. Seit siebzig Jahren hat die Forschung ein auf und ab erlebt. Es gab aufsehenerregende Erfolge der Symbolisten mit Schachcomputern, die russische Weltmeister blamierten, aber auch viele, meist totgeschwiegene Niederlagen.
Immer schnellere Computer-Prozessoren und gewaltige Sammlungen an Beispielen für das Training bei Neuronalen Netzen in der Bilderkennung, wie sie das Internet seit zwei Jahrzehnten leicht zur Verfügung stellt, haben Hoffnung auf neue Möglichkeiten künstlicher Intelligenz gemacht. Doch der momentane Stand der Erkenntnis: Die Möglichkeiten der AI sind beschränkt, die künstliche Intelligenz bleibt dumm.
Das Institute of Electrical and Electronics Engineers (IEEE) hat im Oktober 2021 eine ganze Serie an Artikeln dem Thema „Why is Artifical Intelligence so Dumb?“ gewidmet. Die Geschichte der Künstlichen Intelligenz lässt sich unter https://spectrum.ieee.org/history-of-ai gut nachlesen. Wer wissen will, wie ein Neuronales Computernetz funktioniert, erhält unter https://spectrum.ieee.org/what-is-deep-learning einen optimalen technischen Crashkurs. Die grösste Erkenntnis allerdings liefert der Beitrag „7 Revealing Ways AIs Fail“ (https://ieeexplore.ieee.org/document/9563958), auf den wir hier gerne genauer eingehen möchten.
Im Folgenden ignorieren wir die Entwicklungen der Symbolisten mit ihren grossen Datenbanken und daraus abgeleiteten Regeln für die Welt. Wie an den Finanzmärkten ist allgemein klar, dass die Regeln funktionieren können (Chart-Techniken, Bewertungskriterien für Unternehmen, Faustregeln wie „sell in May and go away“), bis sie es eben nicht mehr tun, weil alle sie verwenden.
Wir fokussieren uns viel mehr darauf, zu zeigen, wo unser menschliches Hirn erstaunliches leisten kann und Künstliche Intelligenz erstaunlich wenig. Sieben Tatsachen mit Beispielen sollen zeigen, wo die Probleme liegen.
1. Die Zerbrechlichkeit | „Brittleness“
Einem Neuronalen Computernetz kann relativ einfach beigebracht werden, einen Schulbus von einem Auto oder einem Lastwagen zu unterscheiden. Eine Studie von 2018 schaffte das mit 97% Treffsicherheit. Falls der Schulbus aber plötzlich auf der Seite lag, wie dies nach einem Unfall der Fall sein kann, erkannte ihn der gleiche Algorithmus mit sehr hoher Konfidenz als Schneepflug, wie der Computerwissenschaftler Anh Nguyen der Auburn University von Alabama humorvoll erklärt. Eine AI kann sehr genau Muster erkennen, welche es ähnlich schon gesehen hat, aber bei einem etwas aus der Art fallenden Muster ist sie schnell verwirrt.
Fälle von bedenklicher Zerbrechlichkeit von AI reichen von Aufklebern auf Stoppschildern die dann als Verbotstafeln identifiziert werden oder veränderten einzelnen Pixeln auf Bildern, wodurch ein Pferd als Frosch erkannt wird. Auch kann eine AI zu 99.99% überzeugt sein, dass ein undefiniertes farbiges Bild einen Löwen darstellen soll und Röntgenbilder lassen sich so manipulieren, dass immer und mit 100% Gewissheit Krebs diagnostiziert wird. Robuster gegen solche Fehler wird die AI, wenn sie möglichst viele Gegenbeispiele einordnen muss, aber viele solche Gegenbeispiele sind rar oder unbekannt, bis sie dann unverhofft doch auftreten (Nassim Talebs Schwarzer Schwan lässt grüssen).
2. Angelernte Vorurteile | „Embedded Bias“
AI wird immer öfter eingesetzt, um unparteiische und unabhängige Entscheidungen zu treffen. Das wäre auch an der Börse wünschenswert, um nicht immer nur Aktien aus dem Lieblingssektor zu kaufen und voreingenommen die vermeintlich bösen Tabak- und Rohstofffirmen zu verteufeln. Allerdings zeigte eine Studie 2019, dass in den USA die AI, die im Gesundheitswesen die Hochrisikopatienten für gewisse Krankheiten identifizieren sollte, Vorurteile bezüglich Afroamerikanern und Weissen hatte. Die Entwickler der dabei eingesetzten Neuronalen Computernetze entdeckten unter Führung des Physikers Ziad Obermeyer der University of California, dass die Software dazu tendierte, diejenigen Personen als gefährdeter für Krankheiten einzustufen, die höhere Gesundheitskosten auswiesen. Dies sind in der Regel gutgestellte Weisse, die wegen jedem Wehwehchen zum Doktor rennen, im Gegensatz zu Schwarzen, die in ärmlichen Verhältnissen leben und sich selbst bei ernsten Gesundheitsprobleme keinen Arzt leisten können.
Die Software lernte, die falschen Kriterien zur Beurteilung zu nutzen und musste umprogrammiert werden. In einem solchen Fall hat natürlich nicht nur die Künstliche Intelligenz versagt, sondern eben auch die menschliche der Programmierer.
3. Katastrophales Vergessen | „Catastrophic Forgetting“
Wenn eine Künstliche Intelligenz etwas Neues lernen soll, hat sie eine sehr unglückliche Tendenz, bereits Erlerntes zu vergessen. Raia Hadsell von DeepMind, dem AI Partner von Google, kennt diese Probleme genau: Ein Computer, der den Weltmeister im Schach schlägt, sollte doch in der Lage sein, andere Strategiespiele ebenso effizient zu beherrschen? Nur leider verlernt er komplett Schach zu spielen, sobald ihm Go beigebracht wird. Dies liegt direkt an der Technologie der Neuronalen Netze (eine spezielle Art adaptiver Filter), die aus vielen Inputs zu einem klaren Output kommen.