10.01.2022

Die Beschränktheit der Künstlichen Intelligenz

Im Januar häufen sich die Voraussagen zum neuen Börsenjahr. Weil solche Prognosen bekanntermassen schwierig sind, erhoffen wir uns die Lösung von Künstlicher Intelligenz. Aber wieso sollte eine Maschine in der Lage dazu sein? Sieben Probleme zeigen, wie erstaunlich beschränkt die Künstliche Intelligenz weiterhin ist.

Maurice Rüegg

vonMaurice Rüegg

Anlagestrategie & IT-Entwicklung

Wie wird das Börsenjahr 2022? Die Märkte sind launisch genug, doch wie immer kommen auch kaum vorhersehbare politische Fragen hinzu wie: Was geschieht zwischen Russland und der Ukraine? Wie entwickelt sich die Lage in der Strasse von Taiwan? Ist die Inflation ausser Kontrolle geraten? Auch zahllose technologische Fragen bleiben relevant wie: Kommt das Wasserstoff-Auto? Bringt jemand den Fusionsreaktor zum Laufen?

Welche dieser Probleme sollen durch Künstliche Intelligenz (englisch Artificial Intelligence oder AI) gelöst werden können? Seit Mitte der Fünfzigerjahre des letzten Jahrhunderts befassen sich Wissenschaftler mit AI. Von Anfang an gab es zwei Lager, dasjenige der „Symbolisten“, die den Computern die Welt durch Regeln erklären wollen, und dasjenige der „Vernetzten“ (Connectionists), welche auf künstliche neuronale Netze analog zu unseren Gehirnen setzen.

Die Symbolisten haben in den letzten siebzig Jahren Datenbanken mit Millionen von Regeln zusammengebaut und diese ständig ergänzt. Beispiele solcher Datenbanken finden sich in modernen Autos, die wissen, wie sie sich im Strassenverkehr verhalten sollen.

Berühmt ist auch die intelligente Suchmaschine www.wolframalpha.com, die Antworten zu eingegebenen Fragen bereitstellt, oder Siri auf dem iPhone, das man sogar zum „Sinn des Lebens“ fragen kann. Als Antwort erhält man natürlich hier nur, was von einem Programmierer mit Sinn für Humor auf der Datenbank gespeichert wurde.

Beispiele künstlicher Neuronaler Netze der „Connectionists“ finden sich in der Erkennung von handschriftlichen Texten oder von gesprochener Sprache, wo Computer trainiert werden können, Sprachbefehle zu erkennen und zu befolgen, sogar wenn der Sprecher einen seltenen Schweizer Dialekt gebraucht.

Je mehr Erfahrung und Beispiele das Neuronale Netz zum Training erhalten hat, desto besser wird es, selbst einen Walliser zu verstehen.

Eine lange Geschichte von Enttäuschungen

Die Vergangenheit hat gezeigt, dass Künstliche Intelligenz immer wieder auf Hindernisse gestossen ist und die Resultate immer wieder enttäuscht haben. Sicherlich haben sich viele von uns nur schon bei den obigen Beispielen an eigene Erfahrungen erinnert, als der Computer lächerliche Antworten geliefert hat. Seit siebzig Jahren hat die Forschung ein auf und ab erlebt. Es gab aufsehenerregende Erfolge der Symbolisten mit Schachcomputern, die russische Weltmeister blamierten, aber auch viele, meist totgeschwiegene Niederlagen.

Immer schnellere Computer-Prozessoren und gewaltige Sammlungen an Beispielen für das Training bei Neuronalen Netzen in der Bilderkennung, wie sie das Internet seit zwei Jahrzehnten leicht zur Verfügung stellt, haben Hoffnung auf neue Möglichkeiten künstlicher Intelligenz gemacht. Doch der momentane Stand der Erkenntnis: Die Möglichkeiten der AI sind beschränkt, die künstliche Intelligenz bleibt dumm.

Das Institute of Electrical and Electronics Engineers (IEEE) hat im Oktober 2021 eine ganze Serie an Artikeln dem Thema „Why is Artifical Intelligence so Dumb?“ gewidmet. Die Geschichte der Künstlichen Intelligenz lässt sich unter https://spectrum.ieee.org/history-of-ai gut nachlesen. Wer wissen will, wie ein Neuronales Computernetz funktioniert, erhält unter https://spectrum.ieee.org/what-is-deep-learning einen optimalen technischen Crashkurs. Die grösste Erkenntnis allerdings liefert der Beitrag „7 Revealing Ways AIs Fail“ (https://ieeexplore.ieee.org/document/9563958), auf den wir hier gerne genauer eingehen möchten.

Im Folgenden ignorieren wir die Entwicklungen der Symbolisten mit ihren grossen Datenbanken und daraus abgeleiteten Regeln für die Welt. Wie an den Finanzmärkten ist allgemein klar, dass die Regeln funktionieren können (Chart-Techniken, Bewertungskriterien für Unternehmen, Faustregeln wie „sell in May and go away“), bis sie es eben nicht mehr tun, weil alle sie verwenden.

Wir fokussieren uns viel mehr darauf, zu zeigen, wo unser menschliches Hirn erstaunliches leisten kann und Künstliche Intelligenz erstaunlich wenig. Sieben Tatsachen mit Beispielen sollen zeigen, wo die Probleme liegen.

1. Die Zerbrechlichkeit | „Brittleness“

Einem Neuronalen Computernetz kann relativ einfach beigebracht werden, einen Schulbus von einem Auto oder einem Lastwagen zu unterscheiden. Eine Studie von 2018 schaffte das mit 97% Treffsicherheit. Falls der Schulbus aber plötzlich auf der Seite lag, wie dies nach einem Unfall der Fall sein kann, erkannte ihn der gleiche Algorithmus mit sehr hoher Konfidenz als Schneepflug, wie der Computerwissenschaftler Anh Nguyen der Auburn University von Alabama humorvoll erklärt. Eine AI kann sehr genau Muster erkennen, welche es ähnlich schon gesehen hat, aber bei einem etwas aus der Art fallenden Muster ist sie schnell verwirrt.

Fälle von bedenklicher Zerbrechlichkeit von AI reichen von Aufklebern auf Stoppschildern die dann als Verbotstafeln identifiziert werden oder veränderten einzelnen Pixeln auf Bildern, wodurch ein Pferd als Frosch erkannt wird. Auch kann eine AI zu 99.99% überzeugt sein, dass ein undefiniertes farbiges Bild einen Löwen darstellen soll und Röntgenbilder lassen sich so manipulieren, dass immer und mit 100% Gewissheit Krebs diagnostiziert wird. Robuster gegen solche Fehler wird die AI, wenn sie möglichst viele Gegenbeispiele einordnen muss, aber viele solche Gegenbeispiele sind rar oder unbekannt, bis sie dann unverhofft doch auftreten (Nassim Talebs Schwarzer Schwan lässt grüssen).

 2. Angelernte Vorurteile | „Embedded Bias“

AI wird immer öfter eingesetzt, um unparteiische und unabhängige Entscheidungen zu treffen. Das wäre auch an der Börse wünschenswert, um nicht immer nur Aktien aus dem Lieblingssektor zu kaufen und voreingenommen die vermeintlich bösen Tabak- und Rohstofffirmen zu verteufeln. Allerdings zeigte eine Studie 2019, dass in den USA die AI, die im Gesundheitswesen die Hochrisikopatienten für gewisse Krankheiten identifizieren sollte, Vorurteile bezüglich Afroamerikanern und Weissen hatte. Die Entwickler der dabei eingesetzten Neuronalen Computernetze entdeckten unter Führung des Physikers Ziad Obermeyer der University of California, dass die Software dazu tendierte, diejenigen Personen als gefährdeter für Krankheiten einzustufen, die höhere Gesundheitskosten auswiesen. Dies sind in der Regel gutgestellte Weisse, die wegen jedem Wehwehchen zum Doktor rennen, im Gegensatz zu Schwarzen, die in ärmlichen Verhältnissen leben und sich selbst bei ernsten Gesundheitsprobleme keinen Arzt leisten können.

Die Software lernte, die falschen Kriterien zur Beurteilung zu nutzen und musste umprogrammiert werden. In einem solchen Fall hat natürlich nicht nur die Künstliche Intelligenz versagt, sondern eben auch die menschliche der Programmierer.

3. Katastrophales Vergessen | „Catastrophic Forgetting“

Wenn eine Künstliche Intelligenz etwas Neues lernen soll, hat sie eine sehr unglückliche Tendenz, bereits Erlerntes zu vergessen. Raia Hadsell von DeepMind, dem AI Partner von Google, kennt diese Probleme genau: Ein Computer, der den Weltmeister im Schach schlägt, sollte doch in der Lage sein, andere Strategiespiele ebenso effizient zu beherrschen? Nur leider verlernt er komplett Schach zu spielen, sobald ihm Go beigebracht wird. Dies liegt direkt an der Technologie der Neuronalen Netze (eine spezielle Art adaptiver Filter), die aus vielen Inputs zu einem klaren Output kommen.

Sie erlernen perfekt, einen Hund von einer Katze zu unterscheiden. Sollen sie aber zusätzlichen einen Bus von einem Auto unterscheiden, verlieren sie ihr „Gedächtnis“, was ein Hund oder eine Katze sein soll; der Hund wird zum Bus – oder doch zum Auto?.

Bis jetzt hat es noch niemand geschafft, dieses Problem effizient zu lösen. Meist wird darauf ausgewichen, je eine AI parallel zu betreiben, eine für Hunde und Katzen und eine für Busse und Autos.

4. Nachvollziehbarkeit | „Explainability“

Wieso diagnostizierte eine AI bei einem Patienten Krebs? Wieso wird jemand als gesundheitlicher Hochrisikopatient eingeschätzt? Die Wissenschaftler, unter anderem wiederum Nguyen der Auburn University, versuchen seit langem, wenigstens erklären zu können, wie eine AI punktuell zu ihren Schlussfolgerungen kommt, sind aber weit davon entfernt, eine systematische Einschätzung machen zu können. Aber wie sollen wir jemals einem intelligenten Roboter Vertrauen schenken, wenn wir nicht verstehen, wieso er tut, was er tut?

5. Unsicherheit quantifizieren | „Quantifying Uncertainty“

2016 kollidierte ein Tesal Model S im Autopilot mit einem Lastwagen, der direkt vor dem Wagen abbog. Der Fahrer wurde getötet. Auf Teslas offiziellem Blog hiess es, dass weder der Autopilot noch der Fahrer „die weisse Seite des Sattelschleppzuges gegen die Sonne erkannt hätte und der Wagen deshalb nicht gebremst hätte.“ Das Problem ist dabei, dass der Autopilot nichts unternommen hatte. Eine künstliche Intelligenz kann mit fast hundertprozentiger Sicherheit zu einem Resultat gelangen, das zu 100% falsch ist. Die Konfidenz bei der Bewertung eines Resultates ist allerdings sehr wichtig und deren Nachvollziehbarkeit ebenfalls. Vor allem bei Autopilot-Systemen in Fahrzeugen ist dabei ein weiteres Problem, dass die momentanen Techniken zur Bestimmung einer Konfidenz sehr rechenintensiv und damit zeitaufwendig sind. Zeit, die nicht vorhanden ist, wenn schnell gebremst werden sollte.

6. Gesunder Menschenverstand | „Common Sense“

Der AI fehlt der gesunde Menschenverstand. Babys lernen sehr früh und sehr effizient, wie ihre Umwelt funktioniert. Sie erschaffen sich ein mentales Modell und ergänzen und adjustieren dieses aufgrund weiterer Erfahrungen. Das machen sie, bis die Reaktionen der Umwelt mit ihrem mentalen Modell übereinstimmen. Und wenn sie etwas Neues lernen, vergessen sie auch nicht, was sie vorher gelernt haben (siehe Punkt 3). Eine AI kann aber wegen fehlender Information zum „Gesamtbild“ einer Situation gefährliche Abkürzungen und Vereinfachungen als bestes Resultat interpretieren. Vor allem beim Verstehen von Sprache zeigen sich hier Defizite. Ist ein Text antisemitisch, nur weil das Wort Jude darin steht, und rassistisch, wenn von Indianern gesprochen wird? Kontext und Nuancen im Sprachgebrauch, gerade auch bei Ironie oder Sarkasmus, sind der AI völlig fremd.

7. Mathematik | „Math“

Obwohl Computer sehr gut in Mathematik sind, sind es Neuronale Computernetze überhaupt nicht. Dan Hendrycks der University of California, Berkeley, meint, dass ein Taschenrechner einer AI hier weit überlegen ist.

In Versuchen zeigte er mit seinem Team, dass eine AI bei 12‘500 mathematischen Problemstellungen nur 5% richtig lösen konnte, während ein Mathe-Olympiade Goldmedaillengewinner 90% erreichte. Das irritierende dabei ist, dass die Wissenschaft bis heute eigentlich nicht erklären kann, wieso AI schlecht in Mathematik ist.

Ein Neuronales Computernetz kann fast jedes Problem lösen, sofern das Problem eingegrenzt ist und genügend Daten als Beispiele vorhanden sind, nur keine Mathematik.

Dilbert Comic vom 26. Oktober 2012 (Quelle: dilbert.com)

Fazit

Solche Einschränkungen von Künstlicher Intelligenz sind Tatsachen, gehen aber in unserer hochmodernen Welt, in der alles möglich scheint, gerne vergessen. Natürlich hilft es auch nicht, wenn momentan Schlagwörter wieder sehr en vogue zu sein scheinen wie „Machine Learning“ und „Deep Learning“. Diese suggerieren, dass die Maschinen uns schon bald ebenbürtig sind. Aber versuchen Sie mal, dem momentan besten und teuersten Roboter der Armee, der für Strassenräumungen und Bombenentschärfungen eingesetzt werden kann, beizubringen, Ihnen eine Tasse Kaffee zu kochen. Und während jedes Kleinkind seinen Schwerpunkt ohne Nachdenken verändert, wenn es einen schweren Gegenstand hochzuheben versucht, ist dies für einen noch so weit entwickelten Roboter immer noch eine der schwierigsten Aufgaben überhaupt, weil er seine eigene „Körperlichkeit“ auf das veränderte Gesamtgewicht und dessen Verteilung anpassen muss.

Schlussendlich kommen wir zurück zum Investieren. Hier ist vor allem der Blick in die Zukunft das grösste Problem. Eine künstliche Intelligenz erkennt bestimmte, fest trainierte Muster besser und schneller als jeder Mensch und sicherlich auch als jeder Investor. Welche Gedanken kann sie sich aber über eine Zukunft machen, die es so in ihrem Lernprozess noch nicht gegeben hat? Nur wir Menschen verstehen, wenn Mark Twain sagt: „History does not repeat itself, but it rhymes“. Darum sind der gesunde Menschenverstand und unsere Fähigkeit, uns Dinge vorzustellen, von unermesslichem Wert. Benutzen wir diese natürliche Intelligenz!

 

Artikel teilen


Konto eröffnen