Diesen Herbst hatte ich das Vergnügen die Predictive Analytics World Konferenz in London zu besuchen. Zwei Tage voller spannender Vorträge, aus denen ich meine Highlights nun gerne teile. Es sind Fragen und Gedanken zu drei unterschiedlichen Themen rund um künstliche Intelligenz (KI) und maschinelles Lernen (ML).
Woher kommen die persönlichen Daten?
Eine grosse Datenquelle liegt immer dann vor, wenn viele Sensoren oder IT-Systeme vorhanden sind, mit denen häufig interagiert wird. Eine besondere Datenquelle, die beides genannte kombiniert und damit in der Rangliste der Datenquellen weit oben steht, benutzen wir alle: Das Smartphone.
Es war eindrücklich zu sehen, was man aus Smartphone Daten alles herauslesen kann. Anhand der Sensoren im Smartphone ist es möglich, verschiedenste Muster zu erkennen. Ob zum Beispiel jemand gerade joggt, im Auto ist, telefoniert oder textet, lässt sich nur anhand des Beschleunigungssensors und des Gyroskops ermitteln. Nimmt man das GPS hinzu, so lässt sich sagen, wo die Person wohnt, arbeitet, einkauft, etc. In den meisten neusten Smartphones ist für die Auswertung der anfallenden Daten ein extra CPU eingebaut.
Warum liefert die Maschine dieses Ergebnis?
Einen Algorithmus auf Daten anzuwenden, um daraus Schlüsse zu ziehen, bedeutet in erster Linie eine Umformung von Daten in ihr Destillat. Präziser aber ist es, eher von einem aus vielen möglichen Destillaten zu sprechen. Mit anderen Worten liefert ein Algorithmus zwar eine Antwort, aber nicht die einzig mögliche. Mit einem anderen Algorithmus gelangt man möglicherweise zu einer anderen Antwort. Das bedeutet, dass die Auswahl des Algorithmus, des mathematischen Modells einen starken Einfluss haben. Doch welcher Algorithmus ist zu wählen, welches mathematische Modell ist das beste?
Diese Frage beantworte man meist durch Tests. Jedes Modell, das zur Auswahl steht, stellt man dabei für das untersuchte spezifische Problem auf den Prüfstand und nimmt eine Leistungsbeurteilung vor. Das „Gewinner“-Modell wird nun benutzt, um basierend auf den Daten Ergebnisse zu liefern. Häufig ist aber das leistungsfähigste Modell eines der kompliziertesten. Daher sind dessen Ergebnisse für einen Menschen nicht so einfach nachvollziehbar. Wäre ein einfacheres Modell nicht vorzuziehen, das zwar in den Tests nicht so gut abschneidet, aber dafür nachvollziehbarere Resultate liefert?
Hier kommt explainable AI (XAI) ins Spiel, die erklärbare künstliche Intelligenz. Das heisst, XAI versucht Algorithmen so zu verändern, dass sie verständlich für einen Anwender sind, ohne dabei grosse Abstriche an der Leistung des Algorithmus zu haben. In diesem Ansatz geht es vor allem darum, das Ergebnis des Modells verständlicher zu machen und nicht das Modell an und für sich. Dies kann man zum Beispiel durch das Angeben des Effekts der einzelnen Faktoren auf das berechnete Ergebnis erreichen. Auch Wenn-Dann Regeln, die erklären, warum dieses Ergebnis und nicht ein anderes resultiert, tragen zur Verständlichkeit bei.
Wozu kann KI/ML verwendet werden?
Auf dem Internet gibt es eine Fülle an Information zur künstlichen Intelligenz. Zum Beispiel, was ein neuronales Netz ist oder wie es funktioniert. Auch für das allgemeinere maschinelle Lernen gibt es viele Quelle, die die Funktionsweise beschreiben.
Es braucht aber nicht nur ein Verständnis über die Funktionsweise, sondern auch ein Verständnis davon, für welche Probleme es geeignet ist. Es geht mehr um die Art der Probleme und weniger um konkrete Anwendungsfälle. Wichtig ist die Fähigkeit, abschätzen zu können, welches der vielen Probleme in einer Firma mit KI/ML am besten gelöst werden kann. Was sind „gute“ Problem für das maschinelle Lernen?
Die drei Aspekte sind vor allem als Teaser gedacht und könnten in Zukunft an Relevanz gewinnen. Die Predictive Analytics World brachte mich zumindest in diesem Sinne auf ein paar interessante Themen.