Frage an KI: Hund oder Wolf?

Künstliche Intelligenz (KI) ist weltweit auf dem Vormarsch. Immer mehr Unternehmen setzen sie ein. Was kann sie und was kann sie nicht?

Die Aufgabe war scheinbar einfach. Ein KI-System sollte entscheiden, ob auf einem Foto ein Hund oder ein Wolf zu sehen ist. Das System entschied sich dafür, dass der Hund, in diesem Fall ein Husky, ein Wolf sei. Eine Fehlentscheidung. Wie konnte das passieren?

Man muss der KI erst einmal zugutehalten, dass das bei bestimmten Hunderassen keine leichte Aufgabe ist. Besonders beim Husky. Die Schlittenhunde sehen dem Wolf nun einmal sehr ähnlich.

UND DENNOCH VERSAGTE DAS KI-SYSTEM SCHLUSSENDLICHFRAGE

Das System war vorher mit vielen Fotos von Hunden und Wölfen trainiert worden. Zu jedem Ergebnis, das es im Lernverlauf lieferte, erhielt es ein Feedback, wie gut es seine Aufgabe gelöst hatte. Dadurch konnte das System kontinuierlich seine Erkennungsraten verbessern. Es wurde immer sicherer in seinen Entscheidungen. Und dennoch versagte es ­schlussendlich beim Husky-Foto. Die Frage war, warum die falsche Entscheidung getroffen wurde. Das nachzuvollziehen war nicht einfach, denn im Kontext maschinellen Lernens (ML) gibt es das „Black-Box-Phänomen“, das heißt, die KI kommuniziert ihren Lösungsweg nicht, ihre Entscheidungsfindung ist intransparent.

Nach einer umfangreichen Analyse fanden die Programmierer heraus, dass das System gar nicht die Tiere selbst verglichen hatte, sondern die Umgebung, in der sie gezeigt wurden, zur Entscheidungsfindung heranzog. Das System hatte somit einen cleveren Umweg gewählt, denn es war nur mit Wolfsbildern trainiert worden, auf denen Schnee zu sehen war. Damit war ihm – zumindest scheinbar – klar: Schnee ist Wolf, kein Schnee ist Hund. Der Husky auf dem fraglichen Bild stand ebenfalls im Schnee. Mag das Beispiel zum Schmunzeln anregen, bei einer autonomen Autofahrt möchte man diese spezielle KI nicht an Bord haben.

Frage an KI: Hund oder Wolf
Illustration:shutterstock.com/Uthai pr

WAS KÜNSTLICHE INTELLIGENZ IST, LÄSST SICH NICHT EINDEUTIG BEANTWORTEN

Was ist eigentlich künstliche Intelligenz? Diese Frage lässt sich ebenso wenig eindeutig beantworten wie die Frage, was menschliche „Intelligenz“ denn sei. Auch da gibt es keine verbindliche Definition. Für die Europäische Kommission beispielsweise sind KIs „von Menschen entwickelte Software- oder Hardwaresysteme, die in der physischen oder digitalen Dimension agieren, indem sie ihre Umgebung durch Datenerfassung wahrnehmen und die gesammelten strukturierten oder unstrukturierten Daten interpretieren. Durch die Interpretation beziehungsweise die Verarbeitung der aus diesen Daten abgeleiteten Informationen treffen sie die Entscheidung über die besten Maßnahmen zur Erreichung des vorgegebenen Ziels.“

Diese Definition bezieht sich auf ein spezielles Gebiet der KI-Forschung, das als maschinelles Lernen bezeichnet wird. Es steht für das Lernen aus Erfahrung. Es ist die heute mit Abstand relevanteste Form der KI für Unternehmen im kommerziellen Gebrauch. Ein solches KI-System interpretiert bereits vorhandene Daten und trifft daraufhin Entscheidungen.

Aktuell versucht man KI-Systeme zu entwickeln, die ihre Entscheidungen nachvollziehbar und transparent machen. Das ist ein entscheidender Faktor bei der Akzeptanz von KI. Die meisten potenziell KI-affinen Entscheider können sich den Einsatz einer KI in ihrem Unternehmen nur vorstellen, wenn diese nicht weitgehend autonom agiert, sondern den Menschen nur teilweise entlastet. Dahinter steckt die Angst, dass sich autonom handelnde Systeme, deren Vorgehensweisen man nicht kennt, dem menschlichen Zugriff entziehen könnten. Eine transparente Entscheidungsfindung, bei der man nötigenfalls auch eingreifen kann, könnte viele dieser Befürchtungen entkräften.

KI-SYSTEME MÜSSEN TRAINIERT WERDEN

Das Husky-Beispiel zeigt vor allem eines: Entscheidend ist, wie die KI trainiert wird. Die Ergebnisse sind immer nur so gut wie das Trainingsmaterial. Warum braucht KI überhaupt ein Training? Um das zu verstehen, muss man sich von der Vorstellung lösen, dass man ein KI-System auf dem Rechner startet, ihm danach irgendeine Aufgabe stellt und erwartet, es würde schon etwas Nützliches dabei herauskommen. KI als maschinelles Lernen kann aber nur dann funktionieren, wenn man eine spezifische Fragestellung programmiert und dem System eine große Zahl von dazu passenden Daten – hier Fotos von Hunden und Wölfen – zur Verfügung stellt.

Aber es genügt eben nicht, eine beliebig große Menge von Fotos herzunehmen. Diese müssen auch fehlerfrei und repräsentativ sein. Fotos von Wölfen, auf denen im Hintergrund ausnahmslos Schnee zu sehen ist, sind weder repräsentativ noch ­fehlerfrei.

KI ist mittlerweile in der Arbeitswelt angekommen, aber längst nicht flächendeckend. Nach einer repräsentativen Umfrage des Branchenverbandes Bitkom aus dem Jahr 2020 sehen zwar 73 Prozent der befragten Unternehmen KI als wichtigste Zukunftstechnologie an. Jedoch hatte zum Zeitpunkt der Umfrage nur jedes siebte Unternehmen in KI-Technologie investiert. Die Studie „PAiCE“, durchgeführt durch das iit-Institut für Innovation und Technik im Auftrag des Bundesministeriums für Wirtschaft und Energie (BMWi), sieht ein enormes Wachstumspotenzial für diese Technologien. Die Auswirkungen sind jetzt schon spürbar. So würde nach den Berechnungen der Studie ein Drittel des prognostizierten zukünftigen Wirtschaftswachstums im produzierenden Gewerbe auf KI-getriebene Verfahren entfallen. Das entspräche bis 2023 einer zusätzlichen Bruttowertschöpfung von rund 32 Milliarden Euro.

KI IST IN DER LAGE, TRANSAKTIONEN ZU ERKENNEN, IN DENEN EIN MISSBRAUCH ZU VERMUTEN IST

Wie KI heute in den Unternehmen eingesetzt wird, zeigen Beispiele. So hat der Online-Bezahldienst PayPal die Betrugsprävention (engl. Fraud Detection) mithilfe von KI automatisiert. KI ist in diesem Fall in der Lage, Transaktionen zu erkennen, in denen ein Missbrauch zu vermuten ist. Ziel ist es, einen besseren Schutz für die PayPal-Nutzer zu gewährleisten. Durch die Analyse diverser Parameter ist es möglich, verdächtigen von unverdächtigem Zahlungsverkehr zu unterscheiden.

Wenn der Algorithmus beispielsweise einen Nutzer erkennt, der innerhalb einer Woche fünf Einkäufe aus fünf unterschiedlichen Ländern getätigt hat, dann wäre es angebracht, sich diesen Fall näher anzusehen. Ist der KI allerdings bekannt, dass der Nutzer als Pilot bei einer Fluggesellschaft tätig ist, dann wird der Fall nicht mehr als verdächtig bewertet und die Durchführung der Transaktionen zugelassen.

Frage an KI: Hund oder Wolf
Illustration: shutterstock.com/Vladimir Vihrev & Liebchen+Liebchen GmbH

DIE ERMITTLUNG VON SCHADENERSATZSUMMEN WIRD DURCH KI AUTOMATISIERT

In der Versicherungsbranche konnte die Allianz durch ihre Schaden-Express-App den Prozess der Bewertung von Kfz-Schäden erheblich beschleunigen. Der Kfz-Fahrer kann ein Foto vom Fahrzeugschaden erstellen und an die Allianz schicken. Die KI vergleicht den vorliegenden Schaden mit vergangenen Schäden, die in einer zentralen Datenbank abgespeichert sind. Auf Basis der Vergangenheitsdaten kann der Algorithmus die Entschädigungssumme in Echtzeit einschätzen. Diese wird dann umgehend an den Fahrer übermittelt. Ist der Fahrer mit der Summe einverstanden, bekommt er sein Geld überwiesen. Somit wird die Ermittlung von Schadenersatzsummen im Versicherungsgeschäft mittels KI erheblich automatisiert.

Im Gesundheitsbereich entstehen zum aktuellen Zeitpunkt viele neue Geschäftsmodelle, um Patienten individuell zu behandeln. Beispielsweise ist es möglich, durch vorhersagende Analyse (engl. Predictive Analytics) die Wirkung von Medikamenten auf Patienten besser vorherzusagen.

Auch dieses Verfahren verwendet historische Daten, um zukünftige Ereignisse zu prognostizieren. Auf Basis dieser Datenanalysen von Patientenprofilen kann KI das Medikament mit dem Wirkstoff auswählen, der für einen bestimmten Patienten geeignet ist und die bestmögliche Heilung verspricht.

Auf Basis der Vergangenheits­daten kann der Algorithmus die Entschädigungssumme in Echtzeit einschätzen

DIE BUNDESREGIERUNG STELLT BIS 2025 FÜNF MILLIARDEN EURO BEREIT

Nicht zuletzt verwenden Online-Dienste wie ­Youtube KI-Systeme. Youtube will verhindern, dass beispielsweise verbotene oder das Urheberrecht verletzende Inhalte hochgeladen werden. Nun werden pro Minute rund 400 Stunden Videomaterial auf die Plattform hochgeladen. Man kann sich vorstellen, dass die Sichtung dieses Materials für menschliche Arbeitskräfte nicht mehr zu leisten ist. Die KI schafft das bereits während des Uploads.

Auch die Politik hat mittlerweile erkannt, wie ­wichtig KI für den Wirtschaftsstandort Deutschland sein wird. Im November 2018 ­verabschiedete die Bundesregierung die nationale KI-Strategie mit dem Ziel, die KI-Entwicklung zu stärken und Deutschlands Position im internationalen Wettbewerb zu stärken. Im Dezember vergangenen Jahres wurde die KI-Strategie novelliert beziehungsweise fortgeschrieben. Neue Anregungen und Erkenntnisse aus der Pandemiebekämpfung, aus der Nachhaltigkeitsdebatte sowie aus dem Umwelt- und Klimaschutz machten die Weiterentwicklung der deutschen KI-Strategie nötig. Die finanziellen Mittel, die die Bundesregierung bereitstellt, werden bis 2025 von drei auf fünf Milliarden Euro angehoben.

Im Februar 2020 hat die Europäische Kommission als Bestandteil ihrer Digitalstrategie ein Weißbuch zur KI veröffentlicht. Mit ihrem Vorschlag will die Kommission einerseits die Nutzung von KI fördern, andererseits die mit der Technologie einhergehenden Risiken eindämmen. Zentrales Anliegen des Weißbuchs ist es, das Vertrauen der Gesellschaft in die Möglichkeiten von KI zu stärken.

Dazu ist eine europäische Ordnungspolitik für KI nötig. Alle Akteure brauchen demnach Planungs- und Rechtssicherheit und müssen KI-Anwendungen vertrauen können. Die menschenzentrierte und nachvollziehbare Entwicklung und Anwendung von KI-Systemen auf der Basis eines geeigneten Rechtsrahmens soll daher wesentlicher Bestandteil und damit Markenzeichen einer künstlichen Intelligenz „made in Europe“ sein.

DER EINSATZ VON KI BRAUCHT EINE GESAMTEUROPÄISCHE ORDNUNGSPOLITIK

KI-basierte Produkte müssen also genauso sicher sein wie jedes andere Produkt auch. KI-basierte Systeme und Dienstleitungen müssen in der Praxis transparent, nachvollziehbar und unter menschlicher Kontrolle stehen. Nur so können Erwerbstätige sowie Verbraucherinnen und Verbraucher Vertrauen in KI-Systeme entwickeln.

KI-BASIERTE PRODUKTE MÜSSEN GENAUSO SICHER SEIN WIE JEDES ANDERE PRODUKT AUCH

Am Ende darf man aber eines nicht vergessen: So gut viele KI-Systeme mittlerweile arbeiten, wirklich intelligent sind sie nicht. Zumindest wenn man sie mit menschlicher Intelligenz vergleicht. Denn KI besitzt keinen Verstand. Ist sie schlecht programmiert oder mit unzureichenden Daten gefüttert, kommt sie zu falschen Ergebnissen. Dabei weiß die KI aber weder, dass ihre Schlussfolgerungen falsch sind, noch weiß sie, warum sie falsch sind. Sie kann nur Antworten auf die jeweiligen Fragen geben, für die sie programmiert wurde.

Maschinelles Lernen ist heute nicht mehr und nicht weniger als ein Verfahren, spezifisch gestellte Aufgaben anhand von großen Datenmengen besonders effizient zu lösen. KIs können Daten besser, genauer und schneller verarbeiten als Menschen –
wirklich verstehen können sie die Zusammenhänge nicht.

Text: Franz Roiderer