Positionen-Magazin
Kolumne von Chris­tin Schä­fer

Künst­li­che Intel­li­genz: Nichts für Gläu­bige

Was ist an künstlicher Intelligenz intelligent? Was an neuronalen Netzen neuronal? Wir sollten uns von Algorithmen nicht verrückt machen lassen: Denn ohne den Menschen sind sie nichts, schreibt Christin Schäfer in der Positionen-Kolumne.

Wenn auf Veranstaltungen, in Zeitungen oder im Fernsehen die Begriffe „künstliche Intelligenz“ (KI) oder „neuronale Netze“ fallen, ist Streit programmiert. Die Optimisten sehen in angeblich „selbstlernenden“ Systemen eine großartige Zukunft: selbstfahrende Autos, Roboter, die uns in Fabriken und Altersheimen zur Hand gehen. Eine schöne neue Welt. Die Pessimisten dagegen fühlen sich bestätigt, wenn Microsofts „intelligenter“ Chatbot Tay von Nutzern zum Rassisten „angelernt“ wird. Sie fürchten, dass durch diese Technologie die Welt bald von einem superintelligenten Computer beherrscht wird, der alle ausschaltet, die sich ihm in den Weg stellen – wie im Science-Fiction-Epos „2001 – Odyssee im Weltraum“. 

Nötig ist eine nüchterne Debatte über digitale Technologien

Beides ist überzogen. Denn sowohl der Glaube an Erlösung als auch an Dystopien verhindert eine nüchterne Debatte über digitale Technologien und das Schaffen eines rechtlichen Rahmens, in dem sie sicher angewendet werden können. Zum Vorteil aller. Als „künstliche Intelligenz“ werden meist „neuronale Netze“ bezeichnet, die gar nicht so spektakulär sind: Sie sind Funktionen, die durch das statistische Schätzen der unbekannten Parameter zu eindeutigen Handlungsanweisungen werden. Identische Eingaben führen zu identischen Ergebnissen. Im Digitalen gibt es keinen Ermessensspielraum. 


Doch Algorithmen sind Werkzeuge, ihre Ziele legen Menschen fest. Wir entwickeln sie. Wir entscheiden, wo wir sie einsetzen. Wir definieren den Wert, ab dem etwa der Mitarbeiter einer Kfz-Versicherung bei einem Schaden genauer hinschauen sollte. 

Algorithmische Systeme dienen als Projektionsfläche für Allmachts- und Ohnmachtsgefühle 

Als wesentliche Bausteine der digitalen Automatisierung sorgen algorithmische Systeme für Effizienz, mehr nicht. Dennoch gewinnt man den Eindruck, dass sie Gegenstand quasireligiöser Verehrung oder Verdammung sind. Sie scheinen als Projektionsfläche für Allmachts- wie Ohnmachtsgefühle zu dienen. Und während die nüchternen Stimmen vieler Experten kaum wahrgenommen werden, finden extreme Ansichten viel Gehör. 

Dabei gibt es keinen Grund zu solcher Aufregung. Viele algorithmische Systeme sind längst im Einsatz, vielfach als kleine Helfer im Verborgenen, und durchaus unter Kontrolle. Auch für Systeme, die neuronale Netze nutzen, müssen wirksame Kontrollmechanismen implementiert werden. Dabei sollten drei wesentliche Grundanforderungen berücksichtigt werden: Wahrhaftigkeit, Korrektheit, Fairness. Zur Wahrhaftigkeit gehört, dass etwa ein Algorithmus zur Risikoeinschätzung, dem Scoring, wirklich die Wahrscheinlichkeit eines Kfz-Unfalls ermittelt. Prämiennachlässe dürfen nur Verhalten belohnen, das nachweislich Risiken senkt, und nicht Marketingzwecken dienen. 

Und selbstverständlich sollte ein Algorithmus korrekt rechnen und richtig implementiert sein. Zur Fairness zählt, dass alle Kunden gleich behandelt werden und ihnen eine Wahl bleibt zwischen Angeboten, die datenintensiv sind, und solchen, die mit wenigen Daten auskommen. Wer diese Prinzipien beherzigt, kann gar nicht genug Algorithmen einsetzen, denn sie machen das Leben besser für Versicherte – und für Versicherer effizienter. Ganz ohne Glauben – mit Sicherheit. 


Illustration: Jacqueline Urban

Auch inter­essant