Inter­view mit HPI-Chef Chri­stoph Mei­nel

„Nur wer die Daten besitzt, kann auch leis­tungs­fä­hige KI-Sys­teme ent­wi­ckeln“

Er ist Chef des Hasso-Plattner-Instituts und einer der führenden deutschen Informatiker. Christoph Meinel über Fortschritte der Künstliche Intelligenz, IT-Sicherheit durch selbstlernende Computer und die Leichtfertigkeit, mit der wir Daten Techkonzernen aus Asien oder den USA überlassen.

Herr Meinel, alle reden von Künstlicher Intelligenz (KI). Können Sie erklären, was der Begriff genau bedeutet?
Christoph Meinel:
Das ist nicht der erste KI-Hype, den wir erleben, und die Bedeutung verändert sich fortwährend. Augenblicklich befinden wir uns in einer Phase, in der das sogenannte Deep Learning unsere KI-Vorstellungen prägt. Wir haben heute superschnelle Computer und massenhaft elektronische Daten, mit denen wir die Maschinen trainieren können. Mit erstaunlichen Erfolgen, etwa in der semantischen Bildanalyse: Maschinen erkennen auf Fotos nicht nur, dass jemand ein Haus betritt, sondern wer die Person ist und wie sie das Haus betritt – ob sie einen Schlüssel hat oder das Schloss aufbricht. Ähnlich erfolgreich sind Sprachanwendungen: Simultanübersetzungen sind immer noch eine besondere Herausforderung, aber generell sind Übersetzungen heute schon sehr gut mithilfe von KI möglich.

Und in der IT-Sicherheit: Wird KI auch schon dort eingesetzt?
Meinel:
Ja, aber im Sicherheitsbereich ist das mit dem Deep Learning schon schwerer. Die Maschinen bräuchten ja zum Lernen Beispielnetzwerke, von denen man sagen kann, dass sie sicher sind. Aber wir haben hier ja immer wieder große Schwierigkeiten zu klassifizieren. Denn schon morgen kann ein Hacker kommen und uns eines Besseren belehren. 

KI lässt sich heute in der Cyberabwehr also noch nicht nutzen?
Meinel:
Doch natürlich – wenn wir den KI-Begriff ein bisschen weiter fassen und von Machine Learning sprechen. Damit lassen sich beispielsweise abrupte Änderungen und Unregelmäßigkeiten innerhalb eines Netzwerkes sehr wohl feststellen und analysieren. Die Voraussetzung dafür ist allerdings, dass das Verhalten des Netzwerkes permanent beobachtet wird und die KI-Anwendung Verhaltensänderungen erkennen kann. Wie ist der momentane Zustand eines Netzwerkes? Wie entwickelt er sich? Ist eine neue Software eingespielt worden? Oder gibt es einen Eindringling von außen? Solche Angriffserkennungssysteme gibt es schon eine ganze Weile.

Lassen sich damit Angriffe völlig verhindern?
Meinel:
Hacker kennen den Stand der Technik. Sie versuchen deshalb nicht abrupt, sondern quasi unterm Radar in ein System einzudringen. Das ist ein Verhaltensmuster, das sich vor allem bei groß angelegten und sehr komplexen Attacken, den sogenannten APTs (Advanced Persistent Threats) beobachten lässt. Bei Stuxnet etwa im Jahr 2010, bei dem iranische Atomanlagen ausgeschaltet wurden. Oder beim Angriff auf den Bundestag 2018. Solche Attacken sind mit den heute im Einsatz befindlichen Methoden nur sehr schwer zu erkennen.

Das klingt wenig hoffnungsfroh.
Meinel:
Wir forschen daran, auch solche Angriffe besser erkennen zu können. Das ist allerdings sehr aufwendig. Es setzt nämlich voraus, dass man nicht nur einzelne Rechner, sondern das ganze Netzwerk beobachtet. Dabei wird jeder Tastendruck, jede Verbindung, jede Interaktion mit einer Anwendung geloggt, also aufgezeichnet. Wenn man diese Aktivitätsdaten mit KI-Methoden auswertet, entdeckt man Veränderungen, die den Spezialisten auf einen Angriff aufmerksam machen können.

Gibt es solch schleichende Angriffe auch auf kleine und mittelständische Unternehmen?
Meinel:
Auch Unternehmen werden auf diese Weise unterwandert, da bin ich ganz sicher. Die Auswahl der Opfer ist dann weniger eine Frage der Größe des Unternehmens als des Interesses. Wie interessant ist das jeweilige Produkt des Unternehmens, seine Kontakte, Strategien oder Entwicklungspläne. Solche sehr komplexen Angriffe sind aber nicht so alltäglich: Wegen des hohen Aufwands kommen dafür eher staatlich beauftragte Hacker infrage.

 

Wem nutzt KI am Ende mehr: dem Angreifer oder dem Verteidiger?
Meinel:
Es ist ein ewiger Wettkampf. Die einen versuchen, Nutzerverhalten zu erlernen und zu imitieren, um sich Zutritt zu verschaffen. Die anderen arbeiten ständig daran, Abweichungen zu erkennen, um Angriffe abzuwehren.

Müssen KI-Systeme überhaupt noch vom Menschen geschützt werden oder können sie das selber?
Meinel:
Am Ende sollte der Mensch das letzte Wort haben. Denn KI-Systeme können natürlich auch von Kriminellen missbraucht werden und lassen sich manipulieren. Die Forschung beschäftigt sich bereits damit, wie selbstlernende Systeme bewusst getäuscht werden können. Nehmen wir als Beispiel eine automatische Verkehrszeichenerkennung im Auto: Wenn man das Verkehrsschild nur minimal verändert – etwa durch einen kleinen Aufkleber –, wird es nicht mehr als Stopp-, sondern vielleicht als Vorfahrtsschild erkannt. 

 

Wer ist verantwortlich, wenn so ein System versagt?
Meinel:
Das ist in der Debatte noch nicht eindeutig geklärt. Grundsätzlich ist ein KI-System menschengemacht und kann zum Guten wie zum Schlechten eingesetzt werden. Eine zentrale Frage ist: Lässt sich erkennen, wie die Künstliche Intelligenz ihre Entscheidung getroffen hat? Ich bin da sehr skeptisch. Denn bei hochkarätiger KI ist es ein bisschen wie beim menschlichen Gehirn: Wir sehen klar die getroffene Entscheidung – wir sehen aber nicht, wie diese getroffen wurde. Es gibt ja Millionen von Möglichkeiten. Wo also ziehe ich die Grenze zwischen dem Menschen, der der Maschine etwas beigebracht hat, und der selbst getroffenen Entscheidung eben dieser Maschine? 

Wie lässt sich das mit unseren Werten vereinbaren – ethisch, moralisch, gesetzgeberisch?
Meinel:
Das ist die Herausforderung, vor der wir stehen. Die Fragen, die wir – getrieben von der technischen Entwicklung – gesellschaftlich klären müssen, betreffen die Eigentumsverhältnisse, die Nutzungsverhältnisse, die Nutzungsregeln. Was nützt das moralisch gesehen beste Datenschutzgesetz, wenn es verhindert, dass zum Beispiel Medizinforschung hierzulande konkurrenzfähig betrieben werden kann? Mehr Sachverstand und mehr kontroverse Diskussion wären hier hilfreich. 

Wie konkurrenzfähig ist denn überhaupt KI made in Europe?
Meinel:
 Es ist wichtig zu verstehen, dass KI nicht ohne Daten funktioniert. Nur wer die Daten besitzt, kann auch leistungsfähige KI-Systeme entwickeln und trainieren. Wenn Deutschland international mitspielen will, sollten wir unsere Daten nicht leichtfertig Unternehmen wie Google, Amazon oder der chinesischen Regierung überlassen. In Deutschland, in Europa brauchen wir Ideen, attraktive Anwendungen und Systeme, wie wir unsere Daten hierbehalten können. Leider sehe ich uns hier aber nicht vorankommen.

Das Gespräch führte Simon Frost.

Zur Startseite
Auch inter­essant