Künst­li­che Intel­li­genz

Sicher­heit durch Inno­va­tion schaf­fen

Es gibt einen breiten gesellschaftlichen Konsens, dass man nicht alles tun sollte, was dank künstlicher Intelligenz (KI) möglich wäre. Denn auch für selbstlernende Algorithmen müssen ethische Regeln gelten. Die EU-Kommission hat daher im April einen Regulierungsvorschlag vorgelegt mit dem Ziel, einheitliche Standards zu schaffen, die den Schutz der Persönlichkeitsrechte aller Bürger gewährleisten und gleichzeitig Innovation ermöglichen. „Der Großteil der KI-Anwendungen ist unkritisch“, sagte Kilian Gross, zuständiger Referatsleiter der EU-Kommission, in einer digitalen Diskussionsrunde des GDV. 

Wichtig sei bei Einsatzbereichen mit geringem Risiko vor allem Transparenz: Jeder habe das Recht, zu erfahren, ob er mit einem Chatbot spricht oder mit einer realen Person – um sich gegebenenfalls dagegen entscheiden zu können. Lediglich zehn bis fünfzehn Prozent der KI-Anwendungen seien der Hochrisikokategorie zuzuordnen und sollten reguliert werden, etwa die Auswertung biometrischer Daten in Echtzeit. Wolfgang Hauner, Head of Group Data Analytics bei der Allianz, begrüßte den Vorschlag als „Schritt in die richtige Richtung“, der zur Akzeptanz von KI beitragen werde. Gleichzeitig warnte er vor einer Überregulierung: „Wir müssen aufpassen, dass zusätzliche Regeln nicht zum Innovationshemmnis werden.“

Auch inter­essant