06.03.2023

Künstliche Intelligenz (KI) – darf eine EU-Verordnung den Einsatzbereich vorschreiben?

Die KI (Künstliche Intelligenz) oder auch AI (artificial intelligence) ist schon längst in unserem Alltag angekommen: sie zeigt uns in Navigationssystemen die optimale Route an, wird in der medizinischen Krebsdiagnostik eingesetzt, kommt bei Suchmaschinenanfragen zum Einsatz und ist Bestandteil von Staubsaugerrobotern. Nur gibt es bisher nur eine unzureichende Regulierung für KI-Systeme. Hier will die EU nachbessern – doch kann eine EU-Richtlinie den Einsatzbereich künstlicher Intelligenz vorschreiben?

Der digitale Wandel macht auch vorm Maschinenbau nicht Halt und die Branche sollte sich nicht vor der digitalen Transformation verschließen.

Was ist künstliche Intelligenz (KI)?

Dass es derartige Probleme bei der Definition und Einschätzung der Fähigkeiten von KI gibt, ist erst einmal nicht ungewöhnlich. Eine trennscharfe, allgemeine Definition gibt es nämlich nicht. Aber man kann sich einer recht soliden Beschreibung trotzdem über Zwischenschritte annähern. In Deutschland wird z.B. gerne zwischen starker und schwacher KI unterschieden.

Starke KI

Dabei meint starke KI das, was der breiten Öffentlichkeit aus Science-Fiction-Filmen bekannt ist: intelligente Maschinen, die auf Probleme jeglicher Art mit Lösungsvorschlägen reagieren können. Diese Art situativer Flexibilität und genereller Leistungsfähigkeit bleibt allerdings auch auf absehbare Zeit nur Bestandteil fiktiver Geschichten.

Schwache KI

Die schwache KI hingegen ist schon in diverse Bereiche des Alltags verwoben: komplexe Algorithmen, die lösungsorientiert auf spezifische Problemstellungen reagieren können, die sie vorher selbstständig bewältigt haben. Diese Art der KI verfügt über kein eigenes Bewusstsein und daher auch nicht über Formen grundlegender Empathie.

Was unterscheidet KI von herkömmlichen Programmen?

Bisher wurden Codes als Satz diverser Anweisungen geschrieben, die nach einer Wenn-dann-Logik, also regelbasiert funktionieren. Bei einer künstlichen Intelligenz wird nun nicht jeder dieser einzelnen Schritte durch den Code vorgegeben, sondern es wird ein Algorithmus geschrieben, der autonom befähigt ist, diese Schritte zu erstellen. Dabei schreibt eine KI normalerweise keinen eigenen Code, sondern verändert lediglich bestimmte Parameter des eigenen Codes, um Datenmuster zu finden.

Welche Herausforderungen ergeben sich daraus?

Probleme ergeben sich nun daraus, dass diese künstlichen Intelligenzen bei ihren Lösungsversuchen keine ethischen Gesichtspunkte berücksichtigen, sofern diese nicht umfassend in den Algorithmus integriert wurden. Sie gehen ausschließlich zweckrational vor. Zudem ist die KI auf grundlegender Ebene noch auf Hilfestellung durch den Menschen angewiesen, da sie erst einmal trainiert werden muss, um Regelmäßigkeiten zu erkennen.

Ein demokratiegefährdendes Nebenprodukt der Zweckrationalität von KI-Systemen auf sozialen Netzwerken ließ sich über die letzten Jahre beobachten: Inhalte werden dort in der Distribution nach dem Grad der Interaktion organisiert, und aufgrund dieser Interaktion wird Nutzern wiederum vergleichbarer Content vorgeschlagen. Was vielleicht bei Themen der Inneneinrichtung oder lustigen Clips unproblematisch scheint, entwickelt im politischen Bereich eine teils gefährliche Eigendynamik, wenn künstliche Intelligenzen auf diese Weise eine zunehmende Radikalisierung antreiben.

Eine neue KI-Verordnung soll KI in sämtlichen Lebensbereichen zu regulieren. Ob das allerdings auch funktioniert, ist eine andere Frage.

Was regelt die EU-Verordnung zu künstlicher Intelligenz?

 Laut der Verordnung sollen für KI-Systeme zusätzliche Vorschriften gelten, die je nach Kategorie sehr umfangreich ausfallen oder auch gar nicht reguliert werden. Diese Kategorien werden dabei risikobasiert festgelegt und richten sich nach dem Gefahrenpotenzial, das die Systeme in Bezug auf Gesundheit, Sicherheit und Grundrechte der Menschen besitzen. KI-Systeme mit inakzeptablem Risiko sollen sogar verboten werden, bei hohem Risiko werden dann diverse Vorschriften zugeschaltet, bei begrenztem Risiko müssen lediglich bestimmte Transparenzpflichten eingehalten werden, und bei geringem bis minimalem Risiko entfallen Regulationen.

KI-Systeme mit inakzeptablem Risiko

Zum Bereich der nicht annehmbaren Risiken zählt z.B. eine flächendeckende biometrische Gesichtserkennung im öffentlichen Raum. Solche Formen der KI-Verwendung, die zu lückenlosen Überwachungsszenarien führen könnten und dem oder der Einzelnen das Recht auf Anonymität entziehen, sollen verboten werden, wobei es auch hier Ausnahmen gibt: Bei der Verbrechensbekämpfung und im Falle der Bedrohung der nationalen Sicherheit darf die KI-basierte Gesichtserkennung dennoch eingesetzt werden. Auch militärische KI-Systeme sind von den Regeln ausgenommen.

KI-Systeme mit hohem Risiko

Hochrisikosysteme sind hingegen welche, die in den Bereichen der Grenzkontrolle, der Bildung, des Arbeitsmarkts oder der Strafverfolgung eingesetzt werden. Auch Systeme, die bei Bewerbungsverfahren nach Eignungsgrad für die Stelle Personen vorsortieren, sind davon betroffen. Bevor KI-Systeme dieser Art eingesetzt werden, sieht die Verordnung vor, dass die Anbieter sicherstellen, dass die Sicherheitskriterien erfüllt werden.

KI-Systeme mit begrenztem Risiko

KI-Systeme mit begrenztem Risiko finden sich u.a. im Gaming-Bereich, um Spielerprofile anzulegen und auszuwerten, in den Vorschlags-Algorithmen von Plattformen oder auch den Chatbots, die auf vielen Internetseiten mittlerweile die ersten Ansprechpartner im Kundensupport sind. Nach Art. 52 der Verordnung müssen diese Systeme bestimmte Transparenzpflichten erfüllen, die beinhalten, dass bei Interaktion mit Menschen sichergestellt wird, dass diese erfahren, dass sie es mit einer KI zu tun haben.

Fazit

Die Umsetzung der EU-Verordnung krankt an diversen Stellen, die sowohl im ethischen Bereich offensichtlich werden als auch in konkreten Fragen zur Datensicherheit oder zur Einbindung in globalisierte Wirtschaftsstrukturen. So kann die Auflage zur unternehmensinternen Kontrolle der Sicherheitsbestimmungen für große Unternehmen die Möglichkeit bieten, gezielt Methoden zu entwickeln, die Schlupflöcher ausnutzen. Gerade bei kleineren Unternehmen entsteht dahingegen die Gefahr, durch aufwendige Prüf- und Dokumentationspflichten maßgeblich darin behindert zu werden, Zugang zum Markt zu finden. Eine unabhängige Expertenstelle, die zur Prüfung eingesetzt wird, würde in beiden Fällen Abhilfe schaffen.

Doch sollten diese Bestimmungen nur aufgrund von wirtschaftlichem Konkurrenzdruck aufgeweicht werden? Für viele Kritikerinnen und Kritiker ist die Verordnung ohnehin schon zu stark an wirtschaftlichen Interessen orientiert und vernachlässigt Bürgerinteressen und Gefahrenpotenziale.

Schlussendlich führt kein Weg daran vorbei – es muss sowohl auf Staatsebene als auch übergreifend in der EU unter Zuhilfenahme von divers aufgefächerten Fachkompetenzen eine sorgsam erdachte rechtliche Grundlage geschaffen werden, die sich nicht tendenziös in eine Richtung neigt und sicherlich nicht vor dem internationalen Konkurrenzdruck hinsichtlich eines Innovationswettrennens einknicken darf.

Den kompletten Fachbeitrag mit weiterführenden Informationen finden Sie in unserem Praxismodul „CE von A bis Z“.

Autor*in: Stephan Gräfe