01.07.2024

Künstliche Intelligenz im Arbeitsschutz: Wie sicher sind KI-gesteuerte Sicherheitssysteme?

Chatbots wie z.B. ChatGPT und viele Weiterentwicklungen und Anwendungen der künstlichen Intelligenz (KI) nehmen heute schon großen Einfluss auf die Arbeit in den Betrieben. Was bedeutet das für die Sicherheit der Beschäftigten? Die Hoffnung vieler Akteure ist, dass Sicherheitssysteme durch selbstlernende KI, die komplexe Situationen abbilden kann, deutlich besser werden. Doch die KI-Software kann auch neue Risiken hervorbringen, die es zu beherrschen gilt.

Künstliche Intelligenz

Die Entwicklung des Chatbots ChatGPT bedeutet keineswegs den Startpunkt der künstlichen Intelligenz (KI). Vielmehr beschäftigen sich Experten schon seit vielen Jahren mit diesem Thema. Aber ChatGPT hat die breite Öffentlichkeit für dieses Thema sensibilisiert und auch für die Akteure des Arbeitsschutzes die Frage aufgeworfen, welche Auswirkungen KI auf die Sicherheit und Gesundheit der Beschäftigten haben kann. Im Fokus stehen dabei die Beschaffung, die Implementierung und das Training der KI-Software.

Beschaffung und Anpassung von KI-basierten Sicherheitssystemen

KI-Software kann vor allem bei komplexen Arbeitsprozessen zu einer größeren Sicherheit der Beschäftigten beitragen. Jedoch kann ein unzureichend formulierter Algorithmus, der einer Sicherheitsanwendung zugrunde liegt, neue Gefahren bringen. Diese Fehler im Algorithmus entstehen, weil eine unzureichende Risikoanalyse zugrunde gelegt wird, und können zu einer lückenhaften oder fehlerhaften Beschreibung der Anforderungen an die Sicherheitsanwendung führen.

In der Praxis kann dies bedeuten, dass ein Sicherheitssystem in bestimmten Arbeitssituationen gar nicht oder fehlerhaft funktioniert bzw. ausfällt und es zu gefährlichen Situationen kommt. Deshalb sind die Anforderungen – insbesondere die Risikoanalysen – sorgfältig zu entwickeln und Anforderungen an die KI-Software genau zu formulieren.

Menschliche Denkfehler beim „Füttern“ der KI vermeiden

Grundsätzliche menschliche Denkfehler finden sich auch in KI-Systemen wieder. Dazu gehört z.B. der „Survivor-Bias“, der fehlerhafte Verallgemeinerungen in menschlichen Denkprozessen beschreibt. Bezogen auf den Arbeitsschutz kann das heißen, dass Arbeitsbereiche oder Prozesse als sicher gelten, weil schon lange Zeit kein Arbeitsunfall passiert ist. Dieser Denkfehler kann dazu führen, dass im Pflichtenheft für eine KI-Software diese Sicherheitsthemen nicht benannt sind und deshalb auch nicht programmiert und trainiert werden.

Ein anderer Denkfehler ist der allgemeine Glaube, dass selbstlernende KI-Software automatisch alle relevanten Sicherheitsthemen erfasst und damit Ausfälle von Sicherheitssystemen unmöglich sind. Dies kann zu einer Nachlässigkeit in Sicherheitsfragen führen, weil sich die Beteiligten auf die vollständige Funktionsfähigkeit der Sicherheitssysteme verlassen. Wichtig ist deshalb stets, auch KI-gesteuerte Sicherheitssysteme zu testen und kritisch zu hinterfragen.

Korrekte Implementierung von KI-Software

Eine weitere Unsicherheit kann durch die geringe Erfahrung, die sowohl interne IT-Beschäftigte als auch externe IT-Dienstleister mit Software aktuell haben, entstehen. Insbesondere muss eine korrekte Implementierung einer Software erfolgen, da davon das zielführende Training und die Qualität der gesteuerten Sicherheitssysteme abhängt.

Hier ist zu beachten, dass KI-Methoden häufig sehr komplexe Probleme bearbeiten, deren Programmierung und Steuerung herausfordernd sein können. Erschwerend kommt hinzu, dass ein „Learning by doing“ nur schwer möglich ist, da die Gründe für Fehler aufgrund der komplexen Entscheidungsfindung der künstlichen Intelligenz häufig nicht nachvollzogen werden können. Aus Sicht des Arbeitsschutzes ist insbesondere zu klären, wie eine korrekte Implementierung sichergestellt werden kann und ob dafür die Qualifikationen des damit beauftragten Personals ausreichend sind.

Sicherstellung des korrekten KI-Trainings

KI-Software ist dann sicher, wenn sie in allen denkbaren sicherheitsrelevanten Arbeitssituationen zu 100 % die richtigen Entscheidungen trifft. Dazu muss die Software für diese sicherheitsrelevanten Arbeitssituationen trainiert werden. Damit das passiert, sind die Arbeitssituationen, in denen Sicherheit hergestellt werden soll, zu definieren (z.B. das Bearbeiten von Vorprodukten an einer Maschine). Ist die Maschine z.B. für eine bestimmte Art von Vorprodukten oder selten vorkommende Prozesse nicht trainiert, arbeitet sie in diesen Fällen fehlerhaft und trifft u.U. in einer gefährlichen Situation die falsche Entscheidung. Aus Sicht des Arbeitsschutzes ist hier bei der Anschaffung von KI-gesteuerten Maschinen zu fragen, für welche Anwendungen konkret sie trainiert wurden und ob alle möglichen Arbeitssituationen berücksichtigt sind.

So testen Sie KI-Software

  • Arbeitet das System oder die Anwendung in allen erwartbaren Umgebungsbedingungen zuverlässig und funktioniert es bzw. sie korrekt?
  • Arbeitet das System auch im Falle von Störungen und nicht vorhersehbaren Einflüssen sicher?
  • Ist das System gegen Manipulationen von außen geschützt?
  • Sind die Handlungen und Ergebnisse der KI-Software so weit wie möglich transparent und nachvollziehbar?
  • Wenn KI-Systeme mit Menschen interagieren oder kooperieren, sind deren Handlungen stets vorhersehbar?
  • Ist bei der „Fütterung“ der KI mit Daten der Datenschutz gewährleistet?
  • Schützt das KI-gesteuerte System oder die KI-gesteuerte Anwendung Beschäftigte vor Fehlanwendungen und vorhersehbarem Missbrauch?
  • Werden alle relevanten Prozesse und Arbeitssituationen trainiert?
Autor*in: Martin Buttenmüller