act legal Publikationen

Wenn Roboter entscheiden!

Keine neue Erfindung des 21. Jahrhunderts, aber schon seit Alan Turings Frage "Können Maschinen denken?" in den 1950er Jahren ein Begriff.

Der Roboter als „Chef“

„Mein Chef ist ein Roboter“, mussten sich die Mitarbeiter der Investmentfirma Deep Knowledge Ventures in Hong Kong gedacht haben, als ein Computer-Algorithmus als vollwertiges Mitglied in den Vorstand berufen wurde. In der Tat erobern Roboter im Rekordtempo unsere Arbeitswelt. Sie kommissionieren Waren, arbeiten an Fließbändern Hand in Hand mit menschlichen Kollegen, vertreiben Produkte im Internet und bestimmen den Hochfrequenzhandel. Der technische Fortschritt ermöglicht es Arbeitgebern, intelligente Systeme nicht mehr nur als Ergänzung menschlicher Arbeitskraft einzusetzen, sondern diese in bestimmten Bereichen, auch in der Vorgesetztenfunktion, zu ersetzen. Es ist daher höchste Zeit, sich mit den (arbeits-) rechtlichen Rahmenbedingungen zu beschäftigen.

Einigkeit besteht, dass die Bestellung eines Computer-Algorithmus zum Aufsichtsrat oder Vorstand einer deutschen Aktiengesellschaft (noch) nicht möglich ist (§§ 76 Abs. 3 Satz 1, 100 Abs. 1 Satz 1 AktG). Keine Zukunftsmusik ist indes die Übernahme der Vorgesetztenfunktion durch einen Roboter. So lässt der japanische Elektronikkonzern Hitachi in seinen deutschen Niederlassungen Arbeitsanweisungen durch intelligente Systeme ausführen. Rechtlich steht einer Delegation des Direktionsrechts vom Menschen auf eine Maschine nichts entgegen, wenn der Arbeitgeber durch geeignete Programmierung sicherstellt, dass vor Erteilung der Weisung die wesentlichen Umstände eines Einzelfalles abgewogen sowie betroffene Interessen angemessen berücksichtigt werden (§§ 315 BGB, 106 GewO). Die einzig ersichtliche Grenze findet sich für den „Roboter-Chef“ in Artikel 22 Abs. 2 DSGVO, wonach Entscheidungen, die für den Betroffenen „rechtliche Wirkungen“ oder „erhebliche Beeinträchtigungen“ nach sich ziehen, nicht auf einer automatisierten Verarbeitung personenbezogener Daten erfolgen dürfen. Feuern darf der Roboter-Chef also (noch) nicht. Realität und nach gründlicher datenschutzrechtlicher Bewertung rechtlich zulässig ist es, dass Menschen von Algorithmen vorbereitete Personalentscheidungen, insbesondere bei vollautomatisierten Bewerbungsverfahren und Auswahltools, vollziehen. („People Analytics“).

Roboter ersetzen also Arbeitnehmer. Sind sie aber auch als Arbeitnehmer im Arbeits- und Gesellschaftsrecht zu qualifizieren? Zählen sie bei den Schwellenwerten mit, nach denen sich richtet, ab wie vielen Arbeitnehmern ein mitbestimmter Aufsichtsrat zu implementieren ist, wie groß der Betriebsrat zu sein hat oder ob das Kündigungsschutzgesetz Anwendung findet? Sind Roboter in der Sozialauswahl gleichrangig neben menschlichen Arbeitnehmern zu berücksichtigen? Auch wenn dies einige Autoren verlangen, ist es jeweils zu verneinen. Alle Schwellenwerte setzen (noch) eine natürliche Person voraus und die Sozialauswahl würde ad absurdum geführt. Anstelle der Kündigung von zwei Arbeitnehmern dürfte in der Regel eher der „junge“ Roboter ohne Unterhaltspflichten sozial weniger schützenswert sein. Dies würde die grundrechtlich geschützte unternehmerische Freiheit, Arbeitsabläufe durch den Einsatz moderner Technologien zu optimieren, über die Hintertür wieder aushebeln. Roboter bleiben Sachen.

„Haftet“ die Maschine?

Folglich haften selbst menschenähnliche Roboter nicht für durch sie verursachte Verletzungen von Mitarbeitern/Kunden und/oder eine Rufschädigung des Unternehmens. Für die Ermittlung des Verantwortlichen kommt es darauf an, ob der entstandene Schaden von einer Fehlprogrammierung oder einer Fehlbedienung des Roboters herrührt. Der Gesetzgeber hat bisher noch nicht gehandelt. Diskutiert wird aktuell, ob der Einsatz intelligenter Systeme unter dem gesetzlichen Vorbehalt des Abschlusses einer Pflichtversicherung stehen sollte. Zu empfehlen sind insbesondere folgende Vorkehrungen: Durchführung von Gefährdungsbeurteilungen (§ 5 ArbSchG), Beachtung der in der Betriebssicherheitsverordnung sowie der ISO-Norm 10218-2011 genannten Sicherheitsvorkehrungen und Einbindung des Betriebsrats (§§ 90, 87 Abs. 1 Nr. 7 BetrVG).

Robotik-Policy erforderlich!

Aber wie kontrolliert ein Vorstand/Aufsichtsrat selbstlernende Systeme, die auf dem Prinzip „Trial-and-Error“ funktionieren und sich automatisch selbst verändern? Wie handelt ein Vorstand pflichtgemäß auf Basis „angemessener Informationen“, wenn er keinen Einblick in die BlackBox hat, die sich zwischen Input- und Output-Ebene befindet? Zu erwarten ist von Unternehmensleitern, dass sie in jedem Einzelfall die potenziellen Risiken abwägen, engmaschig Entwicklungen der von ihnen eingesetzten Roboter überwachen und Compliance-Systeme zum Schutz vor (Rechts-)Verletzungen implementieren. Es erscheint ferner rechtlich geboten, die vorgenannten juristischen Rahmenbedingungen in einer „Roboter-Policy“ niederzuschreiben. Unternehmenslenker sind gut beraten, transparent den Einsatz künstlicher Intelligenz vor allem gegenüber Investoren, Arbeitnehmern und Geschäftspartnern zu kommunizieren. Keiner ist gehindert, sein Geld in riskante Projekte zu investieren, mit Robotern zusammenzuarbeiten und/oder mit Ihnen zu handeln. Er sollte es aber wissen.

Dr. Thomas Block, MBA

Rechtsanwalt
act legal Germany AC Tischendorf Rechtsanwälte Frankfurt, Germany
Telefon: +49 69 24 70 97 36