Status quo vadis: Grenzen beim Einsatz von künstlicher Intelligenz

Was müssen Unternehmen bei der Nutzung von künstlicher Intelligenz beachten?

„Die Fantasie kennt keine Grenzen.“ Beim Einsatz künstlicher Intelligenz (Kl) scheint die Technik der Fantasie auch kaum mehr Grenzen zu setzen. Diesen Eindruck erwecken jedenfalls die täglichen Medienberichte über ChatGPT, eine generative Kl, die Texte und Gedichte verfassen, schnelle Recherchen ermöglichen und Examen an amerikanischen Eliteuniversitäten bestehen kann.

Viele Unternehmer fragen sich, wie sie den technisch scheinbar grenzenlosen Nutzen „mitdenkender“ Software und Algorithmen sinnvoll in ihren Unternehmen, vor allem auch im Arbeitsleben, einsetzen können. Vier Einsatzbereiche stechen ins Auge: Kl zur Personalanalytik („people analytics“) dient der Leistungsbewertung und Eignungsprüfung für neue Stellen bei der Kandidatensuche oder Weiterqualifizierung von Talenten. Kl zum  „algorithmic management“ zielt auf die optimale Einsatzplanung und Steuerung von Mitarbeiteraktivitäten. Kl zur Automatisierung von Aufgaben („task automation“) übernimmt einfachere Tätigkeiten eigenständig. Schließlich nutzen Mitarbeiterzunehmend ChatGPT, um Vorlagen für Texte, Programmierungen oder Ähnliches zu erhalten. Doch kennen Fantasie und Technik wirklich keine Grenzen oder bestehen rechtliche Hürden, die
einen Einsatz risikoreich machen?

Ein konkreter Rechtsrahmen existiert für den Einsatz künstlicher Intelligenz in Europa noch nicht. Spannend ist, dass die EU-Kommission im April 2021 einen ersten Verordnungsentwurf zum Einsatz künstlicher Intelligenz (KI-VO) vorgelegt hat, der – nach aktuellem Stand – möglicherweise dieses Jahr verabschiedet werden könnte. Ein genauer Blick in diesen Entwurf lohnt, um zu verstehen, in welche Richtung die gesetzgeberischen Bestrebungen gehen. Der Verordnungsgeber legt beispielsweise eine sehr weite Kl-Definition zugrunde. Danach könnten simple Automatisierungsprozesse in den Anwendungsbereich der KI-VO fallen. Eine Vielzahl bereits jetzt im Einsatz befindlicher Systeme wäre anhand der KI-VO zu überprüfen.

In der KI-VO werden vier Risikoklassen definiert (unannehmbar, hoch, gering und minimal), die einer unterschiedlich strengen Regulatorik unterliegen. Kl-Praktiken, die als unannehmbar gelten, etwa, weil sie fundamentale Werte der EU verletzen, sind verboten (Art. 5 KI-VO). Beispiel: Bewertung des sozialen Verhaltens (Social Scoring). Für Kl-Systeme mit einem hohen Risiko gelten Mindestanforderungen (Art. 8 ff. KI-VO), welche Anbieter und Nutzer der Systeme erfüllen müssen (Art. 1 6 ff. KI-VO). Daneben gelten unabhängig von der Risikoklasse insbesondere Transparenzvorgaben (Art. 52 KI-VO). Kl-Systeme mit einem geringen oder minimalen Risiko unterliegen demgegenüber keiner gesonderten Regulierung.

Anbieter solcher Systeme können sich freiwillig an Verhaltenskodizes orientieren (Art. 69 KI-VO). Vorausschauende Unternehmer könnten bereits jetzt geplante sowie bereits erfolgte Nutzung von Kl anhand der Regulatorik validieren, was den Einsatz rechtlich sicherer machen dürfte. Die KI-VO liefert wichtige und aktuelle Hinweise, wie sich die EU-Kommission den Einsatz von Kl rechtlich vorstellt.

Aber welche rechtlichen Hürden gelten beim scheinbar grenzenlos möglichen Einsatz von Kl aktuell? Anwendbar sind vor allem die Datenschutzgrundverordnung (DSGVO), Anti-Diskriminierungs-Regeln, Vorschriften zu Verbraucherschutz und Produktsicherheit sowie die Mitbestimmung. Setzt ein Unternehmen etwa die Sprachanalyse-Software von Precire ein, um die Eignung von Bewerbern aufgrund ihrer Sprachkompetenz automatisiert analysieren zu lassen, oder baut er auf die Videoanalysefunktion von Hirevue, um Persönlichkeitsprofile zu erstellen, empfiehlt sich eine vorherige Datenschutzanalyse und -dokumentation. Nach dem möglicherweise gegen EU-Recht verstoßenden § 26 BDSG muss die Datenverarbeitung (i) geeignet sein, den vorher definierten Zweck zu erreichen, (ii) sie muss erforderlich sein, es darf also kein milderer Eingriff in Persönlichkeitsrechte existieren, und (iii) die Interessen der Beteiligten sind gegeneinander abzuwägen.

DSGVO und Anti-Diskriminierung

Die Erstellung von Persönlichkeitsprofilen ist in der Regel unzulässig, es sei denn, sachliche Gründe rechtfertigen dies im Einzelfall aufgrund besonderer Anforderungen im Stellenprofil. Nach Art. 22 DSGVO darf die Software die Personalentscheidung (z. B. Einstellung, Beförderung, Kündigung) nicht selbst treffen, sondern nur eine Entscheidungshilfe liefern. Um einen diskriminierungsfreien Einsatz von Analysesoftware zu gewährleisten, sollte der Softwareanbieter erläutern, welche Vorkehrungen er getroffen hat, um AGG-Risiken zu vermeiden. Schließlich sind die aktuellen Urteile des EuGH vom 30.03.2023 und 04.05.2023 zu berücksichtigen, um in jedem Einzelfall auf die richtige Rechtsgrundlage für die Personaldatenverarbeitung zurückzugreifen.

Bußgeld in Millionenhöhe droht

Als Fazit lässt sich festhalten, dass neben der Fantasie auch die Technik der Nutzung von Kl immer geringere Grenzen setzt und die Anwendung praxistauglicher wird. Jedoch sollte der Einsatz rechtlich vorher gut durchdacht sein, um dauerhaft vom technischen Fortschritt profitieren zu können. Sonst droht unliebsame Post von der Aufsichtsbehörde. Vor dem Hintergrund der Bußgelder in zweistelliger Millionenhöhe, die bei Datenschutzverstößen in Deutschland verhängt wurden, ist schließlich dringend zu empfehlen, vor dem Einsatz künstlicher Intelligenz eine Datenschutzfolgenabschätzung durchzuführen und zu dokumentieren.

Update internationaler Datenschutz: neue Standardvertragsklauseln für internationale Datentransfers

Vor knapp einem Jahr hat der EuGH das EU-US Privacy Shield für unwirksam erklärt (Schrems II Urteil) und dabei auch einige Fragen im Hinblick auf die EU-Standardvertragsklauseln (Standard Contractual Clauses – SCC), dem wichtigsten Instrument für den internationalen Datentransfer, aufgeworfen. Nunmehr hat die EU-Kommission neue SCC verabschiedet, mit denen sie die bisherigen Regelungen an die Datenschutz-Grundverordnung (DS-GVO) angepasst und zudem Vorgaben des EuGH berücksichtigt hat. Gleichwohl wird sehr schnell deutlich, dass die EU-Kommission mit dem neuen Regelwerk keinen Freibrief für einen Datenaustausch geschaffen hat. Auf Unternehmen, die personenbezogene Daten auf Grundlage von SCC in Drittländer wie die USA übermitteln, kommt nun einige Arbeit zu.

Klicken Sie hier, um den vollständigen Newsletter zu lesen.

Das neue Wertpapierinstitutsgesetz (WpIG) – Was ändert sich für Wertpapierfirmen?

I. Was genau ist das Thema?

1.1

Am 26. Juni 2021 tritt das neue Wertpapierinstitutsgesetz (WpIG) in Kraft, das die EU-Richtlinie über die Beaufsichtigung von Wertpapierinstituten (IFD) in deutsches Recht umsetzt. Flankierend gilt die EU-Verordnung über die Aufsichtsanforderungen an Wertpapierinstitute, die Investment Firm Regulation (IFR). Das Ziel
dieser Gesetzgebung ist es, den unterschiedlichen Geschäftsmodellen und den damit verbundenen Risiken von Banken und Wertpapierfirmen gerecht zu werden.

Künftig werden nach dem WpIG drei Klassen von Wertpapierfirmen unterschieden, nämlich große, mittlere und kleine Wertpapierinstitute („WPI“), für die unterschiedliche Regelungen und Anforderungen gelten. Diese reichen von zahlreichen Erleichterungen bis hin zur Beachtung von strengen Regelungen und
einer Überwachung.

Das WpIG ist dann für Sie relevant, wenn Ihre Wertpapierfirma im Sinne von Art. 4 Abs. 1 Nummer 4 der RL (EU) 2014/65 (MiFID 2) einzustufen ist (also im Wesentlichen Tätigkeiten gemäß § 1 Abs. 1a Satz 2 KWG anbietet).

 

1.2

Durch das WpIG wird die Regulierung und Beaufsichtigung von Wertpapierfirmen aus dem Kreditwesengesetz (KWG) sowie weitgehend aus der EU-Kapitaladäquanzverordnung (CRR) herausgetrennt und in ein eigenes, abgeschlossenes Aufsichtsregime überführt. Betroffen sind im Wesentlichen Institute, die über eine
Erlaubnis gemäß § 1 Abs. 1a Satz 2 KWG (und nicht gemäß § 1 Abs 1 Satz 2 KWG) verfügen (sogenannte MiFID-2 Institute) und die nicht als Klasse 1 Wertpapierfirmen eingestuft werden.

Konkret werden die aufsichtsrechtlichen Anforderungen an die Wertpapierinstitute der Klasse 2 (mittlere Wertpapierinstitute) und Klasse 3 (kleine Wertpapierinstitute) nicht mehr im KWG, sondern im WpIG nach folgenden Kriterien geregelt:

(1) Zusätzliche Genehmigung für Wertpapier-Nebendienstleistungen und Nebengeschäfte, § 15 Abs.2 WpIG
(2) Risiken, Eigenmittel, Liquiditäts- und Eigenmittelanforderungen sowie Melde- und Offenlegungspflichten (jetzt in der IFR),
(3) Geschäftsorganisation, Risikomanagement, Vergütungspolitk (nur mittlere WPI) sowie die
Anforderungen an die Geschäftsleitung und die Aufsichtsorgane (jetzt in der IFD, d.h. im WpIG für Deutschland). Gleiches gilt für die Befugnisse und Instrumente der Aufsichtsbehörden und die konsolidierte Aufsicht (WpIG),
(4) Anzeigepflichten von § 24 KWG nach §§ 64 WpIG (alle WPI), § 65 WpIG (große WPI), § 66 WpIG (kleine und mittlere WPI) und 67, 68 WpIG,
(5) Geschäftsorganisation nun in §§ 40-45 WpIG (vormals § 25a f. KWG),
(6) Vergütungssystem nun in § 46 WpIG (vormals § 25d KWG). Der Entwurf der Wertpapierinstituts-Vergütungsverordnung befindet sich derzeit in der Konsultation
(7) Solvenzaufsicht nun in §§ 38, 39 WpIG (vormals §§ 10 bis 12a KWG, im Wesentlichen aber CRRVerordnung),
(8) MiFID II-Erlaubnistatbestände im WpIG (§ 2 Abs.2 WpIG) und nicht mehr im KWG (vormals § 1 Abs. 1a Satz 2 KWG) – keine wesentlichen Veränderungen, aber Erlaubnispflicht von Wertpapiernebendienstleistungen
(9) Erlaubnispflicht (von §32 KWG in § 15 WpIG verschoben – beachte Genehmigungsfiktion für erteilte Zulassungen bis zum 26. Juni 2021, § 86 Abs.1 WpIG) – keine wesentlichen Veränderungen
(10) Inhaberkontrollverfahren von § 2c KWG nach §§ 24-27 WpIG – keine wesentlichen Veränderungen
(11) Bestimmungen zu vertraglich gebundenen Vermittlern von § 25e KWG in § 28 WpIG – keine wesentlichen Veränderungen
(12) Anforderungen an Geschäftsleiter und Verwaltungs-/Aufsichtsorgane nun in §§ 20-23 WpIG für kleine und mittlere WPI, für große WPI gelten weiterhin die §§ 25c, 25d, 36 KWG (zus. Absichtserklärung nach § 65 Abs.1 Nr.1 WpIG) – keine wesentlichen Veränderungen
(13) EU-Passporting von § 24a KWG nach §§ 70-72 WpIG bzw. § 53b KWG nach §§ 73-75 WpIG – keine wesentlichen Veränderungen
(14) Geldwäscherechtliche Pflichten nun in §§ 33 bis 37 WpIG (vormals § 25g bis 25m KWG) – keine wesentlichen Veränderungen

II. Schritt 1: Welche Klassifizierung trifft auf mich zu?

III. Schritt 2: Welche Änderungen gilt es zu beachten?

….

Um den vollständigen Newsletter mit ausführlichen Informationen zu erhalten, laden Sie ihn sich hier herunter (nur auf Deutsch verfügbar).

How R U CEE? All you need to know about real estate in CEE

As a result of the collaboration of BNP Paribas Real Estate with act legal, Hays, the French-Polish Chamber of Commerce, the Dutch-Polish Chamber of Commerce and the Belgian Chamber of Commerce, the report provides an overview of the commercial real estate market, broken down into specific segments, from the perspective of developers and investors in the Central and Eastern Europe.

act legal professionals from Poland, the Czech Republic, Hungary and Romania share their views on current trends in the CEE commercial property market and legal aspects of COVID-19’s impact, while also commenting on recent amendments to legal and tax regulations, which are relevant for investors.

Arbeitshandbuch für Aufsichtsratsmitglieder

Dr. Thomas Altenbach  führt umfassend durch die wesentlichen Fragestellungen für Aufsichtsräte. Insbesondere auch unter Berücksichtigung der aktuellen Gesetzesentwürfe zu Verbandssanktionen und Hinweisgeberschutz. Das Handbuch bietet eine umfassende Darstellung der Aufgaben des Aufsichtsrats sowie der Rechte und Pflichten seiner Mitglieder und vermittelt das für eine sorgfältige Amtsführung notwendige Wissen.

Von der Wahl der Aufsichtsratsmitglieder, über die Kompetenzen und Aufgaben des Aufsichtsrats, die Arbeit des Aufsichtsrats im Detail, Vergütung und Auslagenersatz, interne Untersuchungen, Interessenkonflikte, Haftung und Schadensersatz einschließlich D&O-Versicherung.

Esports – eine boomende Industrie mit einzigartigen rechtlichen Anforderungen

Durch sein rasantes Wachstum in den letzten Jahren ist esports in den Fokus der Öffentlichkeit gerückt und zu einer neuen relevanten Branche geworden, die im Jahr 2019 weltweit einen Umsatz von 1,1 Milliarden Dollar erzielt.

Als Heimat einer der Esports-Ligen ESL – Electronic Sports League, und anderer relevanter esport-Unternehmen, führender Teams und Spieler hat Deutschland eine entscheidende Rolle bei dieser Entwicklung gespielt. Neben dem schnellen Wachstum hat sich das esport-Ökosystem auch in Bezug auf die Professionalität entwickelt, sowohl in wirtschaftlicher als auch in rechtlicher Hinsicht.

Ein wesentlicher Meilenstein war dabei die Gründung des deutschen Esports-Verbandes ESBD – ESPORT-BUND DEUTSCHLAND e.V. im Jahr 2017, der in der Rechtsanwaltskanzlei Deutschland initiiert wurde. Seitdem wurden wichtige rechtliche Schritte unternommen, wie z.B. die Einführung des deutschen Esport-Visums im Jahr 2020, einer eigenen Visumskategorie für esports.

Wenn Roboter entscheiden!

Der Roboter als „Chef“

„Mein Chef ist ein Roboter“, mussten sich die Mitarbeiter der Investmentfirma Deep Knowledge Ventures in Hong Kong gedacht haben, als ein Computer-Algorithmus als vollwertiges Mitglied in den Vorstand berufen wurde. In der Tat erobern Roboter im Rekordtempo unsere Arbeitswelt. Sie kommissionieren Waren, arbeiten an Fließbändern Hand in Hand mit menschlichen Kollegen, vertreiben Produkte im Internet und bestimmen den Hochfrequenzhandel. Der technische Fortschritt ermöglicht es Arbeitgebern, intelligente Systeme nicht mehr nur als Ergänzung menschlicher Arbeitskraft einzusetzen, sondern diese in bestimmten Bereichen, auch in der Vorgesetztenfunktion, zu ersetzen. Es ist daher höchste Zeit, sich mit den (arbeits-) rechtlichen Rahmenbedingungen zu beschäftigen.

Einigkeit besteht, dass die Bestellung eines Computer-Algorithmus zum Aufsichtsrat oder Vorstand einer deutschen Aktiengesellschaft (noch) nicht möglich ist (§§ 76 Abs. 3 Satz 1, 100 Abs. 1 Satz 1 AktG). Keine Zukunftsmusik ist indes die Übernahme der Vorgesetztenfunktion durch einen Roboter. So lässt der japanische Elektronikkonzern Hitachi in seinen deutschen Niederlassungen Arbeitsanweisungen durch intelligente Systeme ausführen. Rechtlich steht einer Delegation des Direktionsrechts vom Menschen auf eine Maschine nichts entgegen, wenn der Arbeitgeber durch geeignete Programmierung sicherstellt, dass vor Erteilung der Weisung die wesentlichen Umstände eines Einzelfalles abgewogen sowie betroffene Interessen angemessen berücksichtigt werden (§§ 315 BGB, 106 GewO). Die einzig ersichtliche Grenze findet sich für den „Roboter-Chef“ in Artikel 22 Abs. 2 DSGVO, wonach Entscheidungen, die für den Betroffenen „rechtliche Wirkungen“ oder „erhebliche Beeinträchtigungen“ nach sich ziehen, nicht auf einer automatisierten Verarbeitung personenbezogener Daten erfolgen dürfen. Feuern darf der Roboter-Chef also (noch) nicht. Realität und nach gründlicher datenschutzrechtlicher Bewertung rechtlich zulässig ist es, dass Menschen von Algorithmen vorbereitete Personalentscheidungen, insbesondere bei vollautomatisierten Bewerbungsverfahren und Auswahltools, vollziehen. („People Analytics“).

Roboter ersetzen also Arbeitnehmer. Sind sie aber auch als Arbeitnehmer im Arbeits- und Gesellschaftsrecht zu qualifizieren? Zählen sie bei den Schwellenwerten mit, nach denen sich richtet, ab wie vielen Arbeitnehmern ein mitbestimmter Aufsichtsrat zu implementieren ist, wie groß der Betriebsrat zu sein hat oder ob das Kündigungsschutzgesetz Anwendung findet? Sind Roboter in der Sozialauswahl gleichrangig neben menschlichen Arbeitnehmern zu berücksichtigen? Auch wenn dies einige Autoren verlangen, ist es jeweils zu verneinen. Alle Schwellenwerte setzen (noch) eine natürliche Person voraus und die Sozialauswahl würde ad absurdum geführt. Anstelle der Kündigung von zwei Arbeitnehmern dürfte in der Regel eher der „junge“ Roboter ohne Unterhaltspflichten sozial weniger schützenswert sein. Dies würde die grundrechtlich geschützte unternehmerische Freiheit, Arbeitsabläufe durch den Einsatz moderner Technologien zu optimieren, über die Hintertür wieder aushebeln. Roboter bleiben Sachen.

„Haftet“ die Maschine?

Folglich haften selbst menschenähnliche Roboter nicht für durch sie verursachte Verletzungen von Mitarbeitern/Kunden und/oder eine Rufschädigung des Unternehmens. Für die Ermittlung des Verantwortlichen kommt es darauf an, ob der entstandene Schaden von einer Fehlprogrammierung oder einer Fehlbedienung des Roboters herrührt. Der Gesetzgeber hat bisher noch nicht gehandelt. Diskutiert wird aktuell, ob der Einsatz intelligenter Systeme unter dem gesetzlichen Vorbehalt des Abschlusses einer Pflichtversicherung stehen sollte. Zu empfehlen sind insbesondere folgende Vorkehrungen: Durchführung von Gefährdungsbeurteilungen (§ 5 ArbSchG), Beachtung der in der Betriebssicherheitsverordnung sowie der ISO-Norm 10218-2011 genannten Sicherheitsvorkehrungen und Einbindung des Betriebsrats (§§ 90, 87 Abs. 1 Nr. 7 BetrVG).

Robotik-Policy erforderlich!

Aber wie kontrolliert ein Vorstand/Aufsichtsrat selbstlernende Systeme, die auf dem Prinzip „Trial-and-Error“ funktionieren und sich automatisch selbst verändern? Wie handelt ein Vorstand pflichtgemäß auf Basis „angemessener Informationen“, wenn er keinen Einblick in die BlackBox hat, die sich zwischen Input- und Output-Ebene befindet? Zu erwarten ist von Unternehmensleitern, dass sie in jedem Einzelfall die potenziellen Risiken abwägen, engmaschig Entwicklungen der von ihnen eingesetzten Roboter überwachen und Compliance-Systeme zum Schutz vor (Rechts-)Verletzungen implementieren. Es erscheint ferner rechtlich geboten, die vorgenannten juristischen Rahmenbedingungen in einer „Roboter-Policy“ niederzuschreiben. Unternehmenslenker sind gut beraten, transparent den Einsatz künstlicher Intelligenz vor allem gegenüber Investoren, Arbeitnehmern und Geschäftspartnern zu kommunizieren. Keiner ist gehindert, sein Geld in riskante Projekte zu investieren, mit Robotern zusammenzuarbeiten und/oder mit Ihnen zu handeln. Er sollte es aber wissen.

Neuer Leitfaden des US-Department of Justice – Anforderungen an ein Compliance Management System

Das US-Justizministerium (Department of Justice – DOJ ) hat am 30. April 2019 einen neuen Leitfaden zu den gestellten Anforderungen an Compliance Management-Systeme veröffentlicht.Damit liegt eine ergänzte und überarbeitete Version eines gleichnamigen, bereits im Februar 2017 veröffentlichten Dokuments in dem mehr als 120 Testfragen gesammelt waren, mit denen die Kriterien herausgearbeitet werden sollten, anhand derer die Staatsanwälte des DOJ Compliance-Programme bei der Strafzumessung oder beim Abschluss eines Deferred oder Non-Prosecution Agreements beurteilen sollten vor. Der Beitrag gibt einen kurzen Überblick.

#MeToo? – Auch Sie brauchen Antworten auf diese Rechtsfragen

Soziales Miteinander im Betrieb oder sexuelle Belästigung?
Was Arbeitgeber wann unternehmen müssen.

Eine kurze, zu fest gedrückte Umarmung zum Geburtstag, eine schnelle Follow-up-Mail nach einem netten Lunch, eine zufällige Berührung beim gemeinsamen Blick auf den Bildschirm: Sind diese Szenen Beispiele für ein gutes soziales Miteinander im Betrieb oder für eine sexuelle Belästigung? Was Arbeitgeber wann unternehmen müssen.