act legal Publikace

Když roboti rozhodují

Nejedná se o žádný objev 21. století - již v 50. letech 20. století přišel Alan Turing s otázkou: „Dokáží stroje myslet?“

Robot jako tvůj „šéf“

„Můj šéf je robot!“ museli si nejspíše pomyslet zaměstnanci investiční společnosti Deep Knowledge Ventures z Hong Kongu, když byl plnohodnotným členem představenstva jejich společnosti jmenován počítačový algoritmus. Je skutečností, že roboti dobývají náš pracovní svět rekordní rychlostí. Objednávají vybrané zboží, pracují ruku v ruce se svými lidskými kolegy na montážních linkách, zajišťují distribuci zboží po internetu a na světových burzách uzavírají miliony obchodů za vteřinu. Technologický pokrok umožňuje zaměstnavatelům využívat inteligentní systémy nejenom k doplnění lidské práce, ale v některých oblastech ji dokonce úplně nahradit, a to vč. kontrolních funkcí. Je proto nejvyšší čas zabývat se (pracovně) právním rámcem, který s tímto vývojem souvisí.

Obecně panuje shoda na tom, že není (zatím) možné jmenovat počítačový algoritmus členem dozorčí rady nebo představenstva německé akciové společnosti (viz § 76 odst. 3 věta první a § 100 odst. 1 věta první německého zákona o akciových společnostech). Přesto však výkon kontrolní funkce robotem není pouze hudbou budoucnosti. Tak například japonská skupina Hitachi, která podniká v oblasti elektroniky, využívá ve svých německých pobočkách inteligentní systémy k zadávání pracovních instrukcí. Z právního hlediska ostatně nic nebrání tomu, aby bylo právo zadávat pracovní instrukce delegováno z člověka na stroj. Zaměstnavatel však musí daný systém vhodně naprogramovat tak, aby nejprve zvážil a vzájemně vyrovnal všechny podstatné okolnosti každého individuálního případu a vzal do úvahy vhodným způsobem veškeré dotčené zájmy, a teprve poté vydal „zamýšlenou“ instrukci (viz § 315 německého občanského zákoníku a § 106 německého Gewerbeordnung). Jediné zjevné právní omezení „robotického nadřízeného“ plyne z čl. 22 odst. 1 GDPR, dle kterého nesmí být žádné rozhodnutí, které má „právní účinky“ pro dotčenou osobu nebo se jí „obdobným způsobem významně dotýká“, založeno na automatizovaném zpracování osobních údajů. Robotický nadřízený tedy (zatím) nemůže rozdávat výpovědi. Na druhou stranu je z právního hlediska přijatelné, aby po pečlivém zhodnocení individuálního případu optikou právních předpisů na ochranu osobních údajů bylo člověkem učiněno personální rozhodnutí (před)připravené algoritmem, a to především v případě plně automatizovaných náborových procesů a výběrových nástrojů. Taková rozhodnutí jsou ostatně již dnes realitou („People Analytics“).

Roboti tedy nahrazují pracovníky. Mohou se však také kvalifikovat jako zaměstnanci ve smyslu pracovního práva a práva obchodních společností? Započítávají se například do celkového počtu zaměstnanců, od kterého se odvíjí požadavek povinného zastoupení zaměstnanců v dozorčí radě, velikost rady zaměstnanců nebo povinnost aplikovat německý zákon na ochranu před propuštěním (Kündigungsschutzgesetz)? Měli by být roboti a lidští zaměstnanci nahlíženi jako rovný s rovným při manažerském rozhodování, kdo má být propuštěn? Přestože někteří autoři vyžadují, aby byly tyto otázky zodpovězeny kladně, je takové závěry nutné v každém případě odmítnout. Všechny zmíněné prahové hodnoty totiž (zatím) počítají s fyzickými osobami.   Co se týká ochrany před výpovědí z pracovního poměru, bylo by absurdní, kdyby německé právo namísto propuštění dvou lidských zaměstnanců vyžadovalo propuštění „mladého“ robota, který neplatí výživné a není proto hoden společenské ochrany před výpovědí. To by totiž mělo za následek nepřípustné omezení možnosti optimalizace pracovních postupů s využitím moderních technologií, a tím zároveň ústavně zaručené svobody podnikání. Roboti jsou stále „pouze“ věci.

Nese robot právní odpovědnost?

Důsledkem výše uvedeného je mj. závěr, že ani humanoidní roboti (androidi) nenesou právní odpovědnost za zranění zaměstnanců či zákazníků a/nebo újmu na dobrém jméně či pověsti společnosti, kterou svým „jednáním“ způsobí. Namísto toho se určení osoby, která nese právní odpovědnost, bude odvíjet od posouzení, zda k újmě došlo chybou v programování, či chybnou operací robota. Zákonodárce tuto otázku zatím neupravil. V současnosti však probíhají diskuze, zda by mělo být používání inteligentních systémů předmětem povinného pojištění. Prozatím lze doporučit především následující preventivní kroky: provádění analýzy rizik (viz § 5 německého Arbeitsschutzgesetz), dodržování bezpečnostních opatření zmíněných v německém Betriebssicherheitsverordnung a technické normě ISO 10218-2011, a také zapojení rady zaměstnanců (viz § 90 a § 87 odst. 1 bod 7 německého Betriebsverfassungsgesetz).

Potřeba zavedení postupů pro fungování robotů

Jak však může představenstvo či dozorčí rada provádět kontrolu nad systémem, který se s využitím metody „pokus omyl“ neustále učí, vyvíjí a mění? A jak může představenstvo jednat pečlivě a informovaně, pokud nevidí do „černé skříňky“, která při využití inteligentního systému leží mezi úrovněmi vstupu a výstupu? Od managementu obchodní společnosti se očekává, že bude v každém individuálním případě zvažovat a vyrovnávat potenciální rizika, detailně monitorovat vývoj, kterým procházejí používaní roboti, a implementovat compliance programy k ochraně před jednotlivými případy porušení práva. Z právního hlediska se také zdá být nezbytné zakotvit výše uvedené podmínky v příslušném právním rámci, v určité písemné „robotické politice“. Managementu obchodních společností lze prozatím důrazně doporučit, aby transparentně informoval o používání umělé inteligence, a to především investory, zaměstnance a obchodní partnery.  Nikomu samozřejmě nelze bránit v investování finančních prostředků do riskantních projektů nebo ve (spolu)práci či obchodování s roboty. Každý by však měl vědět, s kým (čím) má co dočinění.

Dr. Thomas Block, MBA

Attorney at law
act legal Germany Frankfurt, Germany
Telefon: +49 69 24 70 97 36