Pubblicazioni act legal

Quando sono i robot a decidere!

Non è una novità del ventunesimo secolo, e già se lo chiedeva Alan Turing negli anni cinquanta: “Le macchine sono in grado di pensare?”

E se il tuo capo fosse un robot?

“Il mio capo è un robot”. Questo è ciò che devono aver pensato i dipendenti della società d’investimento Deep Knowledge Ventures di Hong Kong quando un algoritmo informatico è stato nominato membro a pieno titolo del consiglio di amministrazione. Ed è proprio così. I robot, infatti, stanno prendendo piede nel mondo del lavoro a velocità record. Ordinano merci, lavorano fianco a fianco con i loro colleghi umani nelle catene di montaggio, distribuiscono prodotti su Internet e dettano le regole dell’high-frequency trading. Il progresso tecnologico sta consentendo ai datori di lavoro di utilizzare sistemi intelligenti non solo per integrare il lavoro umano, ma in alcuni settori anche per sostituirlo, compreso in posizioni di supervisione. È quindi davvero giunto il momento di occuparsi del quadro giuridico (diritto del lavoro).

Si conviene che la nomina di un algoritmo informatico nel consiglio di sorveglianza o nel consiglio di amministrazione di una società per azioni tedesca non è (ancora) possibile (sezione 76 par. 3 capoverso 1, 100 comma 1 capoverso 1 Legge tedesca sulle società per azioni – AktG). Tuttavia, l’assunzione della funzione di supervisione da parte di un robot non rappresenta una possibilità così remota nel futuro. Ad esempio, la multinazionale giapponese Hitachi fa eseguire istruzioni di lavoro da sistemi intelligenti nelle sue filiali tedesche. Dal punto di vista giuridico, nulla impedisce che la delega del diritto di impartire istruzioni sia trasferito da un essere umano a una macchina, se il datore di lavoro assicura, mediante un’adeguata programmazione, che le circostanze essenziali di un singolo caso siano equilibrate prima di impartire l’istruzione, e che gli interessi coinvolti siano presi in considerazione in modo appropriato (art. 315 del Codice Civile tedesco – BGB, 106 del regolamento commerciale tedesco – GewO). L’unico limite apparente per il “robot capo” risiede nell’articolo 22 comma 2 del GDPR, secondo il quale le decisioni che hanno “effetti giuridici” o “significativi effetti ” sulla persona interessata non devono basarsi su un trattamento automatizzato di dati personali. Pertanto, il robot capo non può (ancora) funzionare. Già nella realtà e dopo un’approfondita valutazione in termini di legge sulla protezione dei dati, è legalmente consentito all’uomo prendere decisioni personali preparate da algoritmi, soprattutto nel caso di procedure di candidatura e strumenti di selezione completamente automatizzati.

Quindi sì, i robot sostituiscono i lavoratori. Ma possono anche essere qualificati come dipendenti ai sensi del diritto del lavoro e delle società? Contano ai fini delle soglie che determinano il numero di dipendenti necessari per l’istituzione di un consiglio di sorveglianza co-determinato, l’entità del consiglio di fabbrica o l’applicazione della legge tedesca sulla tutela dei licenziamenti? I robot devono essere considerati su un piano di parità con i dipendenti umani durante la selezione sociale? Anche se alcuni autori lo richiedono, questo deve essere negato in ogni caso. Tutti i valori di soglia (ancora) presuppongono una persona fisica e la selezione sociale verrebbe presa ad absurdum. Invece del licenziamento di due dipendenti, il “giovane” robot senza obblighi di alimenti è probabilmente meno degno di protezione sociale. Ciò annullerebbe la libertà imprenditoriale, tutelata dalla costituzione, di ottimizzare i processi lavorativi utilizzando le moderne tecnologie. I robot sono cose, e rimangono tali.

Quanto sono „affidabili” le macchine?

Di conseguenza, anche i robot umanoidi non sono responsabili per gli infortuni ai dipendenti/clienti e/o per i danni che causano alla reputazione dell’azienda. Determinare la persona responsabile dipende dal fatto che il danno causato sia dovuto ad una programmazione errata o ad un funzionamento errato del robot. Il legislatore non ha ancora preso provvedimenti. Attualmente si sta discutendo se l’utilizzo di sistemi intelligenti debba essere soggetto alla riserva legale di stipulare un’assicurazione obbligatoria. Si raccomandano in particolare le seguenti precauzioni: Esecuzione di una valutazione dei rischi (art. 5 della legge tedesca sulle condizioni di lavoro – ArbSchG), rispetto delle misure di sicurezza menzionate nell’ordinanza sulla sicurezza sul lavoro, nonché della norma ISO 10218-2011 e coinvolgimento del comitato aziendale (art. 90, 87 cpv. 1 n. 7 della legge tedesca sulla costituzione dei lavoratori – BetrVG).

Robot policy all’appello

Ma come fa un consiglio di amministrazione / consiglio di sorveglianza a controllare i sistemi di autoapprendimento che funzionano secondo il principio di tentativi ed errori e si modificano automaticamente? Come agisce un consiglio di amministrazione sulla base di “informazioni appropriate” se non ha alcuna visione della scatola nera che si trova tra il livello di input e quello di output? Il management dell’azienda deve bilanciare i rischi potenziali in ogni singolo caso, monitorare attentamente gli sviluppi dei robot che utilizza, e implementare sistemi di conformità per proteggersi da violazioni (legali). Sembra anche necessario, dal punto di vista legale, stabilire le suddette condizioni quadro legali in una “robot policy ” scritta. Il management dell’azienda fa bene a comunicare l’uso dell’intelligenza artificiale in modo trasparente, soprattutto agli investitori, ai dipendenti, e ai partner commerciali. A nessuno viene impedito di investire il proprio denaro in progetti rischiosi, di lavorare con i robot e/o di fare operazioni di trading con loro. Ma devono saperlo.

Dr. Thomas Block, MBA

Attorney at law
act legal Germany Frankfurt, Germany
Telefono: +49 69 24 70 97 36