FTCC | Studio Legale Associato

FTCC

News

AI in EU

Il 21 aprile la Commissione Europea ha promulgato la proposta di Regolamento sull’Intelligenza Artificiale, che propone il primo piano giuridico europeo sull’AI.

La proposta ha due finalità: far sì che l’utilizzo e lo sviluppo dell’AI avvenga nel rispetto dei diritti e dei valori fondamentali dell’UE; allo stesso tempo assicurare – tramite una legislazione equilibrata – lo sviluppo di tali tecnologie, facendo dell’Unione Europea un centro di sviluppo per l’AI.

La proposta di Regolamento è il risultato di un’ampia consultazione con le parti interessate, svoltasi tramite una consultazione pubblica online aperta a seguito della pubblicazione, avvenuta nel febbraio 2020, del Libro Bianco sull’Intelligenza Artificiale della Commissione, nonché degli altri atti comunitari in materia, tra cui si ricordano le Linee Guida Etiche sull’AI dell’aprile 2019, nonché le risoluzioni del Parlamento legate all’AI (che hanno preso in esame aspetti etici, di responsabilità e legati al diritto d’autore) dell’ottobre 2020.

Il Regolamento offre anzitutto una definizione normativa di Intelligenza Artificiale all’art. 3, intendendo un software (sviluppato tramite una delle tecniche indicate nell’Allegato I, ossia machine learning; sistemi basati sulla logica o sulla conoscenza; approcci statistici e stime Bayesiane) in grado di generare, sulla base di una serie di obiettivi definiti dall’essere umano, risultati come contenuti, predizioni, raccomandazioni o decisioni, influenzando il sistema con cui interagisce.

L’approccio del regolamento all’AI è basato sul rischio connesso alle specifiche applicazioni che questi programmi possono avere, prevedendo 4 distinti livelli di rischio, ognuno dei quali soggetto a specifiche regole.

  1. Rischio inaccettabile: il primo gruppo riguarda i sistemi di AI caratterizzati da un livello di rischio inaccettabile, che saranno pertanto vietati nel territorio dell’UE. Sono ricompresi in questo gruppo quelle applicazioni incompatibili con i principi fondamentali dell’Unione, tra cui i programmi che fanno ricorso a metodi subliminali per modificare il comportamento degli individui, e i programmi di “credito sociale”, che già sono in vigore in Cina.
  2. Rischio elevato: il secondo gruppo riguarda quei sistemi di AI che possono avere un impatto significativo in relazione a settori essenziali o in relazione a diritti fondamentali delle persone fisiche. Rientrano tra i sistemi a rischio elevato quelli che gestiscono infrastrutture (come la rete di trasporti), istruzione (in quanto idonei a condizionare il futuro delle persone), servizi essenziali (come quelle applicate per l’erogazione di mutui), giustizia (valutazione delle prove, ma anche sussunzione), e numerosi altri.

Per questi sistemi è prevista una procedura di autorizzazione (prima dell’immissione sul mercato, e a seguito di ogni modifica del programma) e di controllo (durante il suo utilizzo), in modo da garantire che l’AI, sia per come è strutturata, sia per come opera in concreto, risponda ai requisiti di tutela dei diritti fondamentali e di sicurezza stabiliti dall’Unione.

  1. Rischio limitato: questo gruppo di sistemi ricomprende i chatbot, e sono quindi soggetti a obblighi di trasparenza, di modo che l’utente possa essere immediatamente informato che interagisce con un sistema di AI, e che quindi possa decidere se interagire o meno con il sistema.
  2. Rischio minimo: sono i sistemi di AI che già conosciamo e frequentiamo quotidianamente, come i programmi antispam, oppure le interfacce dei videogiochi. Non ponendo sostanzialmente rischi per gli utenti, non sono oggetto del regolamento.

Nonostante il quadro normativo possa presentare alcune criticità, soprattutto in relazione alla possibilità per gli Stati di utilizzare i sistemi di intelligenza artificiale per la ricerca di persone (seppur limitata a casi di reati particolarmente gravi, o in caso di minori scomparsi), si tratta indubbiamente di un piano ambizioso e lodevole, che vuole porre l’Unione Europea come “terza via” nello sviluppo dell’AI, rispetto sia a quei paesi (come gli Stati Uniti) che si occupano solo dei profili “imprenditoriali” di queste tecnologie, sia a quelli (come la Cina) che promuovono lo sviluppo di tali tecnologie anche come ausili al controllo della popolazione.

Altro profilo interessante è lo strumento sanzionatorio, previsto in caso di violazione delle norme in particolare per quelle AI di rischio elevato. Mutuando dall’esperienza del GDPR, il Regolamento prevede delle sanzioni parametrate al fatturato annuo dell’impresa.

 

Avv. Chiara Pappalardo


categoria:Attività d’impresa