Compliance e governance dell’IA

Prepararsi all' AI Act:
il nuovo standard europeo per l’IA.

L’EU Artificial Intelligence Act introduce regole chiare per garantire trasparenza, sicurezza e responsabilità nell’uso dell’intelligenza artificiale.
Offriamo una panoramica completa della normativa e supportiamo la vostra organizzazione nell’analisi dei sistemi di IA, nella definizione delle politiche interne e nell’adeguamento tecnico e documentale richiesto per essere conformi.

Come si definisce un Sistema AI?

Secondo la legge UE sull'intelligenza artificiale, un "sistema di intelligenza artificiale" è definito come un sistema basato su macchine, progettato per operare con diversi livelli di autonomia. Può mostrare adattabilità dopo l'implementazione e, per obiettivi espliciti o impliciti, ricavare informazioni dagli input ricevuti per generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.

Le applicazioni di intelligenza artificiale, come i sistemi di punteggio sociale e le tecnologie manipolative, sono vietate perché potenzialmente dannose.

Le applicazioni di intelligenza artificiale ad alto rischio, come quelle che valutano l'affidabilità creditizia o le infrastrutture critiche, richiedono una valutazione rigorosa prima dell'ingresso sul mercato. Le aziende devono determinare se le loro applicazioni di intelligenza artificiale, esistenti o pianificate, rientrano in questa categoria e prepararsi a rigorose verifiche di conformità.

L'elaborazione di immagini e video, i sistemi di raccomandazione o i chatbot comportano comunque degli obblighi, come la dichiarazione dell'interazione di un utente con un sistema di intelligenza artificiale. Gli standard di qualità, trasparenza ed equità dei dati sono essenziali anche per le applicazioni a rischio limitato.

Le applicazioni di intelligenza artificiale considerate a rischio minimo, come i filtri antispam e i videogiochi, non sono soggette ad ulteriori requisiti normativi.

Classificazione Risk-Based

L’AI Act europeo introduce un quadro di classificazione basato sul rischio per le applicazioni di intelligenza artificiale, che vanno da quelle a rischio minimo fino a quelle vietate, in base al loro impatto potenziale su individui e società.

I sistemi di IA vengono suddivisi in diverse categorie, che in alcuni casi possono sovrapporsi.
Alcuni casi d’uso sono considerati proibiti o ad alto rischio, mentre altri comportano specifici obblighi di trasparenza.
I General Purpose AI Systems (GPAI) seguono invece regole dedicate, e una serie di applicazioni sono parzialmente o totalmente escluse dal campo di applicazione dell’AI Act.

COME LAVORIAMO

Valutazione di Conformità

I sistemi di IA ad alto rischio devono essere sottoposti a una Valutazione di Conformità per dimostrare la conformità ai requisiti dell’AI Act prima della loro immissione sul mercato europeo.
Il processo richiede la creazione e il mantenimento di documentazione tecnica dettagliata e prove di conformità.

01

Sviluppo del sistema di IA ad alto rischio

Definire e mantenere un quadro di gestione del rischio strutturato per identificare, valutare e mitigare i rischi durante l’intero ciclo di vita del sistema. Documentare in modo chiaro tutti i processi e mantenerli aggiornati nel tempo.
02

Valutazione di conformità e rispetto dei requisiti dell’AI Act

Effettuare una valutazione di conformità completa per verificare il rispetto dei requisiti dell’AI Act. Garantire una solida governance dei dati, con mitigazione dei bias e dataset ben documentati per training, validazione e test.
03

Registrazione nel database dell’UE

Registrare il sistema di IA ad alto rischio nel database europeo ufficiale e assicurare la registrazione automatica degli eventi (log).

Progettare il sistema con adeguata trasparenza e tracciabilità per un uso sicuro e responsabile.
04

Dichiarazione di conformità e marcatura CE

Preparare e firmare la dichiarazione di conformità, quindi apporre la marcatura CE prima dell’immissione sul mercato. Mantenere nel tempo accuratezza, robustezza, sicurezza informatica e supervisione umana durante l’intero ciclo operativo.
Disclaimer:

I passaggi sopra descritti intendono fornire una panoramica generale del processo di valutazione della conformità. Non devono essere considerati esaustivi e non costituiscono consulenza legale o tecnica.

Requisiti di Conformità

La legge stabilisce una serie di requisiti per i sistemi di intelligenza artificiale ad alto rischio, tra cui:

 

I sistemi a rischio limitato vengono valutati secondo le stesse categorie, ma sono sottoposti a livelli di controllo inferiori.

L’allineamento a standard di settore come ISO/IEC 42001:2023 – Sistema di Gestione dell’IA – può aiutare le organizzazioni a soddisfare alcuni dei requisiti di conformità previsti dalla legge UE sull’IA. La norma ISO 42001 fornisce un approccio strutturato alla gestione dei rischi legati all’IA, garantendo la qualità dei dati e mantenendo una documentazione solida.

Comprensione di Ruoli e Responsabilità

La legge UE sull'intelligenza artificiale (IA) delinea ruoli e responsabilità specifici per le parti interessate nel ciclo di vita del sistema di IA. Ogni ruolo comporta obblighi e impatti distinti ai sensi del regolamento.
Ecco una breve panoramica:

Fornitori

Ruolo: Sviluppare e commercializzare sistemi di IA Responsabilità: Mantenere la documentazione tecnica, garantire la conformità alla legge e fornire informazioni sulla trasparenza.

Utilizzatori

Ruolo: Utilizzare sistemi di IA all'interno delle proprie attività. Responsabilità: Condurre valutazioni d'impatto, informare le autorità e coinvolgere le parti interessate nel processo di valutazione.

Importatori

Ruolo: Commercializzare sistemi di IA da paesi terzi. Responsabilità: Verificare la conformità, fornire la documentazione necessaria e collaborare con le autorità.

Distributori

Ruolo: Rendere i sistemi di IA disponibili sul mercato Responsabilità: Verificare la marcatura CE e la conformità, adottare misure correttive se necessario e collaborare con le autorità.
Assicuratevi che i vostri sistemi di intelligenza artificiale siano conformi alla legge UE sull'intelligenza artificiale per evitare queste sanzioni.

Sanzioni per Inadempienza

La legge UE sull'intelligenza artificiale impone sanzioni significative in caso di inosservanza, calcolate in percentuale sul fatturato annuo globale dell'azienda inadempiente o su un importo predeterminato, a seconda di quale sia il più elevato. Le disposizioni includono massimali più proporzionati per le sanzioni amministrative pecuniarie per PMI e start-up.

Non-compliance con divieti e obblighi AI Act

Fino a
€35M
oppure 7%
del fatturato

Fornire informazioni errate, incomplete o fuorvianti

Fino a
€7.5M
oppure 1.5%
del fatturato

Non-compliance in presenza di di altri obblighi

Fino a
€15M
oppure 3%
del fatturato

Timeline e traguardi di Conformità

Nell'aprile 2021, la Commissione Europea ha pubblicato la proposta completa di legge UE sull'intelligenza artificiale, avviando il processo legislativo. Il 12 luglio 2024, la legge dell'Unione Europea sull'intelligenza artificiale è stata pubblicata nella Gazzetta Ufficiale dell'Unione Europea, segnando la fase finale del percorso legislativo della legge sull'intelligenza artificiale.

La legge è entrata ufficialmente in vigore il 1° agosto 2024. Entro il 2 febbraio 2025, tutti i fornitori e gli utilizzatori di sistemi di intelligenza artificiale erano tenuti a garantire, nella misura del possibile, un livello sufficiente di alfabetizzazione in materia di intelligenza artificiale tra il personale addetto al funzionamento e all'utilizzo dei sistemi di intelligenza artificiale. La legge entrerà pienamente in vigore nell'agosto 2026, salvo disposizioni specifiche.

Agosto 2024

Entrata ufficiale in vigore della legge

Febbraio 2025
6 mesi dopo

Entrata in vigore dei divieti sui rischi inaccettabili e attuazione dei requisiti di alfabetizzazione in materia di IA

Agosto 2025
12 mesi dopo

Entrata in vigore degli obblighi per i fornitori di GPAI, nonché delle norme sulle notifiche alle autorità e sulle sanzioni

Febbraio 2026
18 mesi dopo

Atto di esecuzione della Commissione sul monitoraggio post-commercializzazione

Agosto 2026
24 mesi dopo

Obblighi per i sistemi di IA ad alto rischio in biometria, infrastrutture critiche e forze dell'ordine

Agosto 2027
36 mesi dopo

Obblighi per i sistemi di IA ad alto rischio come componenti o prodotti di sicurezza che richiedono valutazioni di conformità di terze parti e l'intera legge UE sull'IA diventa applicabile

Prima della fine del 2030

Conformità dei sistemi di intelligenza artificiale nei sistemi IT su larga scala ai sensi del diritto dell'UE in materia di libertà, sicurezza e giustizia

TESTIMONIALS

Cosa dicono i nostri Clienti

Alcune delle ultime collaborazioni con piccole e medie imprese

109

Clienti felici

28

Progetti terminati

35

Obblighi coperti

107

Sanzioni evitate

FAQ sulla legge UE sull'intelligenza artificiale

L'EU AI Act è la legge di punta dell'Unione Europea che regolamenta le modalità di progettazione e utilizzo dei sistemi di intelligenza artificiale all'interno dell'UE. La legge propone un approccio basato sul rischio, classificando le applicazioni di intelligenza artificiale in uno spettro che va da zero a completamente vietate. L'approccio della legge è simile ad altre leggi sulla sicurezza dei prodotti nell'UE e condivide molti aspetti con il GDPR, tra cui sanzioni severe per violazioni fino al 7% del fatturato globale

La legge UE sull'intelligenza artificiale (IA) impone ai fornitori di sistemi di IA con sede nell'UE di conformarsi al regolamento. Inoltre, sia i fornitori che gli utenti situati al di fuori dell'UE sono tenuti a rispettare tali linee guida se i risultati dei loro sistemi di IA vengono utilizzati all'interno dell'UE. Le organizzazioni che utilizzano l'IA per scopi militari e le agenzie pubbliche in paesi al di fuori dell'UE sono esentate da questo regolamento, così come i progetti privati ​​e la ricerca pura.

La situazione è simile alla portata globale del Regolamento generale sulla protezione dei dati (GDPR). La legge sull'intelligenza artificiale si applica fintantoché il sistema di intelligenza artificiale è presente sul mercato dell'UE o i suoi risultati hanno effetti nell'UE. Anche se un'azienda non europea non prevede di servire il mercato dell'UE, potrebbe comunque essere necessario conformarsi per mitigare il rischio legale associato all'offerta di prodotti e servizi basati sull'intelligenza artificiale.

Il 1° agosto 2024 è entrato ufficialmente in vigore l'Atto UE sull'IA. L'Atto diventerà pienamente applicabile 24 mesi dopo tale data, ad eccezione di disposizioni specifiche. Una disposizione degna di nota prevedeva che, entro il 2 febbraio 2025, tutti i fornitori e gli utilizzatori di sistemi di IA avrebbero dovuto garantire, al meglio delle proprie capacità, un livello sufficiente di alfabetizzazione in materia di IA tra il personale coinvolto nel funzionamento e nell'utilizzo di tali sistemi.

Per essere pronte per l'adozione della legge UE sull'intelligenza artificiale, le aziende dovranno rispettare i requisiti rigorosi previsti dalla legge stessa. Dovranno condurre un audit completo dei loro sistemi di intelligenza artificiale esistenti per valutarne la conformità e consultare esperti legali per comprenderne le implicazioni per le loro specifiche attività. Il monitoraggio continuo e la formazione del personale sono inoltre essenziali per garantire che le tecnologie di intelligenza artificiale, sia attuali che future, soddisfino i requisiti normativi.

Secondo la legge UE sull'intelligenza artificiale, modifiche significative a un sistema di intelligenza artificiale possono modificare il ruolo dell'utente da distributore, importatore o distributore a fornitore. Le modifiche significative includono:

Modifica degli algoritmi di base: modifiche alla logica fondamentale o agli algoritmi del sistema di intelligenza artificiale.
Riaddestramento con nuovi dati: utilizzo di nuovi set di dati per l'addestramento che alterano sostanzialmente le prestazioni o il comportamento del sistema.
Integrazione con altri sistemi: modifica del modo in cui il sistema di intelligenza artificiale interagisce con altri componenti hardware o software.
Diventare un fornitore implica maggiori responsabilità, come il rispetto di tutti gli obblighi del fornitore, la manutenzione di una documentazione tecnica dettagliata, la garanzia della conformità ai requisiti della legge e la fornitura di informazioni sulla trasparenza. L'utente potrebbe inoltre essere soggetto a ulteriori controlli e requisiti normativi.

JOIN US

Subscribe to our Newsletter

Grursus mal suada faci lisis Lorem ipsum dolarorit more ametion at bulum nec dumm rsus consectetur elit.

Newsletter