Prepararsi all' AI Act:
il nuovo standard europeo per l’IA.
L’EU Artificial Intelligence Act introduce regole chiare per garantire trasparenza, sicurezza e responsabilità nell’uso dell’intelligenza artificiale.
Offriamo una panoramica completa della normativa e supportiamo la vostra organizzazione nell’analisi dei sistemi di IA, nella definizione delle politiche interne e nell’adeguamento tecnico e documentale richiesto per essere conformi.
Come si definisce un Sistema AI?
Secondo la legge UE sull'intelligenza artificiale, un "sistema di intelligenza artificiale" è definito come un sistema basato su macchine, progettato per operare con diversi livelli di autonomia. Può mostrare adattabilità dopo l'implementazione e, per obiettivi espliciti o impliciti, ricavare informazioni dagli input ricevuti per generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.
Le applicazioni di intelligenza artificiale, come i sistemi di punteggio sociale e le tecnologie manipolative, sono vietate perché potenzialmente dannose.
Le applicazioni di intelligenza artificiale ad alto rischio, come quelle che valutano l'affidabilità creditizia o le infrastrutture critiche, richiedono una valutazione rigorosa prima dell'ingresso sul mercato. Le aziende devono determinare se le loro applicazioni di intelligenza artificiale, esistenti o pianificate, rientrano in questa categoria e prepararsi a rigorose verifiche di conformità.
L'elaborazione di immagini e video, i sistemi di raccomandazione o i chatbot comportano comunque degli obblighi, come la dichiarazione dell'interazione di un utente con un sistema di intelligenza artificiale. Gli standard di qualità, trasparenza ed equità dei dati sono essenziali anche per le applicazioni a rischio limitato.
Le applicazioni di intelligenza artificiale considerate a rischio minimo, come i filtri antispam e i videogiochi, non sono soggette ad ulteriori requisiti normativi.
Classificazione Risk-Based
L’AI Act europeo introduce un quadro di classificazione basato sul rischio per le applicazioni di intelligenza artificiale, che vanno da quelle a rischio minimo fino a quelle vietate, in base al loro impatto potenziale su individui e società.
I sistemi di IA vengono suddivisi in diverse categorie, che in alcuni casi possono sovrapporsi.
Alcuni casi d’uso sono considerati proibiti o ad alto rischio, mentre altri comportano specifici obblighi di trasparenza.
I General Purpose AI Systems (GPAI) seguono invece regole dedicate, e una serie di applicazioni sono parzialmente o totalmente escluse dal campo di applicazione dell’AI Act.
Valutazione di Conformità
I sistemi di IA ad alto rischio devono essere sottoposti a una Valutazione di Conformità per dimostrare la conformità ai requisiti dell’AI Act prima della loro immissione sul mercato europeo.
Il processo richiede la creazione e il mantenimento di documentazione tecnica dettagliata e prove di conformità.
Sviluppo del sistema di IA ad alto rischio
Valutazione di conformità e rispetto dei requisiti dell’AI Act
Registrazione nel database dell’UE
Progettare il sistema con adeguata trasparenza e tracciabilità per un uso sicuro e responsabile.
Dichiarazione di conformità e marcatura CE
Disclaimer:
I passaggi sopra descritti intendono fornire una panoramica generale del processo di valutazione della conformità. Non devono essere considerati esaustivi e non costituiscono consulenza legale o tecnica.
Requisiti di Conformità
La legge stabilisce una serie di requisiti per i sistemi di intelligenza artificiale ad alto rischio, tra cui:
- Risk Management System
- Data and Data Governance
- Technical Documentation
- Record Keeping
- Transparency and provision of information to user
- Human Oversight
- Accuracy, Robustness and Cybersecurity
- Quality Management System
- Fundamental Rights Impact Assessment
I sistemi a rischio limitato vengono valutati secondo le stesse categorie, ma sono sottoposti a livelli di controllo inferiori.
L’allineamento a standard di settore come ISO/IEC 42001:2023 – Sistema di Gestione dell’IA – può aiutare le organizzazioni a soddisfare alcuni dei requisiti di conformità previsti dalla legge UE sull’IA. La norma ISO 42001 fornisce un approccio strutturato alla gestione dei rischi legati all’IA, garantendo la qualità dei dati e mantenendo una documentazione solida.
Comprensione di Ruoli e Responsabilità
La legge UE sull'intelligenza artificiale (IA) delinea ruoli e responsabilità specifici per le parti interessate nel ciclo di vita del sistema di IA. Ogni ruolo comporta obblighi e impatti distinti ai sensi del regolamento.
Ecco una breve panoramica:
Fornitori
Utilizzatori
Importatori
Distributori
Sanzioni per Inadempienza
La legge UE sull'intelligenza artificiale impone sanzioni significative in caso di inosservanza, calcolate in percentuale sul fatturato annuo globale dell'azienda inadempiente o su un importo predeterminato, a seconda di quale sia il più elevato. Le disposizioni includono massimali più proporzionati per le sanzioni amministrative pecuniarie per PMI e start-up.
Timeline e traguardi di Conformità
Nell'aprile 2021, la Commissione Europea ha pubblicato la proposta completa di legge UE sull'intelligenza artificiale, avviando il processo legislativo. Il 12 luglio 2024, la legge dell'Unione Europea sull'intelligenza artificiale è stata pubblicata nella Gazzetta Ufficiale dell'Unione Europea, segnando la fase finale del percorso legislativo della legge sull'intelligenza artificiale.
La legge è entrata ufficialmente in vigore il 1° agosto 2024. Entro il 2 febbraio 2025, tutti i fornitori e gli utilizzatori di sistemi di intelligenza artificiale erano tenuti a garantire, nella misura del possibile, un livello sufficiente di alfabetizzazione in materia di intelligenza artificiale tra il personale addetto al funzionamento e all'utilizzo dei sistemi di intelligenza artificiale. La legge entrerà pienamente in vigore nell'agosto 2026, salvo disposizioni specifiche.
Entrata ufficiale in vigore della legge
Entrata in vigore dei divieti sui rischi inaccettabili e attuazione dei requisiti di alfabetizzazione in materia di IA
Entrata in vigore degli obblighi per i fornitori di GPAI, nonché delle norme sulle notifiche alle autorità e sulle sanzioni
Atto di esecuzione della Commissione sul monitoraggio post-commercializzazione
Obblighi per i sistemi di IA ad alto rischio in biometria, infrastrutture critiche e forze dell'ordine
Obblighi per i sistemi di IA ad alto rischio come componenti o prodotti di sicurezza che richiedono valutazioni di conformità di terze parti e l'intera legge UE sull'IA diventa applicabile
Conformità dei sistemi di intelligenza artificiale nei sistemi IT su larga scala ai sensi del diritto dell'UE in materia di libertà, sicurezza e giustizia
Cosa dicono i nostri Clienti
Alcune delle ultime collaborazioni con piccole e medie imprese
Grursus mal suada faci lisis Lorem ipsum dolarorit more ametion consectetur elit. Vesti at bulum nec
Michael Brian
Grursus mal suada faci lisis Lorem ipsum dolarorit more ametion consectetur elit. Vesti at bulum nec
Marian Chris
Grursus mal suada faci lisis Lorem ipsum dolarorit more ametion consectetur elit. Vesti at bulum nec
Jack Mudson
Grursus mal suada faci lisis Lorem ipsum dolarorit more ametion consectetur elit. Vesti at bulum nec
Michael Brian
Grursus mal suada faci lisis Lorem ipsum dolarorit more ametion consectetur elit. Vesti at bulum nec
Marian Chris
Clienti felici
Progetti terminati
Obblighi coperti
Sanzioni evitate
FAQ sulla legge UE sull'intelligenza artificiale
L'EU AI Act è la legge di punta dell'Unione Europea che regolamenta le modalità di progettazione e utilizzo dei sistemi di intelligenza artificiale all'interno dell'UE. La legge propone un approccio basato sul rischio, classificando le applicazioni di intelligenza artificiale in uno spettro che va da zero a completamente vietate. L'approccio della legge è simile ad altre leggi sulla sicurezza dei prodotti nell'UE e condivide molti aspetti con il GDPR, tra cui sanzioni severe per violazioni fino al 7% del fatturato globale
La legge UE sull'intelligenza artificiale (IA) impone ai fornitori di sistemi di IA con sede nell'UE di conformarsi al regolamento. Inoltre, sia i fornitori che gli utenti situati al di fuori dell'UE sono tenuti a rispettare tali linee guida se i risultati dei loro sistemi di IA vengono utilizzati all'interno dell'UE. Le organizzazioni che utilizzano l'IA per scopi militari e le agenzie pubbliche in paesi al di fuori dell'UE sono esentate da questo regolamento, così come i progetti privati e la ricerca pura.
La situazione è simile alla portata globale del Regolamento generale sulla protezione dei dati (GDPR). La legge sull'intelligenza artificiale si applica fintantoché il sistema di intelligenza artificiale è presente sul mercato dell'UE o i suoi risultati hanno effetti nell'UE. Anche se un'azienda non europea non prevede di servire il mercato dell'UE, potrebbe comunque essere necessario conformarsi per mitigare il rischio legale associato all'offerta di prodotti e servizi basati sull'intelligenza artificiale.
Il 1° agosto 2024 è entrato ufficialmente in vigore l'Atto UE sull'IA. L'Atto diventerà pienamente applicabile 24 mesi dopo tale data, ad eccezione di disposizioni specifiche. Una disposizione degna di nota prevedeva che, entro il 2 febbraio 2025, tutti i fornitori e gli utilizzatori di sistemi di IA avrebbero dovuto garantire, al meglio delle proprie capacità, un livello sufficiente di alfabetizzazione in materia di IA tra il personale coinvolto nel funzionamento e nell'utilizzo di tali sistemi.
Per essere pronte per l'adozione della legge UE sull'intelligenza artificiale, le aziende dovranno rispettare i requisiti rigorosi previsti dalla legge stessa. Dovranno condurre un audit completo dei loro sistemi di intelligenza artificiale esistenti per valutarne la conformità e consultare esperti legali per comprenderne le implicazioni per le loro specifiche attività. Il monitoraggio continuo e la formazione del personale sono inoltre essenziali per garantire che le tecnologie di intelligenza artificiale, sia attuali che future, soddisfino i requisiti normativi.
Secondo la legge UE sull'intelligenza artificiale, modifiche significative a un sistema di intelligenza artificiale possono modificare il ruolo dell'utente da distributore, importatore o distributore a fornitore. Le modifiche significative includono:
Modifica degli algoritmi di base: modifiche alla logica fondamentale o agli algoritmi del sistema di intelligenza artificiale.
Riaddestramento con nuovi dati: utilizzo di nuovi set di dati per l'addestramento che alterano sostanzialmente le prestazioni o il comportamento del sistema.
Integrazione con altri sistemi: modifica del modo in cui il sistema di intelligenza artificiale interagisce con altri componenti hardware o software.
Diventare un fornitore implica maggiori responsabilità, come il rispetto di tutti gli obblighi del fornitore, la manutenzione di una documentazione tecnica dettagliata, la garanzia della conformità ai requisiti della legge e la fornitura di informazioni sulla trasparenza. L'utente potrebbe inoltre essere soggetto a ulteriori controlli e requisiti normativi.
Subscribe to our Newsletter
Grursus mal suada faci lisis Lorem ipsum dolarorit more ametion at bulum nec dumm rsus consectetur elit.
