26/03/2025
138 views

La Regolamentazione dell’Intelligenza Artificiale nell’Unione Europea. Il Ruolo dell’AI Act nel Contesto Giuridico e Sociale

Abstract in italiano;

L’intelligenza artificiale (IA) sta trasformando profondamente diversi settori, sollevando questioni giuridiche, etiche e sociali di crescente rilevanza. In risposta a questi sviluppi, l’Unione Europea ha adottato l’AI Act[1], una proposta normativa che intende stabilire un quadro giuridico chiaro per l’uso sicuro e responsabile dell’IA. L’articolo esamina l’AI Act, analizzandone le principali disposizioni, le categorie di rischio e l’impatto sulle normative esistenti, come il GDPR. Si esplorano inoltre le implicazioni per la protezione dei diritti fondamentali, la privacy e la sicurezza, nonché le sfide giuridiche legate alla sua applicazione concreta. Infine, si discute l’importanza di un equilibrio tra innovazione tecnologica e tutela dei diritti umani.[2].

Abstract in inglese;

Artificial intelligence (AI) is profoundly transforming various sectors, raising increasingly significant legal, ethical, and social questions. In response to these developments, the European Union has adopted the AI Act, a legislative proposal aimed at establishing a clear legal framework for the safe and responsible use of AI. This article analyzes the AI Act, focusing on its key provisions, risk categories, and its impact on existing regulations, such as the GDPR. It also explores the implications for the protection of fundamental rights, privacy, and security, as well as the legal challenges associated with its practical implementation. Finally, it discusses the importance of balancing technological innovation with the protection of human rights.


Sommario: §1. Introduzione; §2. Il contesto normativo europeo dell’AI Act; §3. Le categorie di rischio; §4. L’approccio etico e i principi fondamentali; §5. Le sfide nell’applicazione dell’AI Act; §6. Implicazioni per la protezione dei diritti e la privacy; §7. Conclusioni


§1. Introduzione

L’intelligenza artificiale (IA) è diventata una delle tecnologie più influenti degli ultimi decenni. Applicata a settori come la sanità, i trasporti, la finanza e la pubblica amministrazione, l’IA ha mostrato il suo potenziale in termini di efficienza, automazione e innovazione. Tuttavia, con l’aumento dell’uso dell’IA, emergono anche questioni fondamentali riguardanti i diritti umani, la privacy e la sicurezza. La crescente diffusione di sistemi decisionali automatizzati e l’uso di algoritmi per il trattamento di dati sensibili pongono interrogativi significativi sulla responsabilità e sulla trasparenza. L’Unione Europea ha pertanto ritenuto necessario adottare un Regolamento sull’Intelligenza Artificiale (AI Act), che rappresenta il primo tentativo globale di disciplinare in modo organico l’uso dell’IA. Questo regolamento intende garantire che le applicazioni di IA non compromettano i diritti umani e le libertà fondamentali, stabilendo un quadro normativo[3] che contemperi l’innovazione con la protezione degli individui.

L’adozione dell’AI Act da parte della Commissione Europea nel 2021[4] segna una fase importante nel percorso normativo europeo, consolidando una visione di regolamentazione proporzionata e orientata al rischio. Il regolamento si inserisce in un contesto di normative più ampie, tra cui il Regolamento Generale sulla Protezione dei Dati (GDPR) e la Direttiva NIS2 (Network and Information Systems), che trattano la protezione dei dati e la sicurezza delle infrastrutture critiche[5]. L’AI Act, pur rientrando in un ecosistema giuridico complesso[6], si distingue per la sua applicabilità diretta e per la regolamentazione del rischio associato all’uso di sistemi di IA.

§2. Il contesto normativo europeo dell’AI Act

L’AI Act si inserisce in un contesto normativo europeo che include leggi già esistenti, come il GDPR (2016/679/UE) e la Direttiva NIS2 (2022/2555/UE), nonché nuove normative progettate per governare il panorama digitale, tra cui il Digital Services Act (DSA) 2022/2065/UE e il Digital Markets Act (DMA) 2022/1925/UE. Il GDPR è un elemento fondamentale per la protezione dei dati personali nell’Unione Europea e stabilisce regole rigorose per il trattamento dei dati da parte di sistemi automatizzati, in particolare quando questi trattano informazioni sensibili. L’AI Act si integra con il GDPR, poiché molte applicazioni dell’IA implicano la raccolta, l’elaborazione e l’analisi di dati personali, richiedendo quindi un attento bilanciamento tra il diritto alla protezione dei dati e l’uso innovativo di queste tecnologie[7].

Inoltre, l’AI Act risponde alla crescente preoccupazione per la sicurezza[8] e i rischi associati all’uso di tecnologie avanzate come l’IA. L’adozione di questa regolamentazione si inserisce in un più ampio quadro di protezione delle infrastrutture digitali e di gestione dei rischi cibernetici, stabilendo un sistema di autocertificazione per i fornitori di IA e richiedendo una conformità costante alle normative in vigore. In questo contesto, l’AI Act risponde alla necessità di monitorare, regolamentare e certificare le applicazioni ad alto rischio, per evitare che l’uso di tecnologie avanzate possa compromettere la sicurezza e i diritti degli individui.

§3. Le categorie di rischio

Il regolamento introduce una classificazione delle applicazioni di IA in base al livello di rischio che ciascuna comporta per i diritti fondamentali e la sicurezza pubblica. Questa classificazione garantisce una regolamentazione proporzionata e si articola in quattro categorie che vanno dal rischio minimo al rischio inaccettabile, con l’intento di applicare normative proporzionate alla pericolosità dell’applicazione[9]:

  1. Rischio minimo: Include tecnologie che comportano scarsi o nessun rischio per i diritti degli individui e per la sicurezza pubblica. Esempi di applicazioni in questa categoria sono i sistemi di raccomandazione di contenuti o i chatbot. Sebbene queste tecnologie possano influenzare l’esperienza dell’utente, non pongono minacce significative alla sicurezza o ai diritti personali, e pertanto non necessitano di una regolamentazione intensiva.
  2. Rischio limitato: Comprende tecnologie che, pur non essendo altamente rischiose, richiedono comunque un controllo. Si tratta, per esempio, di IA applicata alla pubblicità personalizzata o a settori educativi. La regolamentazione di queste applicazioni è meno severa, ma sono comunque previsti obblighi di trasparenza e di protezione degli utenti.
  3. Rischio alto: Riguarda le applicazioni che hanno impatti diretti sulla vita delle persone, come l’IA utilizzata in sanità, trasporti, giustizia e sicurezza pubblica. Le applicazioni ad alto rischio devono seguire requisiti rigorosi, inclusi audit indipendenti, controllo umano sui sistemi decisionali automatizzati e la documentazione trasparente dei processi decisionali.
  4. Rischio inaccettabile: Include applicazioni di IA che sono considerate incompatibili con i valori fondamentali dell’Unione Europea. Tra queste si trovano le tecnologie di sorveglianza di massa, la manipolazione comportamentale e le tecnologie predittive che possano violare la privacy o minacciare la libertà degli individui. Queste applicazioni sono esplicitamente vietate.

Questa categorizzazione riflette un approccio bilanciato che consente una regolamentazione mirata e differenziata, evitando un onere eccessivo per tecnologie di basso rischio, ma assicurando una protezione robusta per quelle più impattanti.

§4. L’approccio etico e i principi fondamentali

Un aspetto centrale dell’AI Act è l’integrazione di principi etici nel trattamento delle tecnologie di IA. Il regolamento non si limita alla sola regolamentazione tecnica ma riconosce la necessità di garantire che l’IA venga utilizzata in modo responsabile e rispettoso dei diritti fondamentali[10]. L’AI Act stabilisce che le applicazioni di IA devono essere progettate per essere trasparenti, affidabili e non discriminatorie. In particolare, l’articolo 5 del regolamento vieta pratiche come l’uso dell’IA per la manipolazione del comportamento umano o la sorveglianza di massa[11].

L’accountability[12] è un altro principio fondamentale, in quanto l’AI Act stabilisce che le decisioni automatizzate devono essere spiegabili e, in caso di errore, vi deve essere la possibilità di rivedere e contestare le decisioni prese dall’IA. In questo contesto, la supervisione umana è un elemento cruciale: i sistemi di IA ad alto rischio devono essere progettati in modo tale da permettere un controllo umano sulle decisioni, prevenendo l’uso irresponsabile della tecnologia.

§5. Le sfide nell’applicazione dell’AI Act

L’attuazione dell’AI Act pone diverse sfide, tra cui la coerenza nella sua applicazione tra i vari Stati membri dell’Unione Europea. Sebbene il regolamento sia direttamente applicabile in tutti gli Stati membri, ogni paese potrebbe interpretare e applicare le norme in modo diverso, creando rischi di disparità di trattamento e di frammentazione. La diversità giuridica e la varietà di sistemi normativi tra i membri dell’UE potrebbero anche complicare il processo di enforcement delle norme.

Un altro ostacolo riguarda la competizione globale nel settore tecnologico. Le aziende tecnologiche al di fuori dell’UE, in particolare nei paesi non europei, potrebbero non essere soggette a regolamenti simili, rendendo difficile per l’UE mantenere un livello competitivo equo a livello globale. Inoltre, l’applicazione dei controlli e delle certificazioni previsti dall’AI Act potrebbe risultare complessa, specialmente in settori altamente dinamici come la mobilità autonoma e la finanza algoritmica.

§6. Implicazioni per la protezione dei diritti e la privacy

Un obiettivo fondamentale dell’AI Act è garantire la protezione dei diritti e della privacy degli individui. In linea con il GDPR[13], l’AI Act impone che le applicazioni di IA ad alto rischio trattino i dati personali in modo conforme alle norme sulla protezione dei dati. Ciò include la trasparenza nell’uso dei dati, la limitazione della raccolta e l’accesso degli utenti ai propri dati.

Tuttavia, le difficoltà nell’applicazione di un sistema di trasparenza algoritmica rimangono significative. La comprensibilità dei processi decisionali automatizzati per l’utente medio è ancora un obiettivo difficile da raggiungere, dato il grado di complessità e opacità di alcuni sistemi di IA. È pertanto cruciale che vengano sviluppati meccanismi adeguati a rendere comprensibili le decisioni prese dagli algoritmi, garantendo un livello di fiducia sufficiente tra i cittadini.

§7. Conclusioni

L’AI Act segna un passo decisivo nella regolamentazione dell’intelligenza artificiale, stabilendo principi chiari per l’uso responsabile e sicuro di queste tecnologie. Sebbene il regolamento affronti sfide considerevoli nell’attuazione e nell’enforcement, la sua ambizione di creare un equilibrio tra innovazione e protezione dei diritti fondamentali[14] costituisce un modello importante per la regolamentazione globale dell’IA. L’AI Act potrebbe infatti fungere da riferimento per altre giurisdizioni nel loro tentativo di affrontare le problematiche legate all’uso di tecnologie emergenti, stabilendo un quadro giuridico che promuova sia la competitività tecnologica che la protezione delle libertà individuali.


Scarica l’AI ACT


Contattami per un Supporto Personalizzato

Se desideri ulteriori chiarimenti o hai domande riguardo l’argomento trattato, non esitare a contattarmi.

In qualità di consulente legale d’impresa, sono a tua disposizione per offrirti supporto personalizzato, sia per le tue esigenze aziendali che private. Puoi raggiungermi facilmente attraverso il form di contatto sottostante:

    Allegato (Facoltativo)

    _______

    Ho letto con estrema attenzione l'informativa riguardante i termini e le condizioni generali.

    Ho letto l'informativa sulla privacy policy generale e acconsento alla memorizzazione dei miei dati, secondo quanto stabilito dal regolamento europeo per la protezione dei dati personali n. 679/2016 (GDPR), per avere informazioni sui servizi di www.businesslegaltimes.com.

    Ho letto l'informativa sulla privacy policy per il modulo di contatto e acconsento alla registrazione e memorizzazione dei miei dati, secondo quanto stabilito dal regolamento europeo per la protezione dei dati personali n. 679/2016 (GDPR), per avere informazioni sui servizi di www.businesslegaltimes.com e per un'eventuale incarico professionale.

    Ho letto l'informativa sulla privacy call & video-call e acconsento alla registrazione e memorizzazione dei miei dati, secondo quanto stabilito dal regolamento europeo per la protezione dei dati personali n. 679/2016 (GDPR), per avere informazioni sui servizi di www.businesslegaltimes.com, ai fini di tutelare gli interessi delle parti.

    Ho letto l'informativa sulla privacy newsletter e acconsento alla registrazione e memorizzazione dei miei dati, secondo quanto stabilito dal regolamento europeo per la protezione dei dati personali n. 679/2016 (GDPR), sia per avere gli aggiornamenti pubblicati sul portale che sul mondo giuridico ed economico in generale.

    _______


    [1] 2024/1689 REGOLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO E DEL CONSIGLIO del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale) (Testo rilevante ai fini del SEE

    [2] Fragasso, B. (2023). La responsabilità penale del produttore di sistemi di intelligenza artificiale. DIRITTO PENALE CONTEMPORANEO2023(1), 26-45.

    [3] Casonato, C. (2022). L’intelligenza artificiale e il diritto pubblico comparato ed europeo. DPCE online2022(1), 169-179.

    [4] Commissione Europea, Bruxelles, 21.4.2021, Com(2021) 206 Final 2021/0106(Cod) Proposta Di Regolamento Del Parlamento Europeo E Del Consiglio Che Stabilisce Regole Armonizzate Sull’intelligenza Artificiale (Legge Sull’intelligenza Artificiale) E Modifica Alcuni Atti Legislativi Dell’unione. In Https://Eur-Lex.Europa.Eu/Legal-Content/It/Txt/Html/?Uri=Celex:52021pc0206 (Consultato Il 26.03.2025)

    [5] Avv. Luisa Di Giacomo in AI Act: in vigore dal 2 febbraio per sistemi a rischio e formazione del 31/01/25 sul Diritto.it – https://www.diritto.it/regolamento-ia-approvato-accordo-provvisorio-ue/ (Consultato il 26.03.2025)

    [6] Chiappini, D. (2022). Intelligenza Artificiale e responsabilità civile: nuovi orizzonti di regolamentazione alla luce dell’Artificial Intelligence Act dell’Unione europea. Rivista italiana di informatica e diritto4(2), 95-108.

    [7] Lombardi, A. (2023). Disciplina della tutela dei dati personali e regolazione dell’intelligenza artificiale: rapporti, analogie e differenze tra GDPR e AI Act| Data protection regulation and artificial intelligence regulation: relationships, similarities and differences between GDPR and AI Act. European Journal of Privacy Law & Technologies, (2).

    [8] Peruzzi, M. (2024). Intelligenza artificiale e lavoro: l’impatto dell’AI Act nella ricostruzione del sistema regolativo Ue di tutela. In Diritto del lavoro e intelligenza artificiale (pp. 115-145). Giuffré.

    [9] Mayer Brown, 31 January 2025, Eu Ai Act: Ban On Certain Ai Practices And Requirements For Ai Literacy Come Into Effect. Authors: Oliver Yaros, Mark A. Prinsley, Arsen Kourinian, Ana Hadnes Bruder, Reece Randall, Ondrej Hajda, Ellen Hepworth, Alasdair Maher in https://www.mayerbrown.com/en/insights/publications/2025/01/eu-ai-act-ban-on-certain-ai-practices-and-requirements-for-ai-literacy-come-into-effect?utm_source=chatgpt.com (Consultato il 26.03.2025); Commissione Europea, European Artificial Intelligence Act comes into force del Aug 1, 2024  in https://ec.europa.eu/commission/presscorner/detail/en/ip_24_4123 (Consultato il 26.03.2025); Prohibited AI Practices—A Deep Dive into Article 5 of the European Union’s AI Act by Dr. Martin Braun, Anne Vallery, and Itsiq Benizri in https://wp.nyu.edu/compliance_enforcement/2024/04/16/prohibited-ai-practices-a-deep-dive-into-article-5-of-the-european-unions-ai-act/ (Consultato il 26.03.2025)

    [10] Commission publishes the Guidelines on prohibited artificial intelligence (AI) practices, as defined by the AI Act in https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act (Consultato il 26.03.2025)

    [11]White & Case LLP, Long awaited EU AI Act becomes law after publication in the EU’s Official Journal Alert of 16 July 2024. Authors: Tim Hickman, Dr. Sylvia Lorenz, Dr. Constantin Teetzmann, Aishwarya Jha in https://www.whitecase.com/insight-alert/long-awaited-eu-ai-act-becomes-law-after-publication-eus-official-journal?utm_source=chatgpt.com (Consultato il 26.03.2025); Byrne Wallace Shields LLP, The EU AI Act: Ban on Prohibited AI Systems enters into force in https://www.byrnewallaceshields.com/news-and-recent-work/publications/the-eu-ai-act-ban-on-prohibited-ai-systems-enters-into-force.html 05 February 2025. Author: Jon Legorburu (Consultato il 26.03.2025)

    [12] Novelli, C., Taddeo, M. & Floridi, L. Accountability in artificial intelligence: what it is and how it works. AI & Soc 39, 1871–1882 (2024). https://doi.org/10.1007/s00146-023-01635-y.

    [13] Falletta, P., & Marsano, A. (2024). Intelligenza artificiale e protezione dei dati personali: il rapporto tra Regolamento europeo sull’intelligenza artificiale e GDPR. Rivista italiana di informatica e diritto6(1), 119-137.

    [14] Finocchiaro, G. (2024). L’intelligenza artificiale nell’ambito giudiziario. RIVISTA TRIMESTRALE DI DIRITTO E PROCEDURA CIVILE2, 425-447; Frosini, T. E. (2022). L’orizzonte giuridico dell’intelligenza artificiale. BioLaw Journal-Rivista di BioDiritto, (1), 155-164; Vasta, V. (2024). Diritto dell’Unione europea e intelligenza artificiale. Riflessi sul procedimento penale. Rivista Italiana di Diritto e Procedura Penale67(1), 271-285; Tebano, L. (2023). Poteri datoriali e dati biometrici nel contesto dell’AI Act. Federalismi. it, (25), 198-213.

    Lascia un commento

    Your email address will not be published.

    Alessio Barpi è un giurista specializzato nel diritto penale, civile e finanziario d'impresa, con particolare attenzione alla compliance aziendale e alla responsabilità penale degli enti (D.Lgs. 231/2001).
    Ha conseguito una doppia laurea presso l'Università degli Studi di Genova in Servizi Legali per l'Impresa e la Pubblica Amministrazione e in Giurisprudenza.
    Ha inoltre completato percorsi di perfezionamento in Responsabilità Penale degli Enti e Diritto Penale Tributario, con un focus specifico sul diritto commerciale, societario e finanziario.
    La sua carriera professionale si concentra sull'integrazione delle competenze giuridiche con una solida comprensione delle dinamiche aziendali, offrendo consulenza in ambito legale e finanziario per le imprese.