articolo
L'AI Act e il ruolo dell'intelligenza artificiale nella trasformazione digitale e sostenibilità
23 maggio 2024 | Legge applicabile: Unione Europea | 3 MINUTI DI LETTURA
L'intelligenza artificiale (IA) è al centro della rivoluzione tecnologica e digitale, con potenziali benefici che attraversano tutti i settori e le industrie. Tuttavia, l'uso non etico della IA può avere gravi conseguenze per la società e per i diritti fondamentali delle persone. Per gestire i rischi associati a questa tecnologia e promuovere lo sviluppo di sistemi IA affidabili e incentrati sull'uomo, nonché responsabili sotto il profilo ambientale, sociale e di governance, l'Unione Europea ha introdotto l'AI Act.
Cos'è l'AI Act?
L'AI Act è la prima normativa specifica sull'intelligenza artificiale e si applica a fornitori, utilizzatori, importatori e distributori di sistemi IA immessi o utilizzati nell'UE, indipendentemente dalla loro sede legale. Questa normativa stabilisce regole e obblighi diversi in base al livello di rischio dei sistemi IA, con l'obiettivo di proteggere la salute, la sicurezza e i diritti fondamentali delle persone, promuovendo al contempo la sostenibilità ambientale e la responsabilità sociale.
Livelli di Rischio sui cui porre attenzione e obblighi
Rischio Inaccettabile I sistemi IA che rappresentano un rischio inaccettabile per la salute, la sicurezza o i diritti fondamentali sono vietati. Esempi di tali sistemi includono, il riconoscimento delle emozioni nei luoghi di lavoro o i sistemi di valutazione del credito sociale.
Alto Rischio Per i sistemi IA ad alto rischio, come quelli utilizzati in sistemi biometrici, giocattoli, dispositivi medici, processi di assunzione, l'AI Act richiede il rispetto di requisiti fondamentali, tra cui, una valutazione di conformità, una determinata qualità dei dati, documentazione e tracciabilità, trasparenza, sorveglianza umana e misure di sicurezza e cybersicurezza.
Tempistiche di Applicazione
Il Parlamento europeo ha adottato il testo finale dell'AI Act nel marzo 2024, che entrerà in vigore il 20° giorno successivo alla pubblicazione nella Gazzetta ufficiale dell'Unione Europea (probabilmente nel corso dell'estate). Le scadenze per l'applicazione delle norme sono graduali: entro 6 mesi, entreranno in vigore i divieti sui sistemi IA a rischio inaccettabile; entro 12 mesi, gli obblighi per i sistemi IA a uso generale; entro 24-36 mesi, diverranno efficaci tutte le norme dell'AI Act, compresi gli obblighi per i sistemi IA ad alto rischio.
Azioni Consigliate per le Aziende
Le aziende devono sin da subito adottare diverse misure per garantire la conformità all'AI Act e rafforzare la fiducia nella tecnologia IA, con un occhio di riguardo verso la responsabilità ambientale, sociale e di governance. Ecco alcune azioni consigliate su cui il nostro studio può fornirvi assistenza:
- Identificazione e Catalogazione dei Sistemi IA: Assistenza nell'identificazione e classificazione dei sistemi IA in base al rischio.
- Valutazione d'Impatto e Conformità: Valutazione dell'impatto dei sistemi IA sui diritti fondamentali e conformità normativa, inclusa l'implementazione di algoritmi privi di bias e pratiche di sviluppo che garantiscano l'accessibilità e la non discriminazione.
- Gestione dei Rischi Legali: Valutazione e gestione dei rischi legali associati ai sistemi IA, comprese le normative sulla proprietà intellettuale, GDPR e responsabilità del prodotto, promuovendo soluzioni che minimizzino l'impatto ambientale.
- Tech Due Diligence: Assistenza nelle due diligence tecnologiche per operazioni straordinarie, accordi d'investimento e contratti strategici aventi ad oggetto IA.
- Protezione dei Diritti di Proprietà Intellettuale: Assistenza nella protezione e valorizzazione dei diritti di proprietà intellettuale connessi a sistemi, software e algoritmi IA.
- Redazione e Negoziazione di Contratti: Supporto nella redazione e negoziazione di contratti per lo sviluppo, licenza, acquisizione e distribuzione di sistemi IA.
- Valutazione d'Impatto sulla Protezione dei Dati: Assistenza nella valutazione d'impatto sulla protezione dei dati, governance e misure di sicurezza dei dati in caso di utilizzo di IA per il trattamento di dati personali.
- Governance Trasparente: Adozione di policy di trasparenza e responsabilità, inclusa la tracciabilità delle decisioni automatizzate per garantire che possano essere comprese e contestate.
- Formazione e Policy Aziendali: Formazione e stesura di policy per l'utilizzo etico e responsabile dei sistemi IA all'interno delle aziende e organizzazioni.
Adottare queste pratiche non solo garantirà la conformità normativa e la protezione dei propri investimenti in IA, ma contribuirà anche a costruire la fiducia nella tecnologia IA, essenziale per il suo sviluppo e utilizzo efficace e responsabile.
Iscriviti alla nostra newsletter
Per conoscere ulteriori notizie o ricevere informazioni utili comunicaci i tuoi interessi e ti terremo aggiornato sulle ultime novità.