COOKIE POLICY
Questo sito utilizza cookies tecnici e di terze parti per funzionalità quali la condivisione sui social network e/o la visualizzazione di media. Se non acconsenti all'utilizzo dei cookie di terze parti, alcune di queste funzionalità potrebbero essere non disponibili. Per maggiori informazioni consulta questa pagina.
Cliccando sul pulsante "ACCETTO" presti il consenso all'uso di tutti i cookie. Cliccando sul pulsante "NON ACCETTO" rifiuti l'impiego dei cookies.
Cliccando sul pulsante "PREFERENZE" potrai scegliere se attivare o meno i diversi tipi di cookies selezionandoli con il cursore.
ACCETTO
NON ACCETTO
PREFERENZE
L’Intelligenza Artificiale sotto il controllo dell’Europa? Guida all’AI Act

L’Intelligenza Artificiale sotto il controllo dell’Europa? Guida all’AI Act

Capire l’AI Act: applicazione e implicazioni


L’Unione Europea ha finalizzato le procedure per adottare l’AI Act la scorsa settimana (il 13 Marzo) e mancano ormai pochi passaggi prima che i Paesi membri debbano recepire questa innovativa regolamentazione dell’intelligenza artificiale. A ogni modo l’applicazione sarà graduale, per consentire ad aziende e governi di adeguarsi durante questa transizione. Si prevede quindi che la maggior parte delle norme sarà effettiva entro il 2026, con alcune eccezioni urgenti come il divieto per le applicazioni a rischio inaccettabile, applicabile entro sei mesi, ovvero a fine 2024.

Questo atto infatti categorizza le applicazioni AI in quattro livelli di “pericolo”, introducendo norme stringenti per le tecnologie ad alto rischio e vietando quelle considerate un rischio inaccettabile. Per i trasgressori sono previste multe salate: il mancato rispetto dell’AI Act comporterà sanzioni fino a 35 milioni di euro e fino al 7% del fatturato annuale. Cifre importanti, che rendono l’AI Act il più stringente standard internazionale per l’uso etico dell’IA finora esistente.

 

Un quadro normativo innovativo: cosa sono i livelli di rischio dell’AI Act
Come accennato l’AI Act classifica le applicazioni di intelligenza artificiale secondo quattro livelli di rischio, conseguenti al loro potenziale impatto sulla sicurezza e sui diritti dei cittadini.
Ecco cosa prevedono questi livelli.

.

Rischio minimo:
In questo caso non sarà prevista nessuna restrizione.

.

Rischio limitato:
Verranno introdotti requisiti minimi e basilari per garantire agli utenti la consapevolezza del funzionamento dell’AI o il suo coinvolgimento.

.

Rischio alto:
In questi casi ci sarà una valutazione dei rischi ed è prevista la documentazione di scelte tecniche ed etiche, con maggiori informazione agli utenti (rispetto ai casi circoscritti ai rischi limitati). Si preve inoltre la garanzia di un intervento umano e ulteriori livelli di sicurezza informatica.

In pratica l’AI Act non vieta i sistemi che prevedono un rischio alto, ma impone requisiti stringenti per mitigarne i rischi.

Esempi includono i sistemi di intelligenza artificiale generativa come ChatGpt, Gemini e Claude. I contenuti generati da queste AI (foto, video, audio) dovranno essere etichettati chiaramente per contrastare la diffusione di Deep Fake e aiutare gli utenti a discernere tra realtà e finzione. Si parla quindi di una vera e propria “etichettatura” obbligatoria (un avviso, un “warning”). Inoltre, per trasparenza e tutela del copyright, le società produttrici dovranno fornire informazioni su come allenano i modelli di linguaggio e sui dati utilizzati, a salvaguardia delle leggi sul copyright.

.

Rischio inaccettabile:
L’AI Act prevede il divieto assoluto per sistemi che violano i valori europei, come il social scoring, la sorveglianza di massa, il riconoscimento delle emozioni in contesti sensibili e lo sfruttamento di vulnerabilità individuali. Il tentativo è quello di eliminare o almeno limitare le discriminazioni della tecnologia ed evitare il cosiddetto “effetto Black Mirror”, ovvero quelle distopiche situazioni immaginate nel popolare telefilm e a cui l’innovazione rischia di abituarci. All’interno del documento approvato infatti, decine di pagine sono dedicate a circoscrivere e definire ambiti specifici come l’uso di dati biometrici, il presentarsi di eventuali distorsioni e le corrette valutazioni dei rischi.

.

AI Act, un passo verso l’Etica nell’Intelligenza Artificiale
Al netto delle analisi di merito su singoli aspetti, il semplice affrontare rischi concreti e così attuali rende l’AI Act, con tutti i limiti che saprà dimostrare, un “punto di partenza” di cui c’era urgente bisogno. La speranza di tutti è che questo possa essere un passo fondamentale verso un futuro in cui l’intelligenza artificiale sia sviluppata e utilizzata in modo responsabile, nel rispetto dei valori e dei diritti delle persone.

Se vuoi più informazioni sull’intelligenza artificiale clicca qui.

Se vuoi scoprire un modo etico di fare impresa invece clicca qui.




PAGINESI - Mosciano Sant'Angelo | P.IVA 02121430678
È vietata la riproduzione non autorizzata di testi e immagini pubblicate nel sito.