Intelligenza artificiale nella pubblica amministrazione: pubblicate le prime linee guida
Intelligenza artificiale nella pubblica amministrazione: pubblicate le prime linee guida (che ricalcano l’AI Act).L’AgID ha aperto una consultazione pubblica che finirà il 20 marzo in cui chiunque può proporre modifiche e suggerimenti. Dagli usi consentiti a quelli vietati: ecco come gli enti pubblici potranno utilizzare l’IA. Come riportato dal “Corriere”, LAgenzia per l’Italia digitale (AgID) ha pubblicato il 18 febbraio le prime linee guida provvisorie per l’uso dell’intelligenza artificiale nella pubblica amministrazione. È una consultazione pubblica, prevista dal Piano Triennale per l’Informatica nella pubblica amministrazione 2024-2026, e fino al 20 marzo chiunque – esperti ma anche semplici cittadini – potrà proporre modifiche e suggerimenti da apportare al documento attraverso i commenti su Forum Italia.
Se l’IA viene vista come una «grande opportunità per migliorare l’efficienza operativa del servizio pubblico», la bozza di testo prova a individuare i binari entro cui poter sfruttare le immense potenzialità che le nuove tecnologie possono offrire anche agli enti pubblici. Il tutto nel rispetto della babele normativa che regola il settore: dai regolamenti comunitari, come l’AI Act e il Gdpr, alle leggi nazionali, come il codice privacy (in attesa dell’approvazione del disegno di legge italiano sull’intelligenza artificiale).
Con un obiettivo: implementare al massimo l’utilizzo dell’IA, per potenziare la qualità dei servizi offerti dalla pubblica, garantendo al tempo stesso sicurezza e tutela di diritti fondamentali. E con un accorgimento: «considerata la velocità dell’innovazione – si legge nelle 119 pagine del testo – le linee guida devono garantire un adattamento costante ai cambiamenti imposti dall’incessante rivoluzione digitale» tramite l’adozione di «allegati (…) i cui contenuti potranno essere adeguati agevolmente all’evoluzione tecnologica».
L’uso dell’IA nella pubblica amministrazione
Le pubbliche amministrazioni, spiega l’AgID, «adottano l’IA al fine di: a) automatizzare attività semplici e ripetitive di ricerca e analisi delle informazioni, liberando tempo di lavoro per attività a maggior valore; b) aumentare le capacità predittive, migliorando il processo decisionale basato sui dati; c) supportare la personalizzazione dei servizi incentrata sull’utente, aumentando l’efficacia, l’efficienza e la tempestività dei servizi pubblici anche attraverso meccanismi di proattività; d) promuovere l’innovazione dei servizi pubblici e dei processi amministrativi».
Fin qui gli ambiti di applicazione. Il tutto nel rispetto di alcuni princìpi esplicitati nelle linee guida (e derivanti dalla legislazione nazionale e sovrannazionale): dalla conformità normativa alla gestione del rischio, dalla protezione dei dati personali alla non discriminazione, dalla trasparenza alla robustezza, dalla supervisione umana all’adozione di standard tecnici definiti in anticipo fino alla sostenibilità ambientale. Tutto, di fatto, nel solco dell’AI Act entrato (parzialmente) in vigore il primo febbraio scorso.Cosa si può fare con l’IA
Stabiliti gli ambiti d’applicazione e i princìpi da seguire, le linee guida dell’AgID snocciolano cosa può fare la pubblica amministrazione con l’intelligenza artificiale. In ogni suo ambito, la PA potrà adottare sistemi di IA per automatizzare processi ripetitivi, guadagnandone in tempo ed efficienza. In concreto, come si legge nel documento, si può utilizzare l’intelligenza artificiale per il «supporto alle decisioni», per l’«ottimizzazione dell’allocazione delle risorse», per il «miglioramento della gestione documentale» oltre che per le «procedure d’acquisto».
L’intelligenza artificiale, poi, può essere sfruttata per il «miglioramento dei servizi ai cittadini e alle imprese» – personalizzando l’offerta e garantendo un accesso più semplice e trasparente alle procedure amministrative – ma anche per la «sicurezza e protezione dei dati». In riferimento a quest’ultimo punto è obbligatorio un monitoraggio continuo dei sistemi oltre che una valutazione dell’impatto etico dell’IA.
Cosa non si può fare con l’IA
Ci sono le attività consentite, ma anche e soprattutto quelle tassativamente vietate dalle linee guida, che anche in quest’ambito recepiscono i divieti messi nero su bianco a livello europeo dall’AI Act, la prima legge al mondo sull’intelligenza artificiale.
Per esempio, non si possono adottare sistemi di scoring sociale, cioè quelli che valutano i cittadini in base a comportamenti o caratteristiche personali. È vietato poi impiegare l’IA per sfruttare la vulnerabilità di categorie di individui particolarmente sensibili come per esempio i bambini. Non si può, poi, usare strumenti di riconoscimenti biometrico (salvo eccezioni legate alla sicurezza nazionale).
Nel testo viene poi esplicitato un principio guida, contenuto in tante altre normative del settore, che impedisce di delegare «decisioni critiche» all’intelligenza artificiale in assenza di supervisiona umana: «le PA – si legge nel testo – assicurano che i sistemi di IA siano progettati e implementati in modo tale da consentirne la verifica, correzione o sostituzione da parte di personale umano».
Un approccio basato sul rischio
Coerentemente con le sensibilità che si sono progressivamente affermate nell’Unione europea, anche quello di AgID è inevitabilmente un approccio basato sul rischio. Le pubbliche amministrazioni devono infatti «tenere in considerazione la classificazione dei sistemi di IA in base ai livelli di rischio delineati dall’AI Act». Si va dai sistemi di IA vietati perché dal «rischio inaccettabile» (come quelli elencati nel paragrafo precedente) a quelli «ad alto rischio» che «rappresentano una potenziale rilevante dannosità, con elevata compromissione di interessi pubblici e diritti fondamentali». Fino ai «sistemi di IA a rischio limitato» (per esempio chatbot generici) o a quelli «a rischio minimo o nullo», che hanno «un impatto del tutto trascurabile su interessi pubblici e diritti fondamentali».
Per garantire affidabilità e sicurezza dei sistemi di intelligenza artificiale, le linee guida raccomandano l’implementazione di procedure specifiche di gestione del rischio, come una valutazione preliminare e un monitoraggio costante per rilevare e mitigare tempestivamente eventuali anomalie. E prevedono che la fase implementativa dei sistemi di IA avvenga gradualmente, con progetti pilota in aree ben definite, così da minimizzare i rischi.
Non solo. L’AgID impone il massimo della trasparenza – con comunicazioni chiare agli utenti riguardo al funzionamento dei sistemi IA e alle decisioni generate – e una formazione del personale coinvolto nella gestione e nella supervisione delle applicazioni dell’intelligenza artificiale da parte degli enti pubblici.