Il mondo della intelligenza artificiale generativa è tra noi e chi più chi meno, ciascuno di noi ha testato l’utilizzo di strumenti come ChatGPT, Gemini, Copilot, Claude, DeepSeek. Li abbiamo utilizzati, sì: ma sappiamo davvero come si scrive un prompt?
Un buon prompt non è solo una domanda, ma una vera e propria architettura di istruzioni che guida l’IA verso un risultato utile e preciso. Scrivere un prompt efficace significa stabilire un obiettivo chiaro, fornire un contesto adeguato e definire un formato di risposta adatto. Eppure, molti si limitano a digitare richieste generiche, ottenendo risposte superficiali o imprecise. Nei giorni scorsi lo ha ribadito anche Greg Brockman – cofondatore e presidente di OpenAI – che su X ha ripostato un esempio di prompt ben fatto.
Questo è un tema importante non solo per gli utenti privati, ma anche per le organizzazioni che adottano strumenti di IA senza comprenderne appieno le potenzialità e i limiti. Tra queste rientrano anche le pubbliche amministrazioni dove – spesso senza alcuna indicazione o regolamento – i dipendenti usano strumenti e modelli di IA, talvolta ricorrendo ai propri account personali.
AI e settore pubblico
Se c’è un settore in cui l’intelligenza artificiale può portare benefici immediati, quello è il settore pubblico. Dall’ottimizzazione delle pratiche burocratiche alla personalizzazione dei servizi per i cittadini, l’IA ha il potenziale per trasformare radicalmente il modo in cui gli enti pubblici operano, semplificando la vita dei dipendenti pubblici.
A Singapore, ad esempio, la piattaforma Pair mette a disposizione dei dipendenti pubblici strumenti basati su IA per velocizzare la gestione documentale e migliorare l’accesso alle informazioni (e si stima che abbia fatto risparmiare ai dipendenti il 46% del tempo impiegato per le attività più routinarie). Nel Regno Unito, invece, il Ministero dell’Interno utilizza sistemi IA per gestire i casi di immigrazione, inclusi i rimpatri. Questo ha sollevato però critiche e questioni etiche rilevanti. Gli attivisti, infatti, temono che le decisioni vengano di fatto automatizzate, poiché per i funzionari è più facile accettare le raccomandazioni del sistema rispetto a respingerle, operazione che richiede una motivazione dettagliata. Vi è inoltre una carenza di trasparenza: i migranti non sono informati sul fatto che i loro casi vengono trattati con il supporto di un algoritmo, il che rende difficile contestare le decisioni o comprendere il processo.
Insomma, non basta comprare licenze di strumenti IA e metterle a disposizione dei dipendenti: l’uso sempre più massiccio di IA in ambito pubblico pone questioni di riservatezza, errori, discriminazioni e fiducia dell’opinione pubblica.
>> QUESTO ARTICOLO E’ TRATTO DA LEGGE ZERO, LA NEWSLETTER GRATUITA DI MAGGIOLI EDITORE SU INTELLIGENZA ARTIFICIALE, DIRITTO E L’INTERAZIONE TRA QUESTI DUE AMBITI. ISCRIVITI QUI.
Master in Intelligenza Artificiale per la Pubblica Amministrazione
IL CAIO nella P.A.: norme, tecnologie e organizzazione dopo le Linee Guida AgID sull’IA
31 Mar 2025 – 17 Apr 2025 ore 9.00 – 13.00
1,708.00 €
IA nella PA: alcune buone prassi
Esistono buone prassi da seguire, come quella della città Amsterdam che, per garantire la massima trasparenza, ha creato un Registro degli Algoritmi, che permette ai cittadini di conoscere e monitorare l’uso degli algoritmi nella gestione urbana. Ma non basta. Per questo, non solo in UE, si stanno moltiplicando documenti con le indicazioni che le amministrazioni devono seguire per l’adozione, sviluppo, acquisto e uso di sistemi di IA. Solo nell’ultima settimana, indicazioni di questo tipo sono state adottate da Italia e Regno Unito.
In UK è stato pubblicato il playbook sull’IA nel settore pubblico, documento che fornisce linee guida per l’uso responsabile dell’IA negli uffici pubblici britannici.
>> IL NOSTRO SPECIALE SULL’INTELLIGENZA ARTIFICIALE NELLA PA.
Alcune indicazioni utili
L’AI playbook for the UK Government delinea dieci principi fondamentali per guidare l’uso sicuro ed efficace dell’intelligenza artificiale nelle organizzazioni governative. Ecco un riepilogo utile a qualsiasi latitudine:
– Comprendere l’IA e le sue limitazioni: assicurarsi di avere una chiara comprensione di cosa sia l’IA, delle sue capacità e dei suoi limiti, riconoscendo che i sistemi di IA attuali mancano di ragionamento e consapevolezza contestuale.
– Uso legale, etico e responsabile dell’IA: garantire che l’adozione di soluzioni IA rispetti le leggi vigenti e consideri le implicazioni etiche, coinvolgendo giuristi esperti di conformità e di protezione dei dati sin dalle prime fasi dello sviluppo.
– Sicurezza nell’uso dell’IA: implementare misure di sicurezza per proteggere i dati e prevenire accessi non autorizzati, assicurando che gli strumenti di IA accedano solo ai dati necessari per il loro compito.
– Controllo umano significativo: mantenere il controllo umano nei punti critici del processo decisionale, assicurando che una persona qualificata riveda e approvi i risultati generati dall’IA.
– Gestione del ciclo di vita dell’IA: stabilire processi per configurare, aggiornare e disattivare gli strumenti di IA in modo sicuro, con risorse adeguate per la manutenzione continua e test regolari per monitorare errori e bias.
– Utilizzo dello strumento appropriato: valutare se l’IA è la soluzione più adatta per il compito specifico, considerando le sue capacità e limitazioni, e rimanere aperti a soluzioni alternative quando più appropriate.
– Trasparenza e collaborazione: collaborare con altre organizzazioni pubbliche e stakeholder, condividendo conoscenze e risorse, e mantenere una comunicazione aperta con i cittadini sull’uso degli strumenti di IA.
– Coinvolgimento degli esperti di acquisti fin da principio: integrare aspetti contrattuali ed etici fin dalle prime fasi dello sviluppo o dell’acquisizione di strumenti di IA, assicurando che le aspettative etiche siano soddisfatte sia dagli strumenti sviluppati internamente sia da quelli di terze parti.
– Competenze e expertise necessarie: garantire che il team disponga delle competenze tecniche e conoscenze necessarie per implementare e utilizzare efficacemente l’IA, partecipando a corsi di formazione e aggiornandosi sugli sviluppi nel settore.
– Allineamento con le politiche organizzative e assicurazione adeguata: applicare questi principi coerentemente con le policy interne dell’organizzazione e stabilire processi di revisione e gestione dei rischi associati all’uso dell’IA.
IA e semplificazione
Il documento inglese è molto complesso (118 pagine), così come è lungo e complesso il documento adottato – in Italia – dall’Agenzia per l’Italia Digitale con le Linee guida sull’adozione dell’IA da parte delle pubbliche amministrazioni (119 pagine).
Siamo di fronte a un paradosso: vogliamo usare l’IA per semplificare le amministrazioni e il loro lavoro, ma è necessario un sistema di regole e compliance che potrebbe essere molto difficile da gestire, specialmente per le amministrazioni medio-piccole.
Sarà la sfida del prossimo futuro: se vogliamo davvero che le amministrazioni (di tutto il mondo) usino davvero l’IA in modo responsabile, dobbiamo costruire regole e linee guida facili da comprendere e implementare.
Linee guida sull’adozione dell’IA nella PA
Le novità per le amministrazioni
19 Mar 2025 ore 10.00 – 12.00
Scrivi un commento
Accedi per poter inserire un commento