Esplorare le applicazioni dell'intelligenza artificiale nell'amministrazione cittadina: la promessa e i rischi
CasaCasa > Blog > Esplorare le applicazioni dell'intelligenza artificiale nell'amministrazione cittadina: la promessa e i rischi

Esplorare le applicazioni dell'intelligenza artificiale nell'amministrazione cittadina: la promessa e i rischi

Aug 18, 2023

Scritto in collaborazione con Kate Stoll e Danielle Grey-Stewart del Centro AAAS per le prove scientifiche nelle questioni pubbliche.

L’intelligenza artificiale (AI) sta cambiando il panorama del lavoro e i governi locali non sono affatto esenti. Città, paesi e villaggi possono sfruttare la potenza dell’intelligenza artificiale per elaborare risoluzioni, creare contenuti sui social media, riassumere informazioni per gli elettori, migliorare il processo decisionale basato sui dati e altro ancora. Tuttavia, non tutte le applicazioni comunali sono adatte all’intelligenza artificiale, e non tutte le tecnologie dell’intelligenza artificiale sono adatte all’uso governativo.

Per discutere le opportunità e i rischi dell’intelligenza artificiale per i leader locali, la National League of Cities e l’American Association for the Advancement of Science Center for Scientific Evidence in Public Issues hanno co-ospitato un evento virtuale il 10 agosto: “Introduzione all’intelligenza artificiale nel governo municipale .”

Sebbene la conversazione sia stata solo la punta dell’iceberg quando si tratta di applicazioni e politiche di intelligenza artificiale da parte dei governi municipali, dall’evento si possono raccogliere diversi punti chiave:

L’intelligenza artificiale non è una soluzione magica . Abbiamo ascoltato la professoressa Hoda Heidari, co-leader della Responsible AI Initiative presso la Carnegie Mellon University, su come l'intelligenza artificiale utilizza processi statistici progettati per trovare modelli nei dati. Questo può essere uno strumento prezioso per i leader locali. Tuttavia, come le decisioni prese dall’uomo, i sistemi di intelligenza artificiale presentano il potenziale di pregiudizi e discriminazioni a seconda della loro formazione, dei dati che utilizzano e della loro applicazione finale. È necessario prestare particolare attenzione quando l’intelligenza artificiale viene utilizzata per informare decisioni consequenziali o per fornire valutazioni dei rischi che influiscono sulla vita delle persone.

Ci sono moltitipi di intelligenza artificiale . L’intelligenza artificiale generativa, come ChatGPT o Google Bard, è solo un tipo di tecnologia. L'intelligenza artificiale generativa per il testo funziona prevedendo la parola successiva in una frase, la frase successiva in un paragrafo e così via, in base a ciò che è più probabile che seguirà secondo il testo estratto da molte fonti, inclusa Internet. L’intelligenza artificiale generativa generalmente non verifica l’accuratezza: gli esseri umani dovrebbero verificare i suoi risultati.

Sperimenta ma verifica! Le Linee guida provvisorie per l'utilizzo dell'intelligenza artificiale generativa della città di Boston, Massachusetts, evidenziano come gli strumenti di intelligenza artificiale abbiano un potenziale significativo a vantaggio del lavoro dei dipendenti comunali. Questo potenziale, tuttavia, non elimina la responsabilità del personale per i propri risultati, motivo per cui la verifica e la responsabilità sono essenziali. Il Chief Information Officer di Boston, Santiago Garces, ha sottolineato tre principi guida:

1) Verifica dei fatti e revisione di tutti i risultati dell’intelligenza artificiale generativa: gli esseri umani sono i responsabili ultimi di qualunque prodotto o risultato pubblichino, indipendentemente dal fatto che venga utilizzata l’intelligenza artificiale.

2) Dichiarare quando è stata utilizzata l’intelligenza artificiale generativa: gli elettori si aspettano trasparenza dal proprio governo locale.

3) Non condividere informazioni sensibili o private: le informazioni immesse nei prompt dell'intelligenza artificiale generativa non sono intrinsecamente private e pertanto potrebbero essere vulnerabili a minacce alla sicurezza o potrebbero essere utilizzate dall'azienda che fornisce il modello per addestrare ulteriormente la propria tecnologia.

L’intelligenza artificiale non è solo per le grandi città. Mentre altre tecnologie emergenti spesso richiedono una formazione tecnica e risorse di personale significative, gli strumenti di intelligenza artificiale generativa basati su input del linguaggio naturale consentono alle città di tutte le dimensioni di beneficiare del suo valore. La città di Wentzville, MO, sta sperimentando strumenti di intelligenza artificiale generativa per automatizzare alcuni aspetti della comunicazione cittadina, creando così più tempo e spazio per il pensiero creativo e strategico da parte del personale cittadino. Wentzville offre formazione in presenza e richiede formazione virtuale per il personale sull'uso dell'intelligenza artificiale generativa.

L’evento di agosto ha semplicemente scalfito la superficie delle numerose domande sollevate sulla promessa e sul pericolo delle applicazioni dell’intelligenza artificiale negli enti locali. Quali domande hai sull’utilizzo dell’intelligenza artificiale nella tua città o paese? Quali applicazioni creative dell’intelligenza artificiale possono proiettare la tua città nel futuro digitale? Quali barriere dovrebbero essere messe in atto per garantire l’uso sicuro dell’intelligenza artificiale nella tua città o paese?