CANBERRA - Venerdì, rappresentanti di dipartimenti governativi, agenzie e organizzazioni di ricerca hanno evidenziato i potenziali problemi derivanti dall’uso dell’IA quando venga impiegata per prendere decisioni amministrative.

Sarah Bendall, Ombudsman del Commonwealth, ha sottolineato che i sistemi di IA dovrebbero essere monitorati da personale umano e usati solo nel rispetto delle normative dell’ente. Bendall ha avvertito che l’uso dell’IA può amplificare gli errori, come già avvenuto nei modelli di calcolo del debito da parte di Services Australia, e ha suggerito che tutte le agenzie valutino attentamente il rischio di errori su larga scala prima di implementare tali tecnologie.

Chris Fechner, direttore dell’Agenzia per la Trasformazione Digitale, ha anticipato un forte aumento degli esperimenti con l’IA nei prossimi mesi. L’agenzia ha già sperimentato Microsoft CoPilot con 7.500 utenti e prevede che numerosi dipartimenti lanceranno progetti simili a breve. Fechner ha sottolineato l’importanza di un controllo rigoroso per assicurarsi che l’uso dell’IA non porti alla condivisione involontaria di informazioni sensibili.

Anche il Dipartimento degli Affari interni ha adottato un approccio cauto, ha riferito Pia Andrews, responsabile dell’ufficio dati. L’IA viene usata in un ambiente controllato e solo per attività semplici, come riassumere riunioni o migliorare la grammatica, evitando però di affidarle la stesura di documenti di policy, vista l’inaffidabilità finora dimostrata in compiti complessi.

L’inchiesta, avviata a settembre, mira a regolare l’uso dell’IA nelle istituzioni governative e a valutare oltre 300 proposte di regolamentazione per evitare danni alla società.