Peter Kyle, il segretario di stato britannico per la scienza, l’innovazione e la tecnologia, ha dichiarato di utilizzare ChatGPT per comprendere concetti difficili. Il segretario alla tecnologia del Regno Unito, Peter Kyle, ha chiesto a ChatGPT consigli sul perché l’adozione dell’intelligenza artificiale sia così lenta nella comunità imprenditoriale britannica e su quali podcast dovrebbe apparire.
Questa settimana, il Primo Ministro Keir Starmer ha affermato che il governo del Regno Unito dovrebbe fare un uso molto maggiore dell’IA per aumentare l’efficienza. “Nessuna persona dovrebbe dedicare tempo sostanziale a un compito che il digitale o l’IA possono fare meglio, più velocemente e con la stessa alta qualità e standard,” ha detto.
Ora, New Scientist ha ottenuto i registri dell’uso di ChatGPT da parte di Kyle grazie al Freedom of Information (FOI) Act, in quello che si crede sia il primo test mondiale per verificare se le interazioni con i chatbot siano soggette a tali leggi.
Questi registri mostrano che Kyle ha chiesto a ChatGPT di spiegare perché la comunità delle piccole e medie imprese (PMI) del Regno Unito sia stata così lenta nell’adottare l’IA. ChatGPT ha restituito una lista di 10 problemi che ostacolano l’adozione, tra cui sezioni su “Consapevolezza e Comprensione Limitate”, “Preoccupazioni Regolatorie ed Etiche” e “Mancanza di Supporto Governativo o Istituzionale”.
Il chatbot ha consigliato a Kyle: “Sebbene il governo del Regno Unito abbia lanciato iniziative per incoraggiare l’adozione dell’IA, molte PMI non sono a conoscenza di questi programmi o li trovano difficili da navigare. L’accesso limitato ai finanziamenti o agli incentivi per ridurre il rischio degli investimenti in IA può anche scoraggiare l’adozione.” Ha anche detto, riguardo alle preoccupazioni regolatorie ed etiche: “La conformità alle leggi sulla protezione dei dati, come il GDPR [una legge sulla privacy dei dati], può essere un ostacolo significativo. Le PMI possono preoccuparsi delle questioni legali ed etiche associate all’uso dell’IA.”
“Come Ministro del Gabinetto responsabile per l’IA, il Segretario di Stato fa uso di questa tecnologia. Questo non sostituisce i consigli completi che riceve regolarmente dai funzionari,” dice un portavoce del Dipartimento per la Scienza, l’Innovazione e la Tecnologia (DSIT), che Kyle guida. “Il Governo sta utilizzando l’IA come strumento per risparmiare lavoro, supportato da linee guida chiare su come utilizzare rapidamente e in sicurezza la tecnologia.”
Kyle ha anche utilizzato il chatbot per raccogliere idee per apparizioni mediatiche, chiedendo: “Sono il Segretario di Stato per la scienza, l’innovazione e la tecnologia nel Regno Unito. Quali sarebbero i migliori podcast su cui apparire per raggiungere un vasto pubblico appropriato per le mie responsabilità ministeriali?” ChatGPT ha suggerito The Infinite Monkey Cage e The Naked Scientists, basandosi sul numero di ascoltatori.
Oltre a cercare questi consigli, Kyle ha chiesto a ChatGPT di definire vari termini rilevanti per il suo dipartimento: antimateria, quantistico e inclusione digitale. Due esperti con cui New Scientist ha parlato hanno detto di essere sorpresi dalla qualità delle risposte riguardo alle definizioni di quantistico fornite da ChatGPT. “Questo è sorprendentemente buono, a mio parere,” dice Peter Knight dell’Imperial College di Londra. “Penso che non sia affatto male,” dice Cristian Bonato dell’Università Heriot-Watt di Edimburgo, Regno Unito.
New Scientist ha fatto la richiesta per i dati di Kyle dopo la sua recente intervista con PoliticsHome, in cui il politico è stato descritto come “spesso” utilizzante ChatGPT. Ha detto di usarlo “per cercare di capire il contesto più ampio da cui proviene un’innovazione, le persone che l’hanno sviluppata, le organizzazioni dietro di loro” e che “ChatGPT è fantastico, e dove ci sono cose che si fatica davvero a comprendere in profondità, ChatGPT può essere un ottimo tutor per questo.”
DSIT inizialmente ha rifiutato la richiesta FOI di New Scientist, affermando: “La cronologia di ChatGPT di Peter Kyle include prompt e risposte fatte sia a titolo personale che ufficiale.” Una richiesta raffinata, solo per i prompt e le risposte fatte a titolo ufficiale, è stata concessa.
Il fatto che i dati siano stati forniti è uno shock, dice Tim Turner, un esperto di protezione dei dati con sede a Manchester, Regno Unito, che pensa possa essere il primo caso di rilascio di interazioni con chatbot sotto FOI. “Sono sorpreso che li abbiate ottenuti,” dice. “Avrei pensato che sarebbero stati desiderosi di evitare un precedente.”
Questo, a sua volta, pone domande per i governi con leggi FOI simili, come gli Stati Uniti. Ad esempio, ChatGPT è più simile a una conversazione via email o WhatsApp – entrambe storicamente coperte da FOI in base a precedenti passati – o ai risultati di una query di un motore di ricerca, che tradizionalmente sono stati più facili da rifiutare per le organizzazioni? Gli esperti non sono d’accordo sulla risposta.
“In linea di principio, a condizione che possano essere estratti dai sistemi del dipartimento, anche la cronologia delle ricerche su Google di un ministro sarebbe coperta,” dice Jon Baines dello studio legale britannico Mishcon de Reya.
“Personalmente, non vedrei ChatGPT come lo stesso di una ricerca su Google,” dice John Slater, un esperto di FOI. Questo perché le ricerche su Google non creano nuove informazioni, dice. “ChatGPT, d’altra parte, ‘crea’ qualcosa basato sull’input dell’utente.”
Con questa incertezza, i politici potrebbero voler evitare di utilizzare strumenti commerciali di IA sviluppati privatamente come ChatGPT, dice Turner. “È un vero vaso di Pandora,” dice. “Per coprirsi le spalle, i politici dovrebbero sicuramente utilizzare strumenti pubblici, forniti dai propri dipartimenti, come se il pubblico potesse finire per essere il pubblico.”