Condividi su:

Il proliferare di nuove tecnologie informatiche porta con sé anche nuove minacce e conseguenze. Il Cyber-Defence Campus dell’Ufficio federale dell’armamento armasuisse pubblica per la seconda volta uno studio Open Access su questo argomento, con l’intento di far luce su rischi e sfide a livello di cibersicurezza in conseguenza dell’impiego dell’intelligenza artificiale (IA) generativa.

Lo sviluppo e la diffusione dell’intelligenza artificiale pongono grandi sfide per quanto riguarda la sicurezza nel ciberspazio. Sempre più potenti risultano in particolare i modelli per la produzione di testi, immagini o video basati sull’apprendimento automatico, meglio noti con il termine «intelligenza artificiale generativa». Il loro impiego è molto diffuso nella popolazione. Tuttavia, l’IA generativa comporta notevoli rischi di abuso, quali per esempio deep fake, messaggi contraffatti o tentativi di frode. Al tempo stesso, l’impiego consapevole dell’IA può produrre anche effetti positivi.

Lo studio evidenzia che la manipolazione e l’abuso degli algoritmi di apprendimento può mettere in pericolo la sicurezza delle applicazioni IA utilizzate. Per esempio, i modelli basati sull’apprendimento automatico sono in grado di generare testi o software contenenti in parte lievi errori, che sono tuttavia molto difficili da individuare. I cosiddetti modelli linguistici di grandi dimensioni (Large Language Model, LLM) hanno rivoluzionato la comprensione linguistica e vengono impiegati già oggi in prodotti e applicazioni rilevanti per la sicurezza. Da un lato gli LLM consentono di contrastare in maniera più efficiente gli attacchi informatici, ma al tempo stesso i malintenzionati possono ricorrervi per generare a basso costo malware, messaggi di phishing e chatbot malevoli.
Attualmente gli LLM vengono prodotti prevalentemente all’estero. Per attori statali come la Svizzera è dunque importante capire quali siano i rapporti di dipendenza dai produttori esteri e quali rischi comporti tale situazione. Lo studio in questione, liberamente accessibile (Open Access), offre preziosi spunti per specialisti e decisori nel settore della cibersicurezza.

Dallo studio è possibile trarre le seguenti considerazioni principali:
• l’intelligenza artificiale generativa e in particolare i modelli linguistici di grandi dimensioni (LLM) comportano nuove notevoli minacce sul piano della cibersicurezza;
• l’impiego dell’intelligenza artificiale generativa da parte dello Stato, dell’economia e della società deve avvenire con cautela;
• per uno sviluppo e un impiego sicuri dell’intelligenza artificiale generativa devono essere attuati controlli di sicurezza nella catena di trattamento dei dati.

Il Cyber-Defence Campus (CYD) è stato creato nel gennaio 2019 per anticipare più rapidamente gli sviluppi informatici. Integrato nel DDPS presso l’Ufficio federale dell’armamento armasuisse, il Campus rappresenta il collegamento tra l’Amministrazione federale, l’industria e il mondo accademico nei settori della ricerca, dello sviluppo e della formazione.

La Scuola universitaria professionale della Svizzera occidentale Vallese (HES-SO Valese) è una scuola universitaria professionale di scienze applicate collocata nella Svizzera occidentale. È la maggiore scuola universitaria professionale svizzera e la seconda scuola universitaria dietro all’Università di Zurigo; nel complesso comprende 28 scuole nei Cantoni di Friburgo, Ginevra, Giura, Neuchâtel, Vallese, Vaud e Berna.
Fonte: Segreteria generale del DDPS
foto: pixabay