testata ADUC
Intelligenza artificiale. Attenzione ai rischi da uso doloso
Scarica e stampa il PDF
Articolo di Redazione
21 febbraio 2018 14:58
 
  Lo scenario di droni o di robot utilizzati a fini terroristici continua a destare preoccupazioni. Alcuni esperti internazionali danno l’allarme sui rischi di un uso doloso dell’intelligenza artificiale (IA) da parte di “Stati criminali, di terroristi”, in un rapporto pubblicato oggi. Secondo loro, nei prossimi anni, la crescente efficacia della IA rischia di rendere piu’ forte la cybercriminalita’, ma anche di facilitare la manipolazione di elezioni attraverso le reti sociali, grazie a conteggi automatizzati (bots).
Redatto da 26 esperti specializzati in intelligenza artificiale, cybersicurezza e robotica, appartenenti a diverse universita’ (Cambridge, Oxford, Yale, Stanford) e a delle organizzazioni non-governative, questo rapporto di 100 pagine fa appello ai governi ed ai differenti attori perche’ realizzino varie iniziative per limitare le potenziali minacce legate all’intelligenza artificiale.
Il caso di un robot per pulizie manomesso
Per spiegare le loro preoccupazioni, questi specialisti evocano diversi “scenari ipotetici” di uso della IA da parte di male-intenzionati. Fanno notare che dei terroristi potrebbero modificare dei sistemi di IA disponibili in commercio (droni, veicoli autonomi), per provocare incidenti, scontri o esplosioni. Gli autori immaginano anche il caso di un robot per le pulizie manomesso che si introduca surrettizziamente tra altri robot incaricati di fare anche loro le pulizie in un ministero di Berlino. Un giorno l’intruso passerebbe all’attacco dopo aver riconosciuto visualmente la ministra delle Finanze. Si avvicinerebbe a lei ed esploderebbe tutto da solo, uccidendo il suo obiettivo. Inoltre, “la cybercriminalita’, gia’ fortemente in crescita, rischia di rafforzarsi con gli strumenti resi disponibili dalla IA”, dichiara all’Agenzia stampa France Press Seán O hEigeartaigh, direttore del Centre for the Study of Existential Risk dell’università di Cambridge, uno degli autori del rapporto. Gli attacchi con pishing mirato potrebbero anche diventare piu’ fruttuosi nel condurli su larga scala.
Una moltiplicazione delle messe in guardia
Ma per lui, “il rischio piu’ serio, anche se meno probabile, e’ quello politico”. “Abbiamo gia’ visto come le persone si servono della tecnologia per cercare di interferire nelle elezioni e nella democrazia. Se la IA consente a queste minacce di diventare piu’ forti, piu’ difficili da individuare e da attribuire, questo potrebbe porre dei grossi problemi di stabilita’ politica e contribuire anche a far esplodere delle guerre”,stima Seán O hEigeartaigh. Con la IA, dovrebbe essere possibile realizzare dei falsi video molto realistici e questi potrebbero essere utilizzati per discreditare dei responsabili politici, dice il rapporto. Gli Stati autoritari potrebbero anche appoggiarsi sulla IA per rafforzare la sorveglianza dei loro cittadini. Non e’ la prima volta che delle preoccupazioni si esprimono in materia di IA. Nel 2014, l’astrofisico Stephen Hawking lanciava una messa in guardia sui rischi che essa avrebbe potuto far correre all’umanita’. L’imprenditore Elon Musk e altri hanno anche suonato il campanello d’allarme. Sono stati pubblicati anche alcuni specifici rapporti sull’uso di droni assassini o sul modo in cui la IA potrebbe compromettere la sicurezza degli Stati Uniti. Questo nuovo rapporto rappresenta “una veduta d’insieme sulle cose in cui la IA crea delle nuove minacce o cambia la natura delle minacce esistenti negli ambiti della sicurezza digitale, fisica e politica”, spiega Seán O hEigeartaigh.
Dei progressi sostanziali
Apparsa negli anni 1950, l’intelligenza artificiale corrisponde a degli algoritmi sofisticati che permettono di risolvere dei problemi per i quali gli umani utilizzano le loro capacita’ cognitive. Questi ultimi anni, essa ha fatto dei progressi sostanziali essenzialmente negli ambiti legati alla percezione, come il riconoscimento vocale e l’analisi dell’immagine.
“Attualmente, c’e’ ancora un’importante scarto tra i progressi della ricerca e le sue possibili applicazioni. E’ il momento di agire”, dichiara alla AFP Miles Brundage, incaricato alla ricerca per il Future of Humanity Institute dell’Universita’ di Oxford. Questo esperto ha condotto a febbraio 2017 ad Oxford una dimostrazione sui rischi di un uso doloso della IA, che ha dato poi il via a questo rapporto.
“I ricercatori in IA, coloro che concepiscono i robot, le compagnie, coloro che poi fanno le regole, le politiche, devono oggi collaborare per tentare di prevenire” questi rischi, conclude Seán O hEigeartaigh.

(da una notizia del’agenzia stampa France Press – AFP del 21/02/2018)
 
 
ARTICOLI IN EVIDENZA
 
ADUC - Associazione per i Diritti degli Utenti e Consumatori