07:31 20 Settembre 2020
Mondo
URL abbreviato
105
Seguici su

Il Pentagono sta adottando nuovi principi etici mentre si prepara ad accelerare l'uso della tecnologia IA sul campo di battaglia.

I nuovi principi prevedono che siano gli esseri umani ad esercitare livelli appropriati di giudizio e cura durante l'implementazione e l'utilizzo dei sistemi di intelligenza artificiale, ma da più parti viene lanciato il sospetto che le dichiarazioni di intenti non servano altro che ad introdurre e giustificare un sempre maggiore utilizzo dei sistemi automatizzati e deresponsabilizzati in guerra.

Il tenente generale dell'aeronautica Jack Shanahan, direttore del Centro unificato di intelligenza artificiale del Pentagono, ha dichiarato ai media che “le decisioni prese dai sistemi automatizzati dovrebbero essere rintracciabili e governabili”, il che significa, ha spiegato, che "deve esserci un modo per disimpegnarle o disattivarle” tutte le volte che queste dovessero dimostrare comportamenti indesiderati o non voluti.

La spinta del Pentagono per accelerare le proprie capacità IA hanno alimentato una lotta tra aziende tecnologiche per il contratto del cloud computing da 10 miliardi di dollari noto come Joint Enterprise Defense Infrastructure (JEDI). La Microsoft aveva vinto il contratto in ottobre ma non era poi stata in grado di iniziare il progetto che prevedeva un impegno decennale, poiché Amazon aveva fatto causa al Pentagono stesso sostenendo che l'antipatia del presidente Donald Trump nei confronti di Jeff Bezos avesse danneggiato le possibilità dell'azienda di vincere l'offerta.

Una direttiva militare del 2012 prevede già che gli esseri umani debbano avere il controllo finale delle armi automatizzate, ma non affronta gli usi più ampi dell'IA. I nuovi principi dovrebbero avere lo scopo di guidare sia le applicazioni di combattimento che quelle non di combattimento, dalle operazioni di raccolta di informazioni e sorveglianza alla previsione dei problemi di manutenzioni aeree o navali.

Il nuovo approccio delineato segue le raccomandazioni formulate lo scorso anno dal Defense Innovation Board, gruppo guidato dall'ex CEO di Google Eric Schmidt. Il Pentagono ha riconosciuto che l'IA "solleva nuove ambiguità e rischi etici", ma i nuovi principi non sono all'altezza delle restrizioni più forti che vorrebbero i sostenitori del controllo degli armamenti.

"Temo che i principi dichiarati in realtà non siano altro che una sorta di progetto di lavaggio etico", ha affermato Lucy Suchman, un'antropologa che studia il ruolo dell'IA nella guerra.

​Lo stesso Shanahan ha ammesso che i principi sono intenzionalmente ampi per evitare di ammanettare le forze armate statunitensi con restrizioni specifiche che potrebbero diventare obsolete.

“La tecnologia si adatta. La tecnologia si evolve ", ha detto.

Il Pentagono ha raggiunto un punto morto nei suoi sforzi verso l’intelligenza artificiale nel 2018 dopo che le proteste interne a Google avevano portato la società tecnologica ad abbandonare il progetto Maven dell'esercito, che utilizza algoritmi per interpretare le immagini aeree dalle zone di conflitto. Altre società hanno tuttavia riempito il vuoto. Shanahan ha affermato che i nuovi principi stanno aiutando a riguadagnare sostegno dall'industria tecnologica, dove "c'era sete di avere questa discussione".

"A volte penso che l'angoscia sia un po 'pubblicizzata", ha inoltre detto il tenente generale, secondo il quale l’automazione aiuterebbe a garantire il vantaggio tecnologico americano (dato presunto) su Cina e Russia, le quali perseguirebbero l’IA militare con poca attenzione alle preoccupazioni etiche.

La professoressa di giurisprudenza dell'Università di Richmond, Rebecca Crootof, ha affermato che l'adozione dei principi è un buon primo passo ma l'esercito dovrà dimostrare di poter valutare criticamente gli enormi reperti di dati utilizzati dai sistemi di intelligenza artificiale, nonché i rischi per la sicurezza informatica.

Crootof ha detto che spera anche che l'azione degli Stati Uniti aiuti a stabilire norme internazionali sull'uso militare dell'IA.

"Se si vedrà che gli Stati Uniti stanno prendendo sul serio le norme etiche dell'intelligenza artificiale, allora per impostazione predefinita queste diventeranno un argomento sempre più serio", ha affermato.

RegolamentoDiscussione
Commenta via SputnikCommenta via Facebook