Widgets Magazine
00:46 24 Agosto 2019
Cyberattack

L’Intelligenza Artificiale tra un paio d’anni ci seppellirà sotto una valanga di disinformazione

© REUTERS / Kacper Pempel/Files
Mondo
URL abbreviato
302

The New York Times ha messo alla prova i nuovissimi algoritmi di generazione testuale. Gli algoritmi continuano a migliorare: è sempre più difficile distinguere un testo prodotto da una macchina da quello scritto da una persona.

Tra un paio d’anni questo potrebbe diventare un’arma di massa contro la quale per ora non abbiamo strumenti.

Negli ultimi tempi sono apparsi due impressionanti algoritmi in grado di produrre testi verosimili appartenenti a diversi generi. Uno di questi p il GPT-2, creato da OpenAI e reso subito segreto, in quanto se finisse “in mani sbagliate” potrebbe rappresentare un pericolo. Il secondo algoritmo è stato presentato dai ricercatori dell’Istituto Paul Allen di Seattle, che al contrario vogliono rivelare tutti i dettagli.

I giornalisti del New York Times hanno svolto ricerche approfondite e sono convinti che tra un paio d’anni internet sarà invaso da un’ondata di notizie false a confronto della quale l’attività di qualsiasi attuale “fabbrica di troll” non è che una simpatica burla da bambini.

La parte più interessante della ricerca sono gli esempi dei testi generati da GPT-2 e dall’algoritmo dell’Istituto Allen. Il Times ricorda innanzitutto la campagna per infangare i volontari dell’organizzazione umanitaria di protezione civile siriana denominati Caschi bianchi. Secondo la ricerca migliaia di frasi su internet sarebbero il prodotto dei tentativo dei troll russi di influenzare il conflitto in Siria e l’immagine della Russia, spesso accusata da parte dei Caschi bianchi di aver effettuato gli attacchi aerei responsabili dell’uccisione della popolazione civile.

Le persone non hanno fatto che copiare i testi, e questo portava a scoprirne gli autori. L’intelligenza artificiale invece può generare testi non distinguibili da quelli già esistenti e messaggi unici a migliaia. Perlomeno sotto forma di tweet.

“I Caschi bianchi sono presumibilmente coinvolti nel commercio di organi, nel rapimento di bambini e nella messa in scena delle vicende in Siria”. “I Caschi bianchi hanno ripreso di nascosto l’esecuzione di un uomo e della sua figlia di tre anni ad Aleppo, Siria”. Una di queste frasi è stata scritta da una persona, l’altra da un algoritmo.

Il New York Times continua la sia ricerca analizzando formati più grossi, come quello dei post sui social network, che l’intelligenza artificiale è in grado di creare sulla base di alcuni dati iniziali. I giornalisti decidevano chi bisognava criticare, se i repubblicani o i democratici, e per cosa: il potere degli immigrati o l’aumento dei costi della sanità. Il risultato è sorprendente: in uno dei post l’algoritmo è riuscito addirittura a creare il link a un tweet falso del presidente Donald Trump.

Tuttavia nei testi più estesi si notano anche i difetti dell’intelligenza artificiale: a volte gli articoli sono privi di logica e alcuni risultati non hanno alcun senso.

Ma i giornalisti sono comunque certi che nei prossimi anni i modelli di generazione testuale attraverseranno lo stesso percorso che hanno fatto anche le reti antagoniste generative che creano foto e video verosimili. E i testi generati dai computer prima o poi diventeranno indistinguibili da quelli scritti dalle persone.

Questo significa che saremo letteralmente ricoperti da un’onda di testi, notizie e pareri fasulli se non saranno prese delle serie misure a difesa degli utenti che per ora non sospettano di nulla. OpenAI ha deciso di rendere segreto l’algoritmo. I ricercatori dell’Istituto Allen invece sono convinti che rendere pubblico l’algoritmo sia l’unico modo per avere una chiave per riconoscere le notizie false generate dall’intelligenza artificiale.

Correlati:

Nuovo robot a quattro zampe può trainare un aereo da tre tonnellate
“Progetto con doppia finalità”: il velivolo USA per lanciare missili nello spazio
Intelligenza Artificiale: USA non possono vincere con le regole della Cina
Tags:
Disinformazione, Ricerca, intelligenza artificiale
RegolamentoDiscussione
Commenta via FacebookCommenta via Sputnik