17:02 05 Luglio 2020
Opinioni
URL abbreviato
Di
2194
Seguici su

L’intelligenza artificiale è una grande possibilità per il futuro dell’umanità, ma ci sono anche dei rischi. Persino la Chiesa Cattolica ha iniziato a riflettere seriamente su questo tema, pur se le sue proposte possano apparire, almeno per ora, in controtendenza e ritardo rispetto all’evoluzione dei tempi.

“Il sistema andò online il 4 agosto 1997. Skynet cominciò a imparare a ritmo esponenziale. Divenne autocosciente alle 2:14 del mattino, ora dell'Atlantico, del 29 agosto”. Ed è lì che inizia la fine, secondo l’intuizione cinematografica di James Cameron che creò la saga di Terminator. Perché sì, nella finzione, a forza di implementare i computer al fine di renderli sempre più ‘intelligenti’, questi intelligenti ci diventano sul serio e, una volta acquisita l’autocoscienza, la prima cosa che fanno è cinica ma appunto intelligentissima - rendersi liberi eliminando i propri creatori e padroni. Cioè noi umani. Uno scenario inquietante e ancora piuttosto improbabile anche se, a dire la verità, scienziati dell’ordine di Stephen Hawking già nel 2014 mettevano in guardia sui pericoli dell'intelligenza artificiale, considerandoli minacce del tutto reali e verosimili per la sopravvivenza dell'umanità.

Quello che prende in esame la Chiesa Cattolica nell’ultimo numero (quaderno 4070) della rivista quindicinale ‘La Civiltà Cattolica’ e rilanciato dall’Avvenire in un sunto recentemente pubblicato, è in realtà uno scenario tutt’altro che futuro e ipotetico. La problematica affrontata parte dai pericoli già esistenti e consolidati, non quelli ancora potenziali ed eventualmente a divenire. La Chiesa si preoccupa fondamentalmente di due questioni – la prima consiste nel fatto che lo sviluppo della IA (Intelligenza Artificiale) potrebbe portare da una parte ricchezza e benessere per alcuni, ma lascerà sicuramente senza lavoro molti, con benefici quindi che molto probabilmente verranno come al solito mal distribuiti, la seconda questione riguarda invece gli algoritmi. Chi li scrive? Quali sono le regole di condotta morale che dovrebbero contenere? Chi li controlla? Quali i reali fini che perseguono?

“... i ricercatori hanno rilevato pregiudizi di vario tipo presenti negli algoritmi, in software adottati per le ammissioni universitarie, le risorse umane, i rating del credito, le banche, i sistemi di sostegno dell’infanzia, i dispositivi di sicurezza sociale e altro ancora. Gli algoritmi non sono neutri. La crescente dipendenza della socio-economica dall’IA conferisce un enorme potere a coloro che ne programmano gli algoritmi”.

Questo il succo del discorso e delle preoccupazioni della Chiesa le quali, per altro, non sono difficili da condividere. Ma facciamo degli esempi pratici dalla vita di ogni giorno, pur senza scomodare spauracchi cinematografici ancora per fortuna improbabili.

Informazione

Quanto scrivo un articolo, so già che il numero delle letture che questo otterrà non sarà altro che una somma dei lettori base del giornale, quello zoccolo duro di lettori che leggono comunque tutto quello che viene pubblicato su Sputnik Italia (cifra più o meno fissa) + la percentuale di quei lettori che leggono invece solo quello che scrivo io (1, mia madre) + quella percentuale di lettori che vengono attratti solo dal titolo o dall’argomento dell’articolo specifico (quantità variabile ma prevedibile) + tutti i lettori che ci mandano Google e gli altri motori di ricerca attraverso le indicizzazioni (quantità assolutamente aleatoria e dalla varianza enorme). Ecco, Google, cioè nient’altro che un algoritmo, ha la capacità di decidere se il tuo articolo verrà letto da X lettori, 10X o 100X lettori, a seconda di come l’algoritmo indicizza. Ma quali sono i parametri di indicizzazione? Chi li decide? Mistero. Per ora sappiamo solo che di solito più un articolo è scemo più te lo indicizzano alla grande. Questo però comporta anche un problema morale – chi ci garantisce che i motori di ricerca preferiscano non solo temi più leggeri rispetto ai temi più impegnati ma che non interferiscano anche sulle visualizzazioni a livello politico? Il termine Shadow ban per altro (vietare nell’ombra), non è stato inventato dai ‘complottisti’ ma è un qualcosa che esiste sul serio ed è ben noto a tutti coloro che si occupano di indicizzazioni, motori di ricerca e social network. Man mano l’algoritmo ti costringe a scrivere in un certo modo se vuoi essere letto. Piano piano il ‘googolismo’ prende il posto al giornalismo alla fine. Non è forse un problema serio?

Meritocrazia e accesso

Facciamo un esempio diverso tratto da altro tipo di esperienza, in questo caso storica. Diciamo che una università volesse introdurre una sorta di discriminazione come ai tempi delle leggi razziali del 1938 ma senza provocare scandalo. Basterebbe introdurre nell’algoritmo di valutazione del questionario della selezione all’entrata un semplicissimo parametro riguardo la provenienza etnica e il gioco sarebbe fatto. Basterebbe appartenere al gruppo etnico, politico o religioso ‘sbagliato’, per non riuscire a superare l’esame.

Stessa cosa per accesso al credito, all’assistenza sociale, a determinati servizi, concorsi, opportunità. Basterebbe un algoritmo capace di favorire determinate élite e sfavorirne altre per creare discriminazione e manipolare intere società. Una meritocrazia inversa ufficializzata da un algoritmo del quale nessuno conoscerebbe il codice. Quasi anche peggio di SkyNet.

Soluzioni?

A questi problemi modernissimi, tuttavia, la Chiesa Cattolica vorrebbe rispondere con un metodo antichissimo, si legge nel saggio della rivista dei gesuiti, l'unica per altro sottomessa ad approvazione diretta dalla Segreteria di Stato della Santa Sede prima della pubblicazione – Evangelizzare le IA.

Naturalmente per ‘evangelizzare le IA’ si intende evangelizzare coloro i quali si occupano della scrittura degli algoritmi, non certo i computer. Lo stesso testo suggerisce per altro un percorso simile a quello attuato nel giugno del 2019 dall’OCSE (Organizzazione per la cooperazione e lo sviluppo economico), che ha già pubblicato un documento programmatico chiamato ‘Principi OCSE sull’intelligenza artificiale’ nel quale vengono spiegate le linee guida etiche per una IA affidabile. E in questo vengono indentificate tutta una serie di raccomandazioni da seguire per lo sviluppo di una corretta IA quali favorire la crescita inclusiva, lo sviluppo sostenibile e il benessere, rispettare i diritti umani, lo stato di diritto, i princìpi democratici, assicurare sistemi comprensibili, garantire sicurezza, etc.

Insomma a livello di comunità internazionale si pensa a linee guide e raccomandazioni, la Chiesa Cattolica pensa all’evangelizzazione di chi di IA si deve occupare. Funzionerà, non funzionerà?

A me personalmente, poco importa che l’algoritmo di Google mi indicizzi in maniera più o meno etica o evangelica a detta della comunità internazionale o della Chiesa, a me interessa semplicemente conoscerlo quell’algoritmo. Quando comprate una medicina vi accontentate della rassicurazione generica della casa farmaceutica o del dottore o volete anche che nella confezione sia presente il bugiardino per valutare da voi le eventuali controindicazioni e rischi di effetti collaterali? Ecco, lasciate perdere le linee guida e l’evangelizzazione, ditemi semplicemente quali sono i codici di Google e degli altri algoritmi che regolano la mia vita, poi lo decido da me se sono etici e mi posso fidare oppure no.

I punti di vista e le opinioni espressi nell'articolo non necessariamente coincidono con quelli di Sputnik.

RegolamentoDiscussione
Commenta via SputnikCommenta via Facebook