Widgets Magazine
11:23 22 Agosto 2019
Facial recognition

Il riconoscimento facciale è discriminatorio – parola di Harvard

CC0 / Pixabay
Mondo
URL abbreviato
0 50

Secondo il ricercatore di Harvard Luke Stark, accreditato da numerose pubblicazioni, il riconoscimento facciale sarebbe “il plutonio dell’intelligenza artificiale”. Questa tecnologia, secondo lo studioso e i suoi sostenitori, avrebbe falle insormontabili dovute al modo di schematizzare e provocherebbe stereotipizzazione di volti, generi e razze.

Insomma secondo Luke Stark questa tecnologia sarebbe niente meno che discriminatoria e non servirebbe ad altro che rinforzare categorizzazioni negative riguardo sesso e razza con effetti sociali deleteri arrivando addirittura ad affermare in una delle sue pubblicazioni intitolata appunto Facial recognition is the plutonium of AI:

“...questi problemi di base fanno sì che i rischi superino enormemente i benefici, in un modo che ricorda il nucleare".

Il noto ricercatore tuttavia non pare essere solo in questa nuova e inaspettata ‘battaglia per i diritti’ e il politicamente corretto, accanto a lui sono scesi in campo nientemeno che la American Civil Liberties Union nonchè ben 70 organizzazioni che hanno chiesto alle aziende ed autorità di non usufruire mai più di questa tecnologia. I risultati sono stati che prima San Francisco, poi Somerville e ora Oakland (California) ne hanno bandito l’utilizzo. La motivazione ufficiale, almeno secondo il sindaco di Oakland, sarebbe che “il software è meno accurato per le donne e per le persone di colore”. Motivazione che lasciato delle perplessità dal momento che se un software non è accurato di solito se ne può chiedere un miglioramento ma non se ne vieta l’uso indipendentemente dalla versione che possa essere proposta dalla casa produttrice. Il sospetto è che la questione sia più ideologica che pratica e c’è chi, come il direttore dell'Istituto di Informatica e Telematica del CNR, Domenico Laforenza, osserva:

“Il riconoscimento facciale può essere d'aiuto anche per le forze dell'ordine. L'importante è sapere che fine fanno i dati e che ci sia un responsabile che eviti che vengano venduti a terzi o usati per altri scopi (...) Demonizzare un approccio è stupido ... Esiste sempre una possibilità di discriminazione ma questa non dipende dagli algoritmi, è un problema legato ai dati con cui vengono istruiti. Se questi contengono pregiudizi e stereotipi si rifletteranno poi nei risultati”.

Luke Sark in precedenza aveva pubblicato anche una ricerca dal titolo “Riconoscimento facciale, emoticon e razza nei social media” nella quale affermava in prefazione:

“...questo documento critica il modo in cui questi sistemi di riconoscimento facciale classificano e categorizzano le identità razziali nei volti umani. Il documento considera i potenziali pericoli sia delle logiche razziali come parte di questi sistemi di classificazione, sia di come i dati relativi all'espressione emotiva raccolti attraverso questi sistemi potrebbero interagire con forme di classificazione basate sull'identità”.

 

RegolamentoDiscussione
Commenta via FacebookCommenta via Sputnik