In USA Google Traduttore usato sui social per scovare immigrati "sospetti" che entrano nel Paese

© Sputnik . Natalia SeliverstovaFacebook
Facebook - Sputnik Italia
Seguici suTelegram
Negli Usa le linee guida che vengono usate da servizi di immigrazione e cittadinanza prevedono un controllo sui social di coloro che fanno richiesta per entrare nel Paese per poter scovare personaggi sospetti. Tuttavia, senza la presenza di interpreti, ci si affida a Google Traduttore per capire le intenzioni degli immigrati. Lo riporta ProPublica.

Le autorità statunitensi hanno ormai da tempo adottato la prassi di richiedere a coloro che vogliono entrare negli Stati Uniti, compresi i rifugiati, oltre ai dati anagrafici anche gli indirizzi e i nominativi degli account social. In questo modo le autorità sono poi in grado di controllare i post dei richiedenti per effettuare indagini e capire se si tratta di persone pericolose o che possono rappresentare una minaccia per il Paese. 

Questa pratica tuttavia, criticata fin dai primi tempi di utilizzo, non solo viola la privacy dei richiedenti, ma non può essere considerata affidabile dato l'uso di traduttori automatici come Google Traduttore, al posto di veri e propri interpreti. 

La notizia è arrivata dall'organizzazione di giornalismo investigativo ProPublica che ha ottenuto, attraverso il Progetto Internazionale di Assistenza ai Rifugiati che ha fatto una richiesta di documenti pubblici, una specie di manuale utilizzato dai servizi per l'immigrazione, dove erano presenti le linee guida per il controllo e la revisione dei post dei rifugiati che richiedono l'ingresso negli Stati Uniti per ricongiungersi a familiari già ammessi nel Paese, in particolare con l'utilizzo di dispositivi di traduzione automatica, considerati il metodo più efficace. 

Tuttavia, la dipendenza del governo dalla traduzione automatica per scavare nei post dei social media dei rifugiati è preoccupante. Le aziende stesse citate nel manuale, come Google, Bing o Yahoo, non garantiscono una traduzione accurata e affidabile e probabilmente le analisi risulteranno errate, dato che i servizi non sono progettati per analizzare le sfumature o riconoscere lo slang. Il governo potrebbe fraintendere i commenti innocui o perderne uno davvero minaccioso. 

Per fare un esempio di quanto un servizio possa non essere accurato, nel 2017 Facebook chiese scusa ad un utente palestinese, poiché attraverso il loro servizio di traduzione automatica disponibile sul sito avevano tradotto il post dell'uomo che diceva "buongiorno" in "attaccali".

Notizie
0
Per partecipare alla discussione
accedi o registrati
loader
Chats
Заголовок открываемого материала