K metro 0 – Kiev – In inglese si chiama face detection, una tecnica di intelligenza artificiale utilizzata in biometria per identificare o verificare l’identità di una persona a partire da una o più immagini che la ritraggono. Uno strumento controverso, già soggetto, per esempio, a una normativa europea: il Regolamento generale per la protezione
K metro 0 – Kiev – In inglese si chiama face detection, una tecnica di intelligenza artificiale utilizzata in biometria per identificare o verificare l’identità di una persona a partire da una o più immagini che la ritraggono.
Uno strumento controverso, già soggetto, per esempio, a una normativa europea: il Regolamento generale per la protezione dei dati personali (General Data Protection Regulation o GDPR).
In Cina la tecnica del riconoscimento facciale è applicata, attraverso le videocamere nelle strade delle grandi città, per schedare milioni di persone. In Gran Bretagna British Airways la utilizza per l’imbarco dei passeggeri che si spostano al suo interno.
A nessuno ormai sfugge il pericolo di una sua applicazione sempre più invasiva e inquietante.
Ma lo sviluppo degli algoritmi biometrici continua. Ed oggi ha trovato un nuovo terreno di sperimentazione avanzata in Ucraina, che utilizza questa tecnica per identificare i soldati russi morti in guerra e informare poi le loro famiglie, quando si riesce a rintracciarle…
Lo scopo è sfidare la propaganda del Cremlino rivelando l’entità della carneficina, sia pure con un metodo criticato.
Dall’inizio del conflitto, Kiev ha affermato che Mosca si è rifiutata di recuperare i resti dei suoi soldati caduti.
Solo il 4 giugno, dopo più di tre mesi dall’inizio delle ostilità, i due paesi in conflitto hanno riconosciuto pubblicamente un primo scambio di salme, anche se altri scambi sarebbero avvenuti in modo meno ufficiale, secondo i media ucraini.
I paesi in guerra hanno l’obbligo di ricercare, recuperare e identificare “senza indugio” i corpi delle vittime, come previsto dalle Convenzioni di Ginevra. Ma Mosca non ha aggiornato il suo bilancio ufficiale (1.351 vittime) dal 25 marzo e non fornisce nemmeno all’Ucraina un elenco dei suoi dispersi, ricorda Luc Chagnon in un suo ampio servizio per Franceinfo.
Questi corpi però a volte sono difficilmente identificabili, perché sfigurati, in via di decomposizione o perché addosso alle vittime non sono stati trovati documenti di identità.
Il software per il riconoscimento facciale è stato creato da Clearview AI, un’azienda newyorchese il cui prodotto è a dir poco controverso e al centro di battaglie legali in diversi paesi.
Dall’inizio del conflitto, Kiev ha istituito diverse piattaforme per aggregare i nomi e le immagini dei morti o dei prigionieri russi identificati dal software.
Le autorità ucraine stanno anche contattando direttamente le famiglie che sono riuscite a trovare, Anche gruppi meno formali, come la rete di hacker filo-ucraina “IT Army”, stanno informando le famiglie delle vittime tramite i social network, riporta il “Moscow Times”.
Secondo il “Washington Post” del 15 aprile scorso, dall’inizio della guerra (24 febbraio) i tecnici di Kiev avevano eseguito 8.600 riconoscimenti facciali per soldati russi morti o catturati.
A febbraio, l’azienda ha pubblicizzato il suo catalogo di 10 miliardi di immagini, di cui oltre due miliardi tratte dal social network preferito dalla Russia, VKontakte, secondo l’agenzia Reuters.
Stando ai dati diffusi da Hohan Ton-That, amministratore delegato di Clearview, fino al 15 aprile scorso, i funzionari di Kiev capaci di utilizzare il software erano 340.
Al 17 giugno, ha precisato Ton-That, sono state effettuate oltre 40.000 ricerche da parte di oltre 500 ucraini formati e autorizzati a utilizzare il il software di Clearview.
L’azienda è molto attiva nella formazione di questi tecnici e questo suo impegno potrebbe essere letto, secondo il “Washington Post” anche in chiave commerciale, per dimostrare quanto le sue tecnologie possono essere efficaci in contesti di emergenza come la guerra.
I dati biometrici, in effetti, sono già stati utilizzati in zone di guerra come l’Iraq o l’Afghanistan, ma “lo sviluppo del riconoscimento facciale ha permesso di utilizzare questa tecnica in Ucraina più che in qualsiasi altro conflitto”, spiega Christine Dugoin-Clément, un’esperta di Ucraina del think thank CAPE Europ.
L’obiettivo di Kiev non è solo far sapere alle famiglie russe come sono morti i soldati, ma anche sensibilizzare tutta la popolazione russa su quello che sta succedendo in Ucraina e scoraggiare l’arrivo di nuove truppe. Mostrare insomma che “c’è una vera guerra [in Ucraina], combattere la propaganda di Mosca e dimostrare che i russi non sono forti come viene detto dalle loro TV e che le persone muoiono davvero qui”, rivelando alle famiglie il costo umano del conflitto, visto che il Cremlino si rifiuta di comunicare il numero delle vittime nelle fila del suo esercito.
Clearview è già stato condannato da numerose autorità per la protezione dei dati, in Europa, Inghilterra, Australia e Canada, perché la massiccia raccolta di immagini trasformate in dati biometrici senza il consenso dei loro proprietari non rispetta i diritti degli utenti di Internet. Anche i sistemi di riconoscimento facciale sono accusati di pregiudizi razzisti. Gli errori di corrispondenza (“falsi positivi”) sono da 10 a 100 volte più frequenti per i volti asiatici e afroamericani rispetto ai volti bianchi, secondo uno studio americano del 2019. “La guerra in Ucraina è anche un’opportunità per Clearview di ritrovare la verginità”, osserva Théodore Christakis, professore di diritto internazionale ed europeo all’università di Grenoble.
Più in generale, il riconoscimento facciale non è ancora affidabile al 100%. “Più vecchie sono le foto nei database, più le persone sono cambiate, quindi meno facile sarà stabilire la corrispondenza”, spiega Jean-Luc Dugelay, professore di sicurezza digitale presso la scuola di ingegneria Eurecom. Tutto ciò che altera il volto può influire sull’affidabilità di questo software, ricorda lo specialista del riconoscimento facciale: il tempo, ma anche, nel caso dei soldati russi, la morte, il ferimento o la decomposizione.
“Il rischio è identificare erroneamente una persona e dire alla famiglia sbagliata che la persona amata è morta”, ha precisato al “Guardian” Albert Fox Cahn, fondatore del Surveillance Technology Oversight Project, un’associazione che lotta contro la sorveglianza.
Un’identificazione errata potrebbe avere conseguenze ancora più gravi, perché l’Ucraina non usa questa tecnologia solo sui cadaveri. “Lo usa anche per identificare i prigionieri, nei punti di ingresso in Ucraina per individuare possibili spie russe, o per dare un nome ai soldati russi i cui crimini sono stati filmati”, Théodore Christakis. I disallineamenti potrebbero quindi diventare una questione di vita o di morte.
Anche se l’identificazione dei soldati russi è corretta, l’approccio delle autorità ucraine è oggetto di critiche. “Fa parte anche di una battaglia per demoralizzare il nemico e la sua popolazione civile”, sottolinea Théodore Christakis. Potrebbe anche essere controproducente, perché per dimostrare alle famiglie che un loro parente è morto, le autorità ucraine vengono a mostrare le immagini del suo cadavere, rischiando di alimentare il loro odio per l’Ucraina.