Come funziona l’algoritmo di intelligenza artificiale nella metropolitana di Londra?
La metropolitana di Londra ha introdotto l’uso di un algoritmo di intelligenza artificiale per monitorare il comportamento dei passeggeri, sollevando preoccupazioni sulla privacy e sull’efficacia di tali tecnologie. Secondo Madeleine Stone, del gruppo per la privacy Big Brother Watch, l’utilizzo di un algoritmo per determinare se una persona è “aggressiva” è un metodo profondamente imperfetto. L’Information Commissioner’s Office (ICO) del Regno Unito ha anche messo in guardia contro l’uso di tecnologie per l’analisi delle emozioni.
Durante la sperimentazione, il personale ha condotto simulazioni approfondite a Willesden Green, talvolta con la stazione chiusa, per raccogliere dati utili all’addestramento dell’algoritmo. Una delle didascalie dei documenti menziona un agente della British Transport Police armato di machete e pistola per simulare situazioni di rischio, senza che fossero segnalati incidenti con armi.
Quali sono le preoccupazioni sulla privacy legate all’uso dell’IA nella sorveglianza?
Tuttavia, il maggior numero di segnalazioni ha riguardato persone che evitavano di pagare il biglietto, causando mancati introiti fino a 130 milioni di sterline all’anno. Inizialmente, i volti delle persone erano sfocati e i dati conservati per 14 giorni, ma dopo sei mesi, la TfL ha deciso di non offuscare più i volti e di conservare i dati per un periodo più lungo, alimentando ulteriori preoccupazioni sulla privacy.
Gran parte della sperimentazione mirava a migliorare la capacità del personale di monitorare gli eventi nella stazione e rispondere agli incidenti. Le segnalazioni hanno permesso di assistere persone su sedie a rotelle in stazioni prive di strutture adatte e di identificare situazioni di rischio come persone che oltrepassavano la linea di sicurezza o rimanevano sedute su una panchina per periodi prolungati.
References