L'Officiel Art

Training Humans alla Fondazione Prada

Una grande mostra fotografica che esplora il tema dell’intelligenza artificiale
Reading time 3 minutes
Fondazione Prada -Training Humans

Dal prossimo 12 settembre e fino al 24 febbraio, all’Osservatorio della Fondazione Prada sarà esposta Training Humans, una grande mostra fotografica che esplora il tema dell’intelligenza artificiale da una prospettiva inedita. Tutto ha avuto inizio dal progetto di ricerca condotto per due anni da Kate Crawford, professoressa della New York University e cofondatrice di AI Now Institute, il primo istituto di ricerca universitario al mondo a occuparsi delle implicazioni sociali dell’utilizzo sempre più pervasivo delle intelligenze artificiali, e da Trevor Paglen, artista interessato a temi di attualità politica quali la sorveglianza di massa e la raccolta dei dati, i cui lavori hanno spesso visto il coinvolgimento di scienziati e di attivisti per i diritti umani.

Da questa collaborazione nasce l’idea di raccontare la storia delle immagini utilizzate per l’addestramento, il training appunto, delle intelligenze artificiali. Si tratta di repertori di fotografie da cui i sistemi di intelligenza artificiale apprendono a osservare il mondo, vale a dire a classificarlo secondo certi parametri: la loro rilevanza sociale diventa particolarmente evidente nel caso delle foto di persone. L’interesse dei due artisti si è infatti focalizzato sulla rappresentazione, l’interpretazione e la codificazione degli esseri umani da parte dei sistemi tecnologici, grazie alla collezione di dati fornita durante il training.

Le immagini presentate nella mostra sono quelle utilizzate negli ultimi cinquant’anni dalle associazioni governative. Si va dai primi esperimenti in laboratorio finanziati dalla CIA nel 1963 fino ai più moderni sistemi di computer vision elaborati dal Ministero della difesa degli Stati Uniti negli anni Novanta, che creò un set di dati da impiegare negli studi sul riconoscimento facciale: si tratta del FERET (Face Recognition Technology), una raccolta di ritratti di più di mille persone e di circa quattordicimila immagini in totale, il cui scopo era quello di ottenere un «benchmark standard» che permettesse di sviluppare algoritmi basati su di un database comune di immagini. Lo scenario venne radicalmente alterato dalla diffusione di internet. I ricercatori smisero di utilizzare immagini di proprietà del governo, come le foto segnaletiche dei detenuti deceduti fornite dall’FBI, per attingere a milioni di foto disponibili pubblicamente sulle piattaforme dei social media, senza chiedere il permesso ai fotografi o ai soggetti ritratti. A queste immagini vengono associate etichette da parte di soggetti umani, che si tratti di persone che lavorano nei laboratori o dipendenti di Amazon Mechanical Turk, un servizio di crowdsourcing dipendente da Amazon. Ciò che ne risulta è un sistema di classificazione sulla base di razza, genere, età, emozioni espresse e, talvolta, tratti caratteriali, che sembra continuare la segmentazione demografica di origine post-coloniale e comporta delle pesanti implicazioni sociali e politiche.

Alla suddivisione di stampo razzista, osservano Crawford e Paglen, si sovrappone una classificazione su base emotiva, basata sulle discusse teorie dello psicologo Paul Ekman, che riduce le emozioni umane a sei stati emotivi universali. I sistemi di intelligenza artificiale che vengono addestrati a riconoscere le espressioni facciali possono basarsi su queste per valutare salute mentale, affidabilità e propensione al crimine delle persone scrutinate, ad esempio nel caso di colloqui di lavoro. Se gli algoritmi non sono affatto immuni da pregiudizi di fondo, i confini tra scienza, storia, politica e ideologia si fanno labili. L’analisi dei criteri di classificazione delle foto presentate nel corso della mostra diventa così un’indagine dell’asimmetria di potere che comporta il controllo delle intelligenze artificiali: un punto di partenza necessario per ripensare tali sistemi, e per comprendere davvero il filtro attraverso cui siamo osservati.

/

Tags

Articoli correlati

Articoli consigliati