Fondazione Prada Training Humans: la mostra sull’intelligenza artificiale
Fondazione Prada Training Humans – Fondazione Prada presenta “Training Humans”, una mostra concepita da Kate Crawford, professoressa e studiosa nell’ambito dell’intelligenza artificiale, e Trevor Paglen, artista e ricercatore, nella sede di Osservatorio, visibile da oggi fino al 24 febbraio 2020.
“Training Humans” è la prima grande mostra fotografica dedicata a immagini di training: repertori di fotografie utilizzate dagli scienziati per insegnare ai sistemi di intelligenza artificiale (IA) come “vedere” e classificare il mondo. In questa mostra Crawford e Paglen esplorano l’evoluzione delle collezioni di immagini di training dagli anni Sessanta a oggi.
La loro ricerca evidenzia come soggetti pubblici e privati impiegano le immagini personali condivise online come materia prima per la classificazione e la sorveglianza degli individui. Il pubblico ha l’opportunità di osservare dall’interno le tecnologie di intelligenza artificiale che si sono diffuse nella nostra società come il riconoscimento facciale e dell’andatura, la sorveglianza biometrica e anche la mappatura delle emozioni.
Questa mostra vuole aprire le scatole nere dell’intelligenza artificiale. “Training Humans” affronta i preconcetti, le supposizioni, gli errori e le posizioni ideologiche all’interno di queste tecnologie. Rivelando come i sistemi di intelligenza artificiale sono stati concepiti negli ultimi sessant’anni, Crawford e Paglen mostrano come gli attuali strumenti continuano pratiche di classificazione sociale, sorveglianza e segmentazione e come queste riecheggiano la frenologia e l’eugenetica del passato.
Come afferma Trevor Paglen, “quando abbiamo iniziato a elaborare l’idea della mostra, oltre due anni fa, volevamo raccontare la storia delle immagini utilizzate per il ‘riconoscimento’ di esseri umani nel settore della computer vision e dei sistemi di intelligenza artificiale. Non ci interessavano né la versione inflazionata dell’IA applicata al marketing né le favole distopiche sui robot del futuro”.
Kate Crawford aggiunge, “volevamo trattare direttamente le immagini che formano i sistemi di intelligenza artificiale e prenderle sul serio come parte di una cultura in rapida evoluzione. Questi materiali visivi rappresentano la nuova fotografia vernacolare che guida la visione artificiale. Per verificare il loro funzionamento, abbiamo analizzato centinaia di set di immagini di training per capire i processi interni di questi ‘motori del vedere'”.
Il progetto interroga lo stato attuale dell’immagine nell’intelligenza artificiale e nei sistemi algoritmici, dall’istruzione e la sanità alla sorveglianza militare, dall’applicazione della legge e la gestione delle risorse umane al sistema di giustizia penale. In particolare “Training Humans” esplora due tematiche chiave: la rappresentazione, l’interpretazione e la codificazione degli esseri umani attraverso dataset di training e le modalità con cui i sistemi tecnologici raccolgono, etichettano e utilizzano questi materiali.
Quando la classificazione di esseri umani attraverso l’intelligenza artificiale diventa più invasiva e complessa, i pregiudizi e le implicazioni politiche presenti al loro interno appaiono più evidenti. Nella computer vision e
nei sistemi di IA i criteri di misurazione si trasformano facilmente, ma in modo nascosto, in strumenti di giudizio morale.
La mostra è concepita come una ricostruzione storica a partire dalle immagini utilizzate nei primi esperimenti in laboratorio di riconoscimento facciale computerizzato, finanziati dal 1963 dal Central Intelligence Agency (CIA) negli Stati Uniti. Negli anni Novanta l’ufficio del programma di sviluppo per le tecnologie antidroga del Ministero della difesa statunitense ha sviluppato una generazione più avanzata di sistemi di computer vision.
Per il database Face Recognition Technology (FERET) ha creato una raccolta di ritratti di 1.199 persone per un totale di 14.126 immagini con lo scopo di ottenere un “benchmark standard” che avrebbe permesso ai ricercatori di sviluppare algoritmi basandosi su un database comune di immagini.
La diffusione di Internet e dei social media ha generato un aumento esponenziale di immagini disponibili. I ricercatori nel campo dell’IA hanno smesso di usare collezioni di immagini di proprietà del governo, come foto segnaletiche dell’FBI di detenuti deceduti, cominciando a raccogliere fotografie dal web.
In breve tempo questa pratica è diventata comune e molte persone nel settore dell’IA hanno iniziato ad attingere da milioni di immagini disponibili pubblicamente senza chiedere il permesso o il consenso ai fotografi o ai soggetti ritratti.
L’assegnazione di etichette a queste immagini, spesso effettuata in laboratori o dai dipendenti di Amazon Mechanical Turk, produce un sistema di classificazione delle persone in base alla razza, al genere, all’età, all’emozione e talvolta ai tratti caratteriali. Questo processo ha delle implicazioni politiche chiare e durevoli nel tempo perché rappresenta la continuazione della storia oscura dei sistemi post-coloniali e razzisti di segmentazione demografica.
Un altro centro d’interesse per Crawford e Paglen sono i sistemi di classificazione basati sugli affetti e le emozioni e supportati dalle teorie molto criticate dello psicologo Paul Ekman, secondo il quale la varietà dei sentimenti umani può essere ridotta a sei stati emotivi universali. Queste tecnologie d’intelligenza artificiale misurano le espressioni facciali delle persone per valutare una molteplicità di fattori: la loro salute mentale, la loro affidabilità come possibili nuovi assunti o la loro tendenza a commettere atti criminali.
Queste tipologie di classificazione hanno raggiunto il loro massimo sviluppo con il dataset di training ImageNet (2009), descritto dai suoi ideatori come un tentativo di “mappare l’intero universo di oggetti”. Esaminando le immagini di questa raccolta e i criteri con cui le fotografie personali sono state classificate, ci si confronta con due interrogativi essenziali: quali sono i confini tra scienza, storia, politica, pregiudizio e ideologia nell’intelligenza artificiale? Chi ha il potere di costruire questi sistemi e di trarne benefici?
La mostra è accompagnata da una pubblicazione illustrata della serie “Quaderni”, pubblicata da Fondazione Prada, che include una conversazione tra Kate Crawford e Trevor Paglen sui complessi temi affrontati nel loro progetto.
Osservatorio Fondazione Prada
Galleria Vittorio Emanuele II, Milano
credit image by Press Office – Courtesy by Fondazione Prada – photo by Marco Cappelletti