Una delle criticità più urgenti nell’impiego contemporaneo dell’intelligenza artificiale riguarda la sua formidabile capacità di operare come filtro di selezione. L’AI può decidere, in vari ambiti, ciò che passa e ciò che resta fuori. Questa funzione di filtraggio - che si tratti di sistemi di visione artificiale, di modelli linguistici o di reti neurali multimodali - attraversa una pluralità di ambiti solo in apparenza eterogenei. Nell’industria, l’AI opera come guardiano della qualità produttiva, riconoscendo difetti e scarti; nella logistica, organizza flussi materiali, decide priorità, indirizza movimenti. Nel dominio digitale, filtra contenuti attraverso la moderazione automatica, determinando ciò che è ritenuto accettabile o appropriato e influenzando la visibilità degli enunciati attraverso i sistemi di raccomandazione, che definiscono non solo ciò che appare in un feed, ma anche ciò che rimane in ombra, non visto, non pensato. Sono forme di curatela algoritmica che esercitano un controllo selettivo dell’attenzione collettiva.
Allo stesso modo, i sistemi di screening dei candidati nell’ambito delle risorse umane delegano alla macchina l’individuazione dei profili “idonei”, basandosi su parametri impliciti spesso ricavati da dati storici e dunque tendenzialmente conservativi, se non discriminatori. Le medesime logiche regolano l’accesso al credito, alle assicurazioni, o ai servizi di welfare: punteggi e modelli predittivi operano come nuove soglie computazionali che determinano chi può accedere a un prestito, a un sussidio, a un alloggio, introducendo forme di esclusione potenzialmente opache e automatizzate.
Nel campo della sicurezza pubblica e delle politiche di controllo, la capacità di filtraggio dell’AI raggiunge il suo vertice problematico. I sistemi di policing predittivo, attraverso la modellizzazione del rischio, anticipano comportamenti o identificano “aree sensibili”, mentre le tecnologie di riconoscimento facciale - oggi sempre più pervasive - agiscono come dispositivi di sorveglianza che selezionano, riconoscono o bloccano individui sulla base di parametri biometrici. Anche i sistemi di targeting politico e il cosiddetto shadow-banning partecipano a questa economia del filtraggio, operando un controllo della visibilità che può influenzare la partecipazione democratica, l’accesso all’informazione e la costruzione dell’opinione pubblica.
L’apice di questa dinamica emerge nel controllo delle frontiere, dove la combinazione di riconoscimento facciale, analisi predittiva del rischio e screening automatizzato dei documenti trasforma il confine fisico in un confine computazionale. Qui il filtraggio non riguarda più solo la circolazione dei dati, dei contenuti o delle merci, ma quella delle persone in carne e ossa, le cui vite vengono valutate e classificate attraverso modelli addestrati su database opachi, spesso impossibili da contestare.
In tutti questi casi, il gesto del filtrare non è un effetto marginale dell’AI, bensì la sua forma primaria di azione sul reale, perché la logica stessa su cui tali sistemi si fondano è intrinsecamente discriminante. La discriminazione - nel senso tecnico di distinzione, separazione, classificazione - costituisce il DNA di questo tipo di tecnologie. Essa rappresenta il meccanismo cognitivo fondamentale che consente al modello sia di apprendere che di operare, permettendo di selezionare ciò che è rilevante, di scartare ciò che è superfluo, di orientare l’attenzione del sistema verso pattern significativi. L’intero processo di apprendimento automatico si basa, infatti, sulla capacità di distinguere regolarità, raggruppare elementi, assegnare etichette, riconoscere anomalie: operazioni apparentemente neutre che, una volta trasferite nel mondo sociale, istituzionale ed economico, assumono la forma di un potere selettivo reale. Alla base del machine learning, come è noto, operano due processi complementari: la discriminazione e la generalizzazione. La discriminazione è il meccanismo che consente al modello di distinguere tra segnali e rumore, selezionando le variabili rilevanti e scartando quelle irrilevanti. È ciò che rende possibile tanto la regressione, orientata alla stima di valori continui, quanto la classificazione, finalizzata all’assegnazione di etichette. In entrambi i casi, il filtro discriminante trasforma dati grezzi in decisioni operative.
Allo stesso modo, i sistemi di screening dei candidati nell’ambito delle risorse umane delegano alla macchina l’individuazione dei profili “idonei”, basandosi su parametri impliciti spesso ricavati da dati storici e dunque tendenzialmente conservativi, se non discriminatori. Le medesime logiche regolano l’accesso al credito, alle assicurazioni, o ai servizi di welfare: punteggi e modelli predittivi operano come nuove soglie computazionali che determinano chi può accedere a un prestito, a un sussidio, a un alloggio, introducendo forme di esclusione potenzialmente opache e automatizzate.
Nel campo della sicurezza pubblica e delle politiche di controllo, la capacità di filtraggio dell’AI raggiunge il suo vertice problematico. I sistemi di policing predittivo, attraverso la modellizzazione del rischio, anticipano comportamenti o identificano “aree sensibili”, mentre le tecnologie di riconoscimento facciale - oggi sempre più pervasive - agiscono come dispositivi di sorveglianza che selezionano, riconoscono o bloccano individui sulla base di parametri biometrici. Anche i sistemi di targeting politico e il cosiddetto shadow-banning partecipano a questa economia del filtraggio, operando un controllo della visibilità che può influenzare la partecipazione democratica, l’accesso all’informazione e la costruzione dell’opinione pubblica.
L’apice di questa dinamica emerge nel controllo delle frontiere, dove la combinazione di riconoscimento facciale, analisi predittiva del rischio e screening automatizzato dei documenti trasforma il confine fisico in un confine computazionale. Qui il filtraggio non riguarda più solo la circolazione dei dati, dei contenuti o delle merci, ma quella delle persone in carne e ossa, le cui vite vengono valutate e classificate attraverso modelli addestrati su database opachi, spesso impossibili da contestare.
In tutti questi casi, il gesto del filtrare non è un effetto marginale dell’AI, bensì la sua forma primaria di azione sul reale, perché la logica stessa su cui tali sistemi si fondano è intrinsecamente discriminante. La discriminazione - nel senso tecnico di distinzione, separazione, classificazione - costituisce il DNA di questo tipo di tecnologie. Essa rappresenta il meccanismo cognitivo fondamentale che consente al modello sia di apprendere che di operare, permettendo di selezionare ciò che è rilevante, di scartare ciò che è superfluo, di orientare l’attenzione del sistema verso pattern significativi. L’intero processo di apprendimento automatico si basa, infatti, sulla capacità di distinguere regolarità, raggruppare elementi, assegnare etichette, riconoscere anomalie: operazioni apparentemente neutre che, una volta trasferite nel mondo sociale, istituzionale ed economico, assumono la forma di un potere selettivo reale. Alla base del machine learning, come è noto, operano due processi complementari: la discriminazione e la generalizzazione. La discriminazione è il meccanismo che consente al modello di distinguere tra segnali e rumore, selezionando le variabili rilevanti e scartando quelle irrilevanti. È ciò che rende possibile tanto la regressione, orientata alla stima di valori continui, quanto la classificazione, finalizzata all’assegnazione di etichette. In entrambi i casi, il filtro discriminante trasforma dati grezzi in decisioni operative.
È proprio in questa capacità di filtrare il mondo che risiede la potenza - e pertanto la responsabilità - dell’intelligenza artificiale. Il filtro non è neutro: determina ciò che può essere visto, pensato, agito. Da sempre, infatti, scegliere e selezionare costituiscono atti fondativi di ogni forma di organizzazione del mondo: sono operazioni con cui vengono stabiliti confini e gerarchie, definite appartenenze, tracciate le delimitazioni delle ontologie dentro cui gli esseri umani vivono e agiscono. Ogni sistema intelligente, per operare, deve ridurre la complessità del mondo. Lo fa attraverso pratiche di selezione: individua pattern, scarta rumore, privilegia segnali. Filtrare significa insomma circoscrivere uno spazio di possibilità, delimitare ciò che conta e ciò che può essere ignorato, rendere alcune cose accessibili e altre irraggiungibili. È un gesto primario, perché decide ciò che esiste per noi. Le ontologie dentro cui operiamo sono sempre il risultato di pratiche di selezione: ciò che viene incluso è ciò che può essere pensato, ciò che viene escluso è ciò che resta invisibile. Siamo così di fronte a un mutamento strutturale: il filtraggio algoritmico non si limita a organizzare il mondo, ma lo preconfigura, determinando anticipatamente gli spazi dell’esperibile.
La discriminazione operata dall’intelligenza artificiale si iscrive pienamente in questa lunga genealogia del filtraggio. Algoritmi di raccomandazione, modelli linguistici, sistemi di visione artificiale e motori di ricerca operano attraverso pratiche di selezione che non si limitano a ordinare dati, ma configurano attivamente il campo del possibile. In questo senso, l’AI non è solo uno strumento tecnico, ma un agente ontologico: essa contribuisce a definire ciò che esiste, ciò che è visibile, ciò che è accessibile. La discriminazione, dunque, è il gesto originario che trasforma dati grezzi in conoscenza operativa. Ed è su questo gesto che si fonda la possibilità - e il rischio - di ogni automazione cognitiva. Ciò pone questioni cruciali di ordine politico e teorico: chi stabilisce i criteri? su quali basi vengono costruite le soglie? e, soprattutto, quali forme di responsabilità sono possibili quando decisioni che incidono sui diritti, sulle opportunità e sulla mobilità degli individui sono delegate a processi computazionali che, per natura, operano all’interno di un’opacità tecnica difficilmente decifrabile?
Il potere dell’AI non è soltanto quello di decidere a chi concedere accesso, visibilità o opportunità, ma quello di stabilire che cosa può accadere all’interno di un determinato campo di realtà. Un feed algoritmico determina quali idee circolano e quali restano invisibili; un modello predittivo decide quali persone meritano credito o sorveglianza; un sistema di riconoscimento facciale stabilisce chi può oltrepassare una frontiera o entrare in uno spazio urbano. In tutti questi casi, ciò che viene filtrato non è solo una serie di dati, ma l’esperienza stessa del mondo, la sua configurazione fenomenologica e politica.
È proprio in questo potere di definire le soglie del visibile e dell’accessibile che si concentra una delle tensioni più urgenti del nostro presente. L’AI introduce una politica della scelta che non coincide più con il modello moderno della decisione istituzionale, bensì con un regime distribuito di valutazioni automatizzate. I processi di selezione non sono più luoghi, ma funzioni; non sono più attraversamenti negoziabili, ma esiti di calcoli. Ne deriva una trasformazione radicale della nostra ecologia politica: la possibilità di accedere a diritti, riconoscimento, informazione o mobilità dipende sempre più da parametri selettivi sottratti alla visibilità e alla verificabilità. Gli algoritmi non solo filtrano contenuti, ma apprendono dai dati per raffinare continuamente i criteri di selezione. In questo processo, si ridisegnano le geografie del possibile: alcune esperienze vengono amplificate, altre silenziate; alcuni soggetti emergono come centrali, altri vengono marginalizzati. Il filtro algoritmico non è neutro: è modellato da dati storici, da interessi economici, da bias culturali. Di conseguenza, la discriminazione operata dall’AI ha effetti politici profondi. Chi controlla i filtri controlla l’accesso alla realtà. Le piattaforme digitali, i motori di ricerca, i sistemi di sorveglianza e di diagnosi automatica non si limitano a riflettere il mondo: lo costruiscono. E in questa costruzione, si gioca una partita politica cruciale: quella tra apertura e chiusura, tra pluralità e omologazione, tra giustizia ed esclusione.
È proprio in questo potere di definire le soglie del visibile e dell’accessibile che si concentra una delle tensioni più urgenti del nostro presente. L’AI introduce una politica della scelta che non coincide più con il modello moderno della decisione istituzionale, bensì con un regime distribuito di valutazioni automatizzate. I processi di selezione non sono più luoghi, ma funzioni; non sono più attraversamenti negoziabili, ma esiti di calcoli. Ne deriva una trasformazione radicale della nostra ecologia politica: la possibilità di accedere a diritti, riconoscimento, informazione o mobilità dipende sempre più da parametri selettivi sottratti alla visibilità e alla verificabilità. Gli algoritmi non solo filtrano contenuti, ma apprendono dai dati per raffinare continuamente i criteri di selezione. In questo processo, si ridisegnano le geografie del possibile: alcune esperienze vengono amplificate, altre silenziate; alcuni soggetti emergono come centrali, altri vengono marginalizzati. Il filtro algoritmico non è neutro: è modellato da dati storici, da interessi economici, da bias culturali. Di conseguenza, la discriminazione operata dall’AI ha effetti politici profondi. Chi controlla i filtri controlla l’accesso alla realtà. Le piattaforme digitali, i motori di ricerca, i sistemi di sorveglianza e di diagnosi automatica non si limitano a riflettere il mondo: lo costruiscono. E in questa costruzione, si gioca una partita politica cruciale: quella tra apertura e chiusura, tra pluralità e omologazione, tra giustizia ed esclusione.
.png)
Nessun commento:
Posta un commento