Pagine

lunedì 27 ottobre 2025

L’etica del monopolio: perché i padri dell’IA ci mettono in guardia dai loro stessi prodotti


Sam Altman, CEO di OpenAI , la società dietro ChatGPT , sta lanciando avvertimenti inaspettatamente severi sugli effetti dei suoi prodotti e di quelli simili. "Mi aspetto che accadano cose davvero brutte a causa della tecnologia", ha affermato in una recente intervista. E Altman non è il solo. Si ricordi che anche altri "padri" dell'Intelligenza artificiale, da Elon Musk a Geoffrey Hinton a Yoshua Bengio, da tempo, ci mettono in guardia contro i pericoli portati da queste nuove macchine, che pure si affrettano a sviluppare tramite investimenti miliardari. 
Le parole di Altman suonano inquietanti, ma anche ambigue: come può chi guida lo sviluppo di queste stesse tecnologie presentarsi come voce critica e ammonitrice? Perché i costruttori dell’IA sembrano essere oggi anche i suoi profeti apocalittici?
Dietro questa apparente contraddizione si nasconde una strategia più sottile e coerente di quanto sembri, che intreccia comunicazione, potere e ideologia. Le ragioni di questo doppio discorso - l’allarme etico e la spinta espansiva - possono essere ricondotte almeno a tre logiche complementari.


1. Il catastrofismo come strategia di marketing

Quando Sam Altman o altri leader del settore evocano scenari apocalittici, contribuiscono, paradossalmente, ad accrescere il prestigio, l'hype, delle loro tecnologie. Se l’IA può “distruggere il mondo”, allora è già percepita come qualcosa di potentissimo, quasi divino, e dunque meritevole di attenzione, investimenti e fiducia.
È una forma sofisticata di marketing: il discorso catastrofista legittima l’idea che l’IA sia la tecnologia definitiva, quella che ridefinirà il destino dell’umanità. L’allarme diventa pubblicità. La paura, nel mondo della tecnologia, vende più della speranza.
Evocare scenari da fantascienza - macchine coscienti, intelligenze ribelli, rischi esistenziali - contribuisce ad accrescere il senso di potenza mitica di queste tecnologie. Se l’IA può distruggere l’umanità, allora dev’essere davvero straordinaria.
Il discorso catastrofista funziona così da potente amplificatore di hype: genera attenzione mediatica, mobilita investimenti, alimenta la corsa all’innovazione come questione di sopravvivenza collettiva.
La paura, in altri termini, legittima l’accelerazione.

2. Il rischio immaginario come diversivo: spostare l’attenzione

Parlare di un’IA “cosciente”, “autonoma” o “incontrollabile”, per quanto suggestivo, serve anche a dislocare il dibattito. Mentre ci si interroga su rischi futuri, spesso ipotetici, passano in secondo piano i problemi immediati e strutturali:
- la concentrazione del potere tecnologico nelle mani di pochissime aziende private;
- l’opacità dei modelli (chi li controlla, chi li addestra, con quali dati?);
- lo sfruttamento del lavoro umano “invisibile” necessario per addestrare e moderare i sistemi;
- l’impatto sociale (disinformazione, precarizzazione, sorveglianza);
- l'impatto sull'ambiente e l'impiego di risorse.
Così, la minaccia di una superintelligenza futura diventa un efficace diversivo che oscura le disuguaglianze sistemiche del presente. L’attenzione si sposta dalla questione del potere alla gestione della paura.

3. L’usurpazione del discorso etico-politico

C’è infine un aspetto di autolegittimazione morale. Quando i CEO delle big tech parlano di “regolare” l’IA o di “salvare l’umanità”, assumono un ruolo che non spetterebbe loro: quello del legislatore, del giurista, del garante etico, del filosofo. In questo modo, privatizzano il dibattito pubblico, facendolo ruotare attorno alle loro dichiarazioni e ai loro ritmi d’innovazione.
La governance dell’IA, invece, dovrebbe appartenere a istituzioni collettive, democratiche e trasparenti, non alle stesse aziende che traggono profitto dai sistemi che andrebbero regolati.
Si tratta, potremmo dire, di una “etica del monopolio”: una forma di legittimazione morale, in cui la preoccupazione dichiarata diventa il linguaggio attraverso cui il potere tecnologico si autoassolve e si consolida. Attraverso la retorica della paura - il continuo evocare i rischi, i pericoli e le catastrofi potenziali - l’industria tecnologica non solo difende il proprio ruolo, ma si arroga il diritto di definire ciò che è innovazione, ciò che è pensabile, ciò che è lecito. L’“etica del monopolio” è dunque il momento in cui il potere economico assume le sembianze della coscienza morale, monopolizzando perfino la critica di sé, inglobandola nel proprio linguaggio.
Il potere tecno-economico, assumendo i toni della responsabilità e della cautela, costruisce un’immagine di sé come soggetto etico, chiamato a proteggere l’umanità dai rischi che egli stesso produce. In questa dinamica, la retorica della paura - l’enfasi sui pericoli dell’intelligenza artificiale, sulle minacce esistenziali, sui possibili disastri sociali - non opera tanto come segnale d’allarme quanto come meccanismo di centralizzazione del controllo. Il potere che dichiara di voler limitare se stesso, in realtà, rafforza la propria posizione, poiché si accredita come unico soggetto legittimato a definire il confine tra il lecito e l’illecito, tra il progresso e l’abuso. L’etica del monopolio è, in questo senso, un'etica performativa: non mira a fondare una morale, ma a produrre un effetto politico, a consolidare una gerarchia, dove la preoccupazione diventa il linguaggio stesso dell’egemonia.
Il meccanismo è sottile. Ogni monopolio, per mantenersi, ha bisogno di autorizzare la propria esistenza come necessaria: e nella società tecnologica contemporanea, la via più efficace per farlo non è la forza economica, ma la captazione della coscienza morale collettiva. Quando le grandi piattaforme o i loro rappresentanti pubblici invocano prudenza, regolazione, etica, trasparenza, essi non parlano dall’esterno della propria potenza, ma all’interno di essa. L’etica diventa una strategia di contenimento che neutralizza la critica, anticipandola e inglobandola nel proprio discorso. In questo modo, la critica non viene repressa ma assorbita: la macchina si autoaccusa per legittimarsi, si dichiara pericolosa per farsi indispensabile.
Questa moralizzazione del potere non è un fenomeno nuovo, ma assume nella tecnologia digitale una forma inedita. Quando non si esprime in forma catastrofista, ma adotta la linea rassicurante, l'etica del monopolio mette in scena la propria eticità in tempo reale: attraverso conferenze, manifesti, regolazioni “responsabili”, dichiarazioni d’intenti. Si presenta come un discorso pubblico che rassicura, promettendo di contenere i rischi e garantire la sicurezza. Ma ciò che realmente garantisce è la stabilità dell’ordine monopolistico stesso.
In tal senso, l’etica del monopolio può essere letta come una inversione del rapporto tra etica e potere: l’etica non più come limite al potere, ma come forma del potere; non più come principio di responsabilità, ma come tecnica di legittimazione. Essa è l’ultima frontiera del soft power - quello che non impone, ma persuade; non censura, ma ingloba; non domina, ma convince. E in questa persuasione etica, la libertà di pensare, di innovare, di criticare, rischia di trovarsi confinata entro i limiti di ciò che il monopolio consente di considerare moralmente ammissibile.

Nessun commento:

Posta un commento