Sam Altman, CEO di OpenAI , la società dietro ChatGPT , sta lanciando avvertimenti inaspettatamente severi sugli effetti dei suoi prodotti e di quelli simili. "Mi aspetto che accadano cose davvero brutte a causa della tecnologia", ha affermato in una recente intervista. E Altman non è il solo. Si ricordi che anche altri "padri" dell'Intelligenza artificiale, da Elon Musk a Geoffrey Hinton a Yoshua Bengio, da tempo, ci mettono in guardia contro i pericoli portati da queste nuove macchine, che pure si affrettano a sviluppare tramite investimenti miliardari.
Le parole di Altman suonano inquietanti, ma anche ambigue: come può chi guida lo sviluppo di queste stesse tecnologie presentarsi come voce critica e ammonitrice? Perché i costruttori dell’IA sembrano essere oggi anche i suoi profeti apocalittici?
Dietro questa apparente contraddizione si nasconde una strategia più sottile e coerente di quanto sembri, che intreccia comunicazione, potere e ideologia. Le ragioni di questo doppio discorso - l’allarme etico e la spinta espansiva - possono essere ricondotte almeno a tre logiche complementari.
1. Il catastrofismo come strategia di marketing
Quando Sam Altman o altri leader del settore evocano scenari apocalittici, contribuiscono, paradossalmente, ad accrescere il prestigio, l'hype, delle loro tecnologie. Se l’IA può “distruggere il mondo”, allora è già percepita come qualcosa di potentissimo, quasi divino, e dunque meritevole di attenzione, investimenti e fiducia.
È una forma sofisticata di marketing: il discorso catastrofista legittima l’idea che l’IA sia la tecnologia definitiva, quella che ridefinirà il destino dell’umanità. L’allarme diventa pubblicità. La paura, nel mondo della tecnologia, vende più della speranza.
Evocare scenari da fantascienza - macchine coscienti, intelligenze ribelli, rischi esistenziali - contribuisce ad accrescere il senso di potenza mitica di queste tecnologie. Se l’IA può distruggere l’umanità, allora dev’essere davvero straordinaria.
Il discorso catastrofista funziona così da potente amplificatore di hype: genera attenzione mediatica, mobilita investimenti, alimenta la corsa all’innovazione come questione di sopravvivenza collettiva.
La paura, in altri termini, legittima l’accelerazione.
2. Il rischio immaginario come diversivo: spostare l’attenzione
Parlare di un’IA “cosciente”, “autonoma” o “incontrollabile”, per quanto suggestivo, serve anche a dislocare il dibattito. Mentre ci si interroga su rischi futuri, spesso ipotetici, passano in secondo piano i problemi immediati e strutturali:
- la concentrazione del potere tecnologico nelle mani di pochissime aziende private;
- l’opacità dei modelli (chi li controlla, chi li addestra, con quali dati?);
- lo sfruttamento del lavoro umano “invisibile” necessario per addestrare e moderare i sistemi;
- l’impatto sociale (disinformazione, precarizzazione, sorveglianza);
- l'impatto sull'ambiente e l'impiego di risorse.
Così, la minaccia di una superintelligenza futura diventa un efficace diversivo che oscura le disuguaglianze sistemiche del presente. L’attenzione si sposta dalla questione del potere alla gestione della paura.
3. L’usurpazione del discorso etico-politico
C’è infine un aspetto di autolegittimazione morale. Quando i CEO delle big tech parlano di “regolare” l’IA o di “salvare l’umanità”, assumono un ruolo che non spetterebbe loro: quello del legislatore, del giurista, del garante etico, del filosofo. In questo modo, privatizzano il dibattito pubblico, facendolo ruotare attorno alle loro dichiarazioni e ai loro ritmi d’innovazione.
La governance dell’IA, invece, dovrebbe appartenere a istituzioni collettive, democratiche e trasparenti, non alle stesse aziende che traggono profitto dai sistemi che andrebbero regolati.
Si tratta, potremmo dire, di una “etica del monopolio”, dove la preoccupazione dichiarata diventa il linguaggio attraverso cui il potere tecnologico si autoassolve e si consolida. L’industria tecnologica, attraverso la retorica della paura, si arroga il diritto di definire non solo il futuro dell’innovazione, ma anche i confini del pensabile e del lecito. L’“etica del monopolio” è proprio questo: il momento in cui il potere economico si traveste da coscienza morale, monopolizzando perfino la critica di sé.

Nessun commento:
Posta un commento