Fonte: Effimera 02.08.2020

In un suo scritto del giugno 2019 Jerry Harris [1] riassumeva così le possibili vie d’uscita dallo stato critico in cui versa il sistema capitalistico:

1) permanenza nell’attuale stagnazione con modesti aggiustamenti delle politiche liberali in senso neo-keynesiano; 2) accumulazione basata su militarizzazione globale e stato di polizia sull’onda delle politiche nazionaliste; 3) capitalismo verde ed espansione basata sulla quarta rivoluzione industriale.
Escludendo la prima – che certificherebbe una insolita quanto incredibile “paresi” del capitalismo – le altre due, pur divergendo esteticamente, presentano tratti comuni riconducibili alla assoluta necessità di rilanciare il meccanismo di accumulazione, sia ridisegnando il ruolo dell’industria e delle finanza, sia utilizzando al massimo le opportunità offerte dalle nuove tecnologie, con la differenza che nella seconda ipotesi, le nuove tecnologie avrebbero una funzione prevalentemente di controllo sociale. Tuttavia ciò non esclude, secondo Harris, che possa realizzarsi una simbiosi (o coesistenza) tra le due, dando vita a un qualcosa che lui definisce in modo pittoresco, “eco-fascismo”, tenuto conto che le nuove tecnologie sarebbero funzionali alla realizzazione di entrambe le ipotesi. Infatti secondo Harris: “La rivoluzione nelle tecnologie dell’informazione e della comunicazione è strettamente legata alla crisi di sovra accumulazione. La tecnologia digitale è fondamentale per il funzionamento del capitalismo globale ad ogni livello. Ha creato l’infrastruttura per una vasta e dispendiosa speculazione finanziaria attraverso la connettività e la velocità. È essenziale per la produzione e la logistica globali, nonché per la diffusione del precariato. Inoltre, l’Intelligenza artificiale e le tecnologie della Quarta rivoluzione industriale, promettono di peggiorare le cose attraverso l’eliminazione di milioni di posti di lavoro”.

Questa “funzione paradigmatica” riposta nelle nuove tecnologie ha già investito l’ambito di discussione della sinistra e dei movimenti sociali, producendo valutazioni contraddittorie circa le opportunità che potrebbe offrire la Quarta rivoluzione industriale.

Prescindendo dal merito più strettamente politico della questione, a me sembra che le analisi e le iniziative fin qui sviluppate non colgano un aspetto fondamentale di questo passaggio di fase che è quello relativo all’energia necessaria alla sua realizzazione. In via di principio, ad esempio, mentre nei riferimenti generali alla annunciata svolta green è contemplato tutto l’insieme dell’industria 4.0, non necessariamente l’avvento della Quarta rivoluzione industriale ha come condizione sine qua non la realizzazione della transizione energetica. Nello stesso tempo l’obiettivo delle “emissioni zero” – così come è stato proposto fin’ora – non entra nel merito di quale sarà (o dovrebbe essere) il modo di produzione nella Quarta rivoluzione industriale, limitandosi a rivendicare, più che una transizione vera e propria, la surrogazione delle fonti di energia fossili con quelle rinnovabili dalle quali, ad esempio, non è esplicitamente esclusa quella nucleare.

In sostanza quindi, le linee di tendenza che fanno capo alla transizione energetica da un lato e all’industria 4.0 dall’altro, convergono verso la realizzazione di un “modello tutto elettrico” senza rendersi conto di quali e quante implicazioni esso comporti.

 

1 – Le nuove parole dell’ecologia: estrattivismo, transizione energetica: accelerazionismo, quarta rivoluzione industriale, Antropocene

Questo breve cenno agli scenari che potrebbero delinearsi da qui ai prossimi anni, ci introduce ad un insieme di temi-chiave che incombono sulla realtà di tutti i giorni e che sono entrati a far parte del dibattito sulla cosiddetta ecologia politica.

Fra questi temi andrebbe posto sicuramente il rischio, anzi i rischi, che abbiamo di fronte. Vero è che ogni epoca ha avuto i suoi di rischi, connaturati, oltre che ai fenomeni naturali, ai tempi e ai modi dell’organizzazione sociale corrispondente; ma quelli di oggi – imperante il capitalismo – hanno assunto una dimensione globale, tale per cui questa nuova “era” potrebbe essere l’ultima, come scriveva Günther Anders. [2]

Se con il rischio della guerra nucleare globale conviviamo da 70 anni, altrettanto non si può dire delle altre “minacce” a cui siamo sottoposti come quelle dei cambiamenti climatici e quelle biologiche (tutt’ora in corso con il covid 19). Niente di nuovo si potrebbe dire, dato che entrambi i pericoli (più il primo che il secondo, in verità) erano stati denunciati da tempo da scienziati ed ambientalisti. Il punto però non è tanto stabilire se questi fenomeni (l’inquinamento globale o le infezioni virali) siano più o meno noti, quanto il rendersi conto che essi si manifestano in condizioni limite (il carico o stress complessivo sul pianeta) di cui soli i maghi potrebbero divinare le sorti.

La diversità degli attuali rischi sta dunque nel fatto che tutti e tutte noi, pur facendo parte di un sistema (o meglio di un ecosistema) non ne conosciamo l’equazione generale che lo governa, ma solo alcuni parametri fondamentali che a detta degli scienziati del IPCC sono prossimi al limite di “sopportabilità”, ma che secondo loro consentono ancora un margine di intervento, purché questo sia effettuato rapidamente.

Temo che non sia così, perché credo che alcuni parametri abbiano già raggiunto e superato questa soglia critica e lo dico proprio sulla base dei dati scientifici pubblicati dal IPCC che mostrano come i livelli attuali della temperatura terrestre e della concentrazione di CO2 in atmosfera siano gli stessi di 140.000 anni fa e che all’epoca, per tornare ai valori preesistenti (più bassi), ci siano voluti all’incirca 20 mila anni. [3] Quindi, tenuto conto dell’inerzia termica del sistema Terra, e sulla base degli andamenti delle ere geologiche precedenti, è ragionevole supporre che i cambiamenti climatici in corso – se non peggioreranno – dureranno ancora per molto tempo anche in caso di interventi riparatori. [4]

Ci adatteremo a convivere anche con questi “nuovi” rischi, o riusciremo a individuare ed affrontare le cause che li originano? Per ciò che riguarda il rischio biologico la discussione è appena iniziata, ma già si intravedono alcuni elementi di criticità generali come la perdita delle biodiversità, la deforestazione e gli allevamenti intensivi di animali; mentre per il rischio climatico- ambientale la discussione è più consolidata ma, a mio parere, anche piuttosto disordinata, specie nella sinistra.

I temi chiave che più si intrecciano con la questione climatica sono: estrattivismo; accelerazionismo e quarta rivoluzione industriale; transizione energetica; Antropocene.

Estrattivismo è termine assai in voga nella sinistra e, come spesso accade, si tende a farne un paradigma interpretativo dell’intero arco di attività attraverso cui si esplica l’azione del capitale. [5]

Prescindendo dall’efficacia o meno di questa ri-definizione del capitalismo e pur tenendo conto della sua suggestività, a me interessa esaminare l’estrattivismo da un punto di vista sistemico e precisamente nella sua relazione fattuale con gli altri temi chiave sopra elencati. Ovvero, se la crisi climatico-ambientale in corso è, in estrema sintesi, il prodotto dell’estrattivismo neoliberista, come si può sostenere che la soluzione a questa crisi stia nella transizione energetica e nella quarta rivoluzione industriale, quando proprio l’estrattivismo -nella sua forma più brutale – è parte integrante di queste ipotesi? Come si fa a ritenere possibile (anzi a rivendicare, come fanno gli accelerazionisti) l’informatizzazione e l’automazione totale dell’industria e dei servizi senza tener conto che questa rivoluzione tecnologica si dà solo a partire da uno sfruttamento intensivo di materie prime e di energia quale non è dato immaginare? E infine, come non tener conto che nel rivendicare quella transizione energetica ad emissioni zero necessaria a far funzionare l’industria 4.0, c’è compresa l’energia nucleare che gli stessi scienziati del IPCC accreditano ( a torto) essere carbon free?

Nel libro “Inventare il futuro- per un mondo senza lavoro” gli autori scrivono: “Pensiamo che qualsiasi progetto postcapitalista che nutra l’ambizione di sistematizzare fenomeni complessi per il miglioramento della condizione umana implichi obbligatoriamente la creazione di nuove mappe cognitive, di nuove narrazioni politiche, di nuove interfacce tecnologiche, di nuovi modelli economici, e di nuovi meccanismi di controllo collettivo.”  [6] Per quanto il libro sviluppi questo approccio da diverse angolazioni, non c’è riferimento alcuno al tipo e quantità di energia su cui si fonda il progetto accelerazionista; così come non c’è riferimento, nell’idea di transizione energetica rivendicata dai movimenti per il clima, a quale modello produttivo essa si ispiri.

Il primo è un disegno finalizzato all’informatizzazione e automazione dei processi produttivi, mentre l’altro, improntato alla ridefinizione del quadro energetico, ne rappresenta il naturale complemento dato che ciò che li accomuna è costituito proprio dalla diffusione dell’energia elettrica, in quanto asse portante della transizione energetica (ad emissioni zero) e conditio sine qua non della quarta rivoluzione industriale.

1.1 – Il “modello tutto elettrico” come modello del capitale

Qui si innesta il discorso sul “modello tutto elettrico” come lo definii 40 anni fa, polemizzando con un intervento apparso sulla rivista Sapere in cui si sosteneva che: “ Giunto allo stadio attuale del suo sviluppo, il modo di produzione capitalistico tende ad assumere l’automazione come sua prospettiva di rinnovamento tecnologico”. [7]

Sinteticamente la questione sta in questi termini: lo sfruttamento delle fonti di energia da parte del capitale è stato contraddistinto da tre aspetti: la loro attitudine a compiere un lavoro (macchinizzazione); la loro organizzabilità dal punto di vista produttivo e sociale; la loro concentrabilità, ovvero la capacità di essere immagazzinate e di accumulare potenza. Non a caso le prime fonti di energia utilizzate dall’uomo sono state via via abbandonate (salvo ripresentarsi oggi) con l’avvento del capitalismo: il vento e il sole, nonostante fossero diffusi su tutto il pianeta, non erano facilmente organizzabili nè concentrabili secondo le nuove esigenze dettate dall’evoluzione dei processi produttivi. Il vento e il sole, non si possono trasportare a differenza dei combustibili fossili e dell’elettricità, che però non è immagazzinabile e anche sul trasporto presenta delle limitazioni.

Queste caratteristiche sono alla base del modo di sfruttamento dell’energia nel sistema capitalistico e, con alterne vicende, ne hanno influenzato lo sviluppo attraverso un impiego diversificato per fonte (mix energetico) e per processi produttivi per cui, ad esempio, si è consolidato nel tempo l’uso dei fossili nella petrolchimica, nella siderurgia o nel settore cementiero, mentre quasi tutto il settore manifatturiero funziona con l’elettricità.

Questo mix energetico però, solo in parte è dettato da esigenze tecnologiche e produttive perché, fatti salvi gli “usi obbligati”, le fonti di energia sono, in una certa misura, tecnicamente surrogabili : ad esempio i famosi “tondinari” del bresciano usano da tempo forni elettrici (la stessa Arcelor- Mittal ne ha molti sparsi per il mondo), in Francia il riscaldamento delle abitazioni è fatto con l’elettricità, viceversa in molti paesi, come gli USA, i treni viaggiano a gasolio e se l’automobile elettrica non è andata in produzione decenni fa, non è certo per difficoltà tecnologiche. Il “modello” energetico risultante è dunque frutto di scelte del capitale, degli equilibri tra settori del capitalismo, equilibri geopolitici e, non ultimo, del conflitto capitale-lavoro.

Se c’è stato un momento in cui una parte del capitale fu “tentata” di scegliere il modello tutto elettrico, questo fu a metà degli anni ‘70 per un insieme di motivi: crisi del dollaro del 1971 (denuncia del trattato di Bretton Woods da parte di Nixon); crisi petrolifera del 1973 seguente al conflitto arabo-israeliano con aumento del prezzo del petrolio del 70% imposto dall’OPEC; lotte di liberazione nel terzo mondo con la sconfitta USA in Vietnam, 1975; un ciclo di lotte operaie che sembrava inesauribile.

In questo quadro di fortissime criticità l’opzione nucleare apparve come una possibile via d’uscita tanto che la costruzione di reattori ebbe un impennata senza precedenti, anche perché all’epoca i costi di produzione del Kwh nucleare si prospettavano molto competitivi.

Quindi, con un costo dell’energia alle stelle (che si ripercuoteva su quello delle materie prime, dei trasporti, etc) e di fronte all’ostilità del mondo arabo (massimo detentore dei giacimenti petroliferi) ci fu chi, tra i padroni, accarezzò l’idea di sganciarsi dalla “tirannia” del petrolio per mezzo dell’energia nucleare, ma dato che con l’uranio si produce solo energia elettrica, la scelta strategica del nucleare non poteva essere giustificata nell’economia generale (considerati i costi enormi) come semplicemente sostitutiva del petrolio, a meno che il forte incremento di generazione elettrica che ne sarebbe derivato trovasse sbocco nella mobilità elettrica e nell’automatizzazione generalizzata dei processi produttivi, superando così anche l’ostacolo rappresentato dalla rigidità della forza lavoro.

Le cose non andarono così e i motivi non furono certo di ordine tecnologico, tant’è vero che l’automazione fu parzialmente introdotta, ma non perché il capitale l’avesse assunta come prospettiva di rinnovamento tecnologico, quanto perché questa opzione, unitamente ad altre misure di minor impegno economico, [8] gli permise di superare quella crisi ridimensionando il peso della forza-lavoro occidentale nell’ambito di una divisione internazionale del lavoro che impiegava mano d’opera a bassissimo costo del tutto inserita nel ciclo della produzione globalizzata e automatizzata. [9] A ciò va aggiunto il non secondario ostacolo rappresentato dall’insieme di interessi legati al ciclo dei combustibili fossili che costituiva all’epoca uno dei maggiori centri di potere nell’ambito dell’economia mondiale.

Oggi la questione si presenta in termini diversi e, per certi aspetti, sconcertanti. Nel mix energetico sono entrati a far parte gas e rinnovabili, mentre è calato il peso del carbone e quello del petrolio è sempre più circoscritto al settore trasporti registrando, tra l’altro, una vistosa ricollocazione del suo potere di influenza sull’economia mondiale. [10]

Contemporaneamente l’offerta energetica del capitale si è fatta più flessibile, attenta alle esigenze dei clienti (customer oriented come si dice) e alla sostenibilità [11] e, cosa più importante, l’introduzione di vincoli legislativi ha fatto sì che l’efficienza termodinamica nella generazione elettrica e nei motori a combustione interna sia sensibilmente aumentata, mentre sono diminuite le rispettive emissioni specifiche. [12] Ciononostante le emissioni totali in atmosfera, a cominciare dalla CO2, hanno raggiunto e superato i temutissimi limiti previsti nel 1972 dal Club di Roma. [13] Come ciò sia potuto accadere è presto detto.

In primo luogo il fenomeno dell’inquinamento atmosferico è quasi del tutto irreversibile [14] il che significa che col tempo gli inquinanti si concentrano; ad esempio solo una piccola parte di CO2 viene ricombinata dalla sintesi clorofilliana, mentre il resto permane nell’atmosfera o viene assorbito dagli oceani aumentandone l’acidità. Anche se le emissioni cessassero di colpo, occorrerebbe molto tempo per tornare ai valori precedenti.

In secondo luogo quasi tutti i parametri che entrano in gioco nel calcolo delle emissioni registrano un andamento esponenziale (crescita della popolazione; consumi di energia legati ai trasporti o ai processi industriali; emissioni da allevamento animale, etc) e per invertirlo non basta prendere provvedimenti lineari (come l’efficientamento termodinamico descritto sopra ) ma occorrono veri e propri “traumi”, come si è potuto capire dall’emergenza covid 19, senza contare poi che i miglioramenti ottenuti a termini di norme e leggi valgono solo per i paesi più evoluti.

Ovviamente ci sono altri fattori che concorrono a delineare il “quadro clinico” del pianeta (inquinamento dei mari e delle acque interne; consumo e inquinamento del suolo; deforestazione, perdita biodiversità, etc), ma è indubbiamente sul clima che si palesano quelle condizioni limite di cui sopra, che hanno indotto scienziati, forze politiche, istituzioni internazionali e movimenti politici a perseguire l’obiettivo delle emissioni zero. Il che ci riconduce al modello tutto elettrico, ovvero fare in modo che gli usi finali dell’energia (trasporti, riscaldamento, attività produttive e commerciali, etc) siano esclusivamente (o quasi) di tipo elettrico.

1.2 – L’insostenibile leggerezza della transizione energetica

Qui scatta subito l’aggancio con l’informatizzazione e robotizzazione della quarta rivoluzione industriale, nella misura in cui la diffusione di queste tecnologie ha come presupposto la disponibilità presso che illimitata di energia elettrica (da qualsiasi fonte prodotta) e quindi quanto più la società si “elettrifica” tanto più facile diverrà -dal punto di vista tecnologico – robotizzare e informatizzare tutta una serie di attività: dalla gestione di un altoforno, alla guida di un autoveicolo ; dall’emissione di un certificato anagrafico, alla cosiddetta “internet delle cose”.

Dando per scontato che tutto questo sia realizzabile dal punto di vista tecnico-funzionale, quanta energia elettrica serve e come la si rende disponibile?

Qui si cela il “lato oscuro” del modello tutto elettrico e di conseguenza della transizione energetica che ne è la cornice di riferimento.

Nel 2050 (anno preso a riferimento per realizzare l’obiettivo delle emissioni zero) il consumo globale di energia primaria è stimato tra 16.000 e 17.000 Mtoe (milioni di tonnellate equivalenti di petrolio) che tradotti in energia elettrica corrispondo a circa 190.000 Twh (terawattora, miliardi di Kwh) ripartiti tra un 70% da fonti fossili, 7% da nucleare e il restante 23% da fonti non fossili (idroelettrico, biomasse, sole e vento). Si tratterebbe quindi di sostituire tra il 70% e il 77% (a seconda che si conteggi il nucleare) di questa energia con fonti rinnovabili che tradotto in capacità generativa corrisponde a 177 milioni di Mw di impianti solari ( oltre 700 miliardi di pannelli solari) oppure a 48 milioni di Mw di impianti eolici (16 milioni di aereogeneratori da 3 Mw), oppure a una qualsiasi combinazione tra le due.

Sono cifre enormi che comportano numerose difficoltà a cominciare da quelle costruttive e di installazione, ma non è da queste che sorgono le controindicazioni principali, quanto dalla funzionalità complessiva dell’operazione rispetto alla situazione data, ovvero dall’architettura stessa del territorio modellatasi nel corso di secoli, ma che il capitalismo ha talmente esasperato da renderla praticamente irreversibile, a meno di rivolgimenti epocali. In termini energetici significa un territorio scompensato, con picchi di consumo localizzati (città, distretti industriali, etc) che abbisognano di un flusso energetico concentrato (gasdotti, elettrodotti,) che mal si adatta alla produzione di energia da fonti diffuse come sole e vento. [15] Da questo punto di vista le città rappresentano l’apice di questa contraddizione: spesso si dimentica che oltre il 61% della popolazione mondiale vive nei centri urbani e a meno di mettere in conto di raderli al suolo e ricostruirli con altri criteri (che in una certa misura sarebbe anche auspicabile!), essi rappresentano il regno dell’entropia massima di cui si possono mitigare gli effetti, ma non nella misura che sarebbe necessaria. Città come Roma e Milano, già oggi presentano picchi di consumo di 1500-1700 Mwe; nell’ipotesi di interdire l’uso delle fonti fossili, significherebbe trasformare gli usi domestici del gas (riscaldamento, cucina) in usi elettrici con aumenti consistenti della potenza richiesta. [16]

Ancora più rilevante risulta l’impatto conseguente all’elettrificazione dell’autotrasporto dal momento che essa è concepita come semplice sostituzione del propulsore (da motore a combustione interna a motore elettrico) che quindi abbisogna di una sorgente di energia indipendente non legata ad una rete, come invece avviene per i treni, tramvie, filobus. I problemi che sorgono sono di due tipi: il primo è legato al “rifornimento” dei veicoli a batteria, cioè alle stazioni o punti di ricarica; il secondo ai processi di fabbricazione e smaltimento delle batterie.

Oggi l’autotrasporto si basa su di una rete capillare di punti di rifornimento alimentati, con relativa facilità, da autobotti che trasportano il combustibile liquido. L’energia elettrica, per essere trasportata, ha bisogno di una rete fissa e interconnessa con i punti di generazione, quindi per garantire la ricarica dei veicoli elettrici bisogna cablare tutta la rete stradale e autostradale, nonché un elevatissimo numero di centri urbani. E’ una impresa che richiede sforzi economici e organizzativi incalcolabili che solo poche nazioni potrebbero permettersi. Inoltre, affinché questa “trasformazione” elettrica della rete dei rifornimenti offra le stesse prestazioni di quella esistente a carburanti liquidi, occorre fare in modo che i tempi di ricarica di un veicolo elettrico siano paragonabili a quelli attuali, sia per le automobili che per i veicoli pesanti. Ciò comporta l’istallazione di colonnine a ricarica rapida, cioè capaci di erogare molta più potenza: per le automobili si va da 20 a 80 Kwe ( a seconda della batteria) e per i mezzi pesanti sui 250-300 Kwe. In pratica le stazioni di servizio, specie quelle autostradali, devono essere in grado di erogare potenze comprese tra i 500 kwe e 1Mwe per alimentare contemporaneamente più veicoli, il che avrebbe significative ricadute sulla rete elettrica nazionale che sarebbe sottoposta a picchi di potenza elevatissimi, imprevedibili e non gestibili senza l’apporto di centrali elettriche a presa di carico rapida come quelle funzionanti a combustibili fossili. [17]

L’altro aspetto riguarda la produzione e smaltimento delle batterie. Uno studio del 2017 [18] condotto secondo i criteri del LCA (Life Cycle Assessment) valuta in 350-650 MJ/kwh l’energia necessaria a svolgere l’intero ciclo di fabbricazione di una batteria (dall’estrazione del Litio fino al suo smaltimento) a cui sono associate emissioni specifiche pari a 150-200 kg di CO2 eq /kwh, cioè emissioni di anidride carbonica per ogni Kwh di capacità erogabile dalla batteria.

Considerando di sostituire l’intero parco mondiale dei veicoli circolanti ( stimato cautelativamente in 1.200.000.000 unità senza distinzione tra autovetture e veicoli commerciali) si avrebbe un carico di emissioni totali pari a 7,2 Gt di CO2 che corrisponde al 42% delle attuali emissioni globali di CO2 che, in base alla durata attuale delle batterie, dovrebbe essere replicato ogni ogni 7 anni. [19] Ora si può essere più che certi che questi parametri saranno migliorati, ma pur immaginando di dimezzarli ci troviamo di fronte a processi estremamente impattanti, tipici del peggior “estrattivismo”. [20]

Il punto cruciale quindi è che l’attuale società funziona secondo un “as built” da cui non si può prescindere, sia che l’approccio prediliga gli aspetti tecnologici della questione, sia che la affronti dal punto di vista delle soluzioni energetiche. Pensare che il miglioramento della condizione umana e di quella del pianeta possa avvenire senza incidere su entrambi gli aspetti, così come si presentano nella realtà, rischia di tradursi nell’ennesimo tentativo di razionalizzazione del capitalismo, a cui peraltro una parte del capitale sta già lavorando. [21]

 

2 – Paradossi e limiti di una riflessione incompiuta

Il disordine concettuale insito nell’approccio accelerazionista e nell’idea di transizione energetica così come formulata, non è casuale. Esso risiede nella incompiuta analisi del rapporto che vincola il modo di produzione capitalistico al modo di sfruttamento dell’energia e qualunque sia il progetto di futuro preso in considerazione (postcapitalismo, socialismo, società della decrescita o “altri mondi possibili”) esso è destinato a fallire se nel suo proporsi non terrà conto di questo legame.

In termini di sviluppo tecnologico la questione si può riassumere così: fra tutte le grandezze fisiche fondamentali, quella che il capitale ha sempre privilegiato è la potenza, proprio perché essa è lavoro erogato nell’unità di tempo; tanto maggiore è la potenza a disposizione, tanto più grande sarà la produzione. All’inizio questa potenza veniva esclusivamente dagli animali e dagli esseri umani (forza lavoro) i cui ritmi biologici hanno condizionato per secoli la realizzazione di qualsiasi opera o manufatto, mentre il ruolo delle fonti di energia conosciute restava ancora marginalizzato a certe funzioni (riscaldarsi, cuocere cibi, navigare, etc), ma quando poi le scoperte scientifiche e le applicazioni tecnologiche hanno permesso di servirsi di quelle prime fonti in forme socialmente organizzabili (con la macchina a vapore) e poi via via anche delle altre che si rendevano disponibili, il limite alla produzione non è stato più tanto influenzato dal fattore umano, quanto dalla potenza che si poteva ricavare dallo sfruttamento delle fonti di energia.

Il modo di sfruttamento dell’energia che si è affermato col capitalismo è esattamente questo: valorizzazione costante delle fonti di energia che meglio si prestano ad essere socialmente organizzabili (per qualunque impiego) e tecnicamente concentrabili secondo il modo di produzione capitalistico, a prescindere dal contenuto “energetico” che assume ogni singola merce-prodotto, cioè dalla quantità di energia impiegata nella sua fabbricazione. [22] Da questo punto di vista il capitalismo ha generato un sistema di relazioni sociali che fa il peggior uso dell’energia ed ignora i principi della termodinamica, perché non è tra gli scopi del capitale conservare l’energia, ma solo quello di massimizzare il profitto secondo una “equazione” che lega indissolubilmente il modo di sfruttamento dell’energia al modo di produzione.

Immaginare di risolvere questa equazione agendo solo su un termine senza intervenire sull’altro è un wishfull thinking come dimostra di essere l’obiettivo delle emissioni zero. In quest’ottica infatti, non solo rientra l’energia nucleare, ma gli stessi aborriti combustibili fossili grazie alle tecniche di geoingegnerizzazione come il CCS (Carbon Capture and storage) che rendono le emissioni al camino pari a zero, come altrettanto vi rientrano i progetti globali finalizzati a trasformare le zone desertiche del mondo in enormi campi di generazione elettrica. [23] A prescindere dalle difficoltà realizzative (che pure ci sono), questi ultimi progetti si presentano, a buon diritto, come parte integrante della grande transizione energetica: producono zero emissioni, sono eco sostenibili ed eco compatibili (al massimo rovinano un po’ l’immagine romantica del deserto!) e consentono di eliminare l’equivalente produzione di energia elettrica da fonti fossili migliorando il bilancio globale delle emissioni. Dunque perché no, dice una parte dell’ambientalismo, tralasciando di considerarne l’indubitabile impronta neocoloniale, ma soprattutto ignorandone il significato conservatore che la sottende.

Precisamente la conservazione di un modello di sviluppo ineguale secondo cui le conseguenze dell’alterazione dell’equilibrio ambientale sono indistintamente a carico di tutta l’umanità, ma i provvedimenti ipotizzati per porvi rimedio sono ad esclusivo beneficio dei paesi più ricchi e sviluppati, dato che quelli poveri e sottosviluppati non avranno i mezzi economici per realizzarli.

Il modello tutto elettrico, per le cose dette in precedenza, è roba da paesi ricchi mentre agli altri toccherà ancora vedersela con le vecchie e inquinanti tecnologie legate ai combustibili fossili aggiungendo al danno anche la beffa: il danno perché l’ estrattivismo (materie prime strategiche e progetti di geoingegnerizzazione come Desertec) funziona in modo unidirezionale, dal Sud al Nord del mondo, come li definì a suo tempo il rapporto Brandt [24]; la beffa perché tutto ciò viene giustificato dai cambiamenti climatici che tutti e tutte avremmo contribuito a causare con i nostri comportamenti.

2.1 Quale uomo?

Qui si innesta l’ultima parola chiave tra quelle elencate all’inizio: l’Antropocene. Sull’argomento hanno scritto sia Angelo Baracca [25] che Jason W. Moore [25] per cui aggiungo solo poche considerazioni a quanto da loro argomentato.

La prima considerazione è che i “segnali geologici” che dovrebbero accreditare la tesi dell’azione umana, generica e generalizzata, sullo stato del pianeta e, in primis, sui cambiamenti climatici sono contraddetti dagli indicatori principali di questo stato di crisi. Questi indicatori sono, tipicamente, quelli che esprimono i consumi di materie prime e/o prodotti suddivisi per macro aree geografiche del mondo, oppure per consumi individuali. Basta scorrerli, nella loro evoluzione temporale, per rendersi conto della enorme difformità di incidenza che questi consumi hanno (ed hanno avuto) sui cambiamenti climatici.

Nel 1980 Stati Uniti ed Unione Europea producevano da soli il 45% delle emissioni globali di CO2 mentre le emissioni pro capite erano, rispettivamente, di 20,2 t CO2 e di 9,8 t CO2 a fronte di un’ emissione pro capite di 0,9 t CO2 in Cina; di 0,2 t CO2 in India; di 0,5 t CO2 in Sud America e di 0,53 t CO2 in Africa.

Nel 2018 Cina ed India insieme hanno prodotto il 35% delle emissioni globali, ma quelle pro capite sono ancora largamente inferiori a quelle degli Stati Uniti e pari, rispettivamente, a 7 t CO2 e 2 t CO2 a fronte di 16.6 t CO2 degli USA e 6,7 t CO2 della Unione Europea, mentre quelle di Sud America e Africa sono state di 2,6 t CO2 e 1,1 T CO2, cioè da 7 a 15 volte inferiori a quelle degli USA.

Nel 1986 il consumo di CFC (clorofluorocarburi, gas molto inquinanti) negli USA era pari al 29% del consumo mondiale, un altro 41% proveniva dai paesi industrializzati, un 14% dal blocco sovietico mentre un altro 14% proveniva dall’insieme dei paesi in via di sviluppo e solo il 2% da Cina e India messe insieme.

Nel 1970 la densità automobilistica negli USA era di 2 persone per autovettura; nell’Europa occidentale era di 5,2; in Sud America 38; 147 nell’Urss; 191 in Africa; 902 in India e 27.707 in Cina: oggi in tutto il continente africano circolano 34 milioni di autoveicoli, mentre nella sola Italia ce ne sono 39 milioni.

Pur volendo prescindere dall’ulteriore differenziazione sociale che esiste all’interno di ciascun paese o area geografica presa in considerazione (i valori pro capite esprimono comunque un valore medio), di quale uomo stiamo parlando quando ci riferiamo alle conseguenze dannose dell’azione umana?

Di quello di cui Henry Ford comprava la vita per “five dollars a day”e di quello che ancora oggi vive nelle periferie del mondo senza acqua, elettricità e cuoce il cibo come centomila anni fa, oppure si tratta dell’”altro uomo”, il signore a cui Hegel attribuiva di appagarsi di un godimento fine a se stesso attraverso il lavoro del primo (il servo) e che Marx specificò, invece, essere costui non un mero parassita, ma il padrone del prodotto del lavoro dell’ altro (operaio). [26]

Sotto questo aspetto l’Antropocene appare come un “falso ideologico” nella misura in cui omette di considerare che nella modernità l’interezza dell’ Anthropos (ανθρωπος = persona) è scissa, estraniata dalla natura e dalla società e soprattutto è, col capitalismo, alienata dal proprio lavoro e sottomessa al dominio di un altro uomo.

Si può obiettare che dal punto di vista dei “segni” lasciati sulla Terra, ha poca rilevanza stabilire quale uomo ne sia stato responsabile, ma questo è pretendere, come scrive Moore, di rifarsi a una storia geologica astratta, avulsa dalla storia materiale che perciò appare come un rinnovato tentativo di ideologizzare la Natura, in quanto “cosa” a sé e per sé. [27]

Viceversa, se si tiene conto di quanto scriveva Engels [28]A ogni passo ci viene ricordato che noi non dominiamo la natura allo stesso modo di un conquistatore che ha asservito un popolo straniero, che noi non la dominiamo come estranei ad essa, ma che le apparteniamo attraverso la carne, il sangue e il cervello e noi viviamo nel suo seno” allora è verso l’ordinamento sociale costituito che va rivolta l’attenzione per ricercare una nuova sintesi del manomesso rapporto Natura/Società.

Basta, a questo scopo, puntare l’indice sul modo di produzione capitalistico in quanto legge peculiare della ri-produzione sociale? A mio parere non più, perché quello che in Marx può apparire come una trascurabile lacuna (e dati i tempi non poteva essere altrimenti) oggi costituisce un pesante deficit analitico della sinistra. Mi riferisco – e questa è la seconda considerazione – al tema dell’energia e alla trascuratezza con cui ancora oggi viene affrontato.

Dal punto di vista concettuale il marxismo non si è mai posto questo problema se non per assimilarlo al tema delle materie prime dove l’energia vi compare semplicemente come componente di costo della produzione, tralasciando di considerarne gli aspetti peculiari (disponibilità, versatilità, fruibilità) dato che il pensiero economico marxista, analogamente a quello dell’economia borghese, partiva dal presupposto della illimitatezza delle fonti di energia e di buona parte delle materie prime, almeno fino alla seconda metà del secolo scorso. E’ solo con la crisi del 1973 che si comincia a ragionare della questione energetica, ma prevalentemente in termini quantitativi (scarsità/abbondanza) nel mentre prendono corpo le problematiche ambientali legate all’uso dell’energia. Poco o nulla comunque si è prodotto come analisi sistemica della produzione di energia, della sua trasformazione e del suo impiego, che non sia stato esclusivamente rivolto agli aspetti tecnologici della questione, mentre quelli più propriamente “politici” non uscivano dall’ambito ristretto (e per certi versi scontato) delle politiche imperialiste e/o dello scontro allora in atto tra est ed ovest.

Lo stesso rapporto del Club di Roma , che rappresenta un tentativo ineguagliato (a parte alcune discutibili conclusioni) di approccio olistico ai problemi del mondo e dell’umanità, non contempla il tema dell’energia tra le grandi questioni del momento. [29]

Da allora in poi l’analisi di queste problematiche si è sempre più frammentata e “specializzata” secondo tre direttrici: la prima ha riguardato l’efficientamento energetico dei processi produttivi (risparmio di energia); la seconda si è incentrata sul concetto di “sostenibilità” fondamentalmente basato sull’uso di energie rinnovabili; la terza ha postulato un insieme di “mondi possibili” ( anche in contrapposizione al concetto di sostenibilità) variamente regolati dal II° principio della termodinamica (entropia) e imperniati sul concetto di decrescita.

Esaminando questi filoni alla luce di scenari-limite (come quelli presi in considerazione dal Club di Roma), si comprende che i primi due, pur mitigando gli effetti negativi dello sviluppo, risultano compatibili con il modo di produzione capitalistico e quindi non possono evitare la catastrofe, ovvero il collasso del sistema (esaurimento materie prime, alimenti, etc). Il terzo filone si presenta come oggettivamente catastrofista, in quanto la sua immagine di mondo dove la produzione sociale complessiva è incentrata su processi a bassa entropia, funzionalmente concepibili solo se la popolazione mondiale venisse ripartita in una miriade di piccole comunità dai bisogni sensibilmente ridotti (decrescita), potrebbe realizzarsi solo in due eventualità: o a seguito di una catastrofe planetaria che la impone come unica soluzione per la sopravvivenza; o nell’ipotesi di distruggere tutte le città del mondo dislocandone la popolazione (oltre il 61% di quella mondiale) sull’insieme delle “terre emerse” che scatenerebbe una guerra civile senza fine per la conquista delle posizioni migliori.

Sono questi, evidentemente, ragionamenti che rasentano il paradosso, dal momento che non è dato sapere (con una ragionevole approssimazione) quanto è grande e vicino il rischio di collasso del sistema-mondo; ma servono a capire che la “ricerca della felicità”- intendendo con ciò la soluzione al dualismo natura/società – non può basarsi su espedienti tecnologici o pseudo tali, ma solo dall’assumere questa contraddizione da un punto di vista politico, o se si preferisce bio-politico.

2.2 Per una analisi non “tecnica” delle questioni in gioco

Quale, a questo punto, una possibile sintesi di quanto fin qui esposto. In primo luogo il fatto che da un punto di vista sistemico l’energia ha una funzione condizionante del tutto diversa da quel ruolo ancillare della produzione che gli era stato assegnato. Ma nello stesso tempo, come si è visto, non può essere considerata di per sé la chiave di volta per disegnare un altro mondo: modo di produzione e modo di sfruttamento dell’energia, nel capitalismo, sono intimamente legati fra loro e agiscono come per autopoiesi, da un lato riproducendo se stessi come elementi di un sistema più vasto, dall’altro mirando a mantenere invariata l’organizzazione di questo sistema che ha il suo fondamento nella produzione e consumo illimitati di materie prime e merci.

La rottura di questo schema di funzionamento non ha perciò soluzioni precostituite “idealmente”, tanto più se esse poggiano su basi scientifiche o tecnologiche che il capitalismo è perfettamente in grado di anticipare, o di fare proprie perché, come detto poc’anzi, esso è disposto a tutto pur di mantenere invariata l’organizzazione generale del suo modo di funzionare.

La scienza, tra l’altro, è tutt’ora oggetto di un culto reverenziale difficile a rimuoversi e lo si vede sia nell’accettazione acritica del lavoro del IPCC, sia nella produzione scientifica proliferata recentemente in seguito alla pandemia di covid 19, [30] ne si può dire che il pensiero marxista sia stato esente dal celebrare positivamente (anche in passato) le “condizioni tecniche della situazione comunista” in quanto elementi liberatori della condizione umana. Se si esclude la semplicistica retorica riferita “all’uso capitalistico della scienza”, l’atteggiamento di sinistra verso di essa è tutt’ora pervaso di determinismo concettuale e solo negli ultimi tempi si registra qualche tentativo di sviluppare una critica di carattere epistemologico all’impostazione stessa della ricerca scientifica.

Dunque una riflessione sulla scienza (e le sue applicazioni tecnologiche) si impone se non altro perché è (anche) attraverso queste che la società viene plasmata e, in particolare, il mondo delle “cose” con cui ci relazioniamo. Di qui il passaggio immediato, e decisivo, alla sfera dei “bisogni”, ovvero al fatto che le “cose” (oggetti, beni di consumo) sono al tempo stesso l’espressione di un processo materiale (la produzione) e il compimento di un atto storicamente determinato che si realizza attraverso la soddisfazione dei propri bisogni. [31]

Della relazione tra sistema degli oggetti e sistema dei bisogni si occupò Maldonado [32] nell’ambito di una riflessione più vasta sulla possibilità di concepire una “progettazione dell’ambiente” assolutamente necessaria vista l’erosione a cui era sottoposta la natura, erosione che il marxismo non poteva non prendere in considerazione. Sistema degli oggetti e sistema dei bisogni, dice Maldonado, in quanto rappresentativi, il primo della trasformazione della natura e il secondo della evoluzione sociale, non possono esistere senza un sistema di controllo che li regoli perché se è vero che non vi sono bisogni senza oggetti, ogni intervento volto a cambiare uno dei due aspetti presuppone una capacità di controllo sistemica che si esercita su entrambi, come quella realizzata dal capitalismo.

Pertanto una “ricostruzione della natura”, conclude Maldonado, dovrebbe basarsi sulla ridefinizione del rapporto tra sistema degli oggetti e sistema dei bisogni sottraendoli al controllo del capitale.

Pur cogliendo l’importanza del nesso oggetti-bisogni e ancor più sottolineando il peso di questi ultimi nella prefigurazione di un rinnovato rapporto natura-società alieno da schematismi meccanicistici (le capacità risolutive della scienza e tecnologia) e da dogmi ideologici (il comunismo determinerà il tipo di bisogni), il ragionamento di Maldonado è ancora influenzato da un determinismo concettuale per certi versi analogo a quello degli accelerazionisti.

Egli infatti, nel voler ricostruire la natura progettando un altro sistema degli oggetti e dei bisogni non tiene conto di due aspetti: che nel sistema capitalistico tutti gli oggetti sono trasformati in merci secondo un processo intensivo che incide su ogni forma di oggettualità della vita ed inoltre che “la società basata sulla produzione delle merci ha per caratteristica il fatto che i produttori, al posto di gestire le proprie relazioni, sono da esse dominati”.

Il problema quindi, torna ad essere il modo di produzione capitalistico ( e per quanto detto finora anche il modo di sfruttamento dell’energia) che sono squisitamente processi materiali irti di contraddizioni, [33] non risolvibili progettando a priori un modello di società basato sulle macchine o su di una armoniosa, quanto ideale, relazione tra oggetti e bisogni, ma solo misurando di volta in volta il grado di profondità di queste contraddizioni per capire se, come e quando, sia possibile rivolgerle a nostro vantaggio, dato che non ci rassegniamo all’idea che esse rappresentino il prezzo (sociale e politico) da pagare al “progresso”. Con una ulteriore precisazione però: che così come non sono le “condizioni tecniche” [34] (come le definiva G.Klaus) della produzione materiale (transizione energetica, automazione) a determinare il superamento del capitalismo, altrettanto deve assumersi per le contraddizioni sociali che questa produzione materiale immette nei rapporti tra le persone e tra queste e la natura, nella misura in cui la “produzione di nuovi bisogni” non si estingue automaticamente con l’inversione dei rapporti sociali dominanti. Né ha senso, come si è visto poc’anzi, precostituire un limite allo sviluppo di questi bisogni essendo questo già determinato dal limite della produzione sociale, almeno fino a quando questa produzione sociale resta dentro i confini della produzione materiale, ovvero dentro il regno della necessità.

Soltanto il superamento della produzione materiale vera e propria, crea i presupposti per l’estinzione del bisogno in quanto necessità sociale, dando vita: ”allo sviluppo delle capacità umane, che è fine a se stesso, (cioè) al vero regno della libertà, che tuttavia può fiorire soltanto sulle basi di quel regno della necessità”. [35] Ma la creazione di questi presupposti non rappresenta ancora la soluzione di tutte le contraddizioni, perché queste continuano a manifestarsi a cominciare da quella, attualissima, tra natura e società in relazione al soddisfacimento dei bisogni umani.

Quali desideri, sotto l’organizzazione comunista, sono semplicemente mutati e quali annullati, è una cosa che può essere stabilita solo nella pratica, tramite la modificazione dei desideri reali, pratici”. [36] Questa iniziale intuizione di Marx reintroduce l’esigenza di sviluppare una critica dei bisogni ancora inespressa a partire da due considerazioni.

La prima è che non c’è soluzione di continuità allo sviluppo dei bisogni sociali nel passaggio da una società all’altra, da un modo di produzione all’altro, se non quando il regno della necessità (dove il lavoro è necessario) cede il posto al regno della libertà che tuttavia si fonda ancora, e necessariamente, su un sistema che ha tra gli scopi principali la soddisfazione di bisogni basato inevitabilmente sullo sfruttamento della natura. La seconda è che nel passaggio da una società capitalista a una società comunista, pur invertendosi i rapporti sociali di produzione a favore dei produttori, ciò non comporta automaticamente il passaggio da un sistema di bisogni (capitalista) a un altro (comunista), né tanto meno la scomparsa del bisogno tout-court, dal momento che gli stessi rapporti sociali si invertono, ma non si estinguono.

In definitiva ciò che mi preme evidenziare è che, se è il rapporto natura/società il quadro di riferimento generale entro cui si collocano le riflessioni su transizione energetica da un lato e quarta rivoluzione industriale dall’altro, queste non avranno soluzione se non all’interno di una corrispondente analisi del modo di produzione capitalistico e del modo di sfruttamento dell’energia che non siano, a loro volta, esaminati solo in rapporto alla dimensione sociale di cui sono espressione: vale a dire come prodotto di un lavoro dell’uomo che concepisce l’esistenza della natura solo attraverso la relazione con un suo simile.

Proprio perché ogni produzione costituisce di fatto una appropriazione della natura, secondo una determinata forma di società, il modo in cui questa produzione si manifesta diviene determinante per l’esistenza stessa della società, tanto più se assumiamo la finitezza delle risorse naturali.

Di qui il nesso tra produzione materiale e produzione dei bisogni nella misura in cui questi divengono fattore determinante e determinato di un rapporto natura/società in cui lo scambio organico tra i due termini non può che essere frutto di un rapporto dialettico tra forze produttive e finalità esistenziali, almeno se assumiamo con Marx che “la vita produttiva è la vita genetica.

Tema questo ampiamente trattato da Fallot che così lo sintetizzava in uno dei suoi ultimi libri: “Nella società senza classi l’unità fine-mezzo, lavoro in atto e prodotto del lavoro, sarà resa possibile dal fatto che la considerazione del “per chi”, dell’uomo come lavoratore prenderà il posto dominante. (…). La necessità di diminuire il carico del lavoro dovrà avere la precedenza su quella della moltiplicazione dei prodotti. Si avrà così il criterio della produzione e dei suoi eccessi, la regola che permette di scegliere tra il produrre e il non produrre. L’esigenza finale (e in qualche modo assoluta) del “per chi” è quella dell’ozio totale, vale a dire non l’assenza di lavoro, ma di lavoro parcellizzato perché solo quello non parcellizzato soddisfa questo bisogno essenziale di lavorare senza essere un’appendice dello strumento scientifico del lavoro e un meccanismo della produzione. In una società senza classi i bisogni non saranno più ricondotti alle condizioni biologiche dell’uomo. Non si dovrà considerare i bisogni come dati una volta per tutte, ma che ogni nuova produzione implica la loro trasformazione dialettica come una equazione mutevole e da risolvere come tale. Non si potrà rifiutare una invenzione secondo i criteri del materialismo-dialettico, per la sola ragione che essa non corrisponde agli antichi bisogni, naturali e necessari. L’antichità del bisogno non giustifica più della sua novità l’apparizione e la moltiplicazione di un certo tipo di oggetto o di effetto. Non si potrà dunque né ricusare in anticipo le invenzioni nuove né farle precedere ai bisogni delle masse, ma occorrerà considerare questi bisogni nella loro possibileevoluzione di fronte alle invenzioni che li plasmano e che cambiano l’uomo”. [37]

 

3 – L’approccio “americano”: rilancio del nucleare e guerra per la sopravvivenza

In tema di scenari globali non si può fare a meno di considerare cosa sta maturando nel grande crogiolo “americano”, non foss’altro per la capacità di reazione che gli Stati Uniti hanno sempre mostrato nel corso della loro storia di fronte a crisi epocali. La rozzezza con cui Trump ha affrontato il tema dei cambiamenti climatici (ma anche l’attuale pandemia) non deve indurci a ritenere che l’insieme dei centri del potere economico, industriale e militare abbiano liquidato la questione come un nonsense. Al contrario, proprio perché la sicurezza nazionale è un principio irrinunciabile che permea l’intera società, se c’è un paese dove queste problematiche sono prese seriamente in considerazione dal potere, questo è costituito dagli Stati Uniti d’America, [38] ma con un approccio diversoda tutti gli altri paesi. Due gli aspetti fondamentali che lo caratterizzano: da un lato l’ostilità verso qualsiasi ipotesi di accordo sovranazionale che abbia per oggetto le sorti del pianeta e dell’umanità (basta tenere presente l’atteggiamento USA nei confronti dell’ONU e dei vari protocolli sul clima); dall’altro la convinzione che la quarta rivoluzione industriale è una necessità, a prescindere dal fatto che questa sia accompagnata o meno da una transizione energetica a sua volta dettata dagli effetti dei cambiamenti climatici. Quindi, per quanto riguarda i cambiamenti climatici, inutile arrovellarsi più di tanto a stabilire se e quando questi volgeranno in catastrofe: tanto vale assumere che questa evenienza è possibile e prepararsi ad affrontarne le conseguenze, nel mentre che ci si mobilita per ristabilire il primato degli USA in campo scientifico e tecnologico in vista della quarta rivoluzione industriale.

A questo scopo nell’aprile 2020 (in pieno sviluppo della pandemia) è stato pubblicato negli Stati Uniti un documento governativo dal titolo Restoring America’s Competitive Nuclear Energy Advantage- A strategy to assure US national security [39] che costituisce il punto di arrivo di un percorso iniziato all’indomani dell’incidente di Fukushima ed illustra le linee di intervento dell’amministrazione americana in tema di energia nucleare, con implicazioni, come si vedrà, che vanno ben oltre l’ambito specifico di questa tecnologia.

A fare da sfondo a questo documento c’è il crescente conflitto di interessi generali tra Stati Uniti, Cina e Russia che recentemente ha raggiunto i toni e i modi della cosiddetta guerra fredda ma, al di là di questo, è indubbio che tra le cause specifiche di questo contrasto vada inclusa l’evidente perdita di egemonia USA in vasti settori della scienza e della tecnologia tra cui quello nucleare, apparentemente scomparso dal panorama delle grandi questioni del nostro tempo.

Certamente la terribile sequenza di incidenti gravi (Three Mile Island, Chernobyl e Fukushima) ha ridimensionato le aspettative riposte in questa tecnologia al punto da indurre alcuni stati europei a programmare una fuoriuscita dal nucleare (con conseguente “rilassamento” dell’attenzione da parte dei movimenti antinucleari e ambientalisti), ma sarebbe un errore credere che la questione sia definitivamente accantonata, perché così non è.

Quello a cui abbiamo assistito negli ultimi dieci anni è solo un declino della tecnologia nucleare occidentale (in particolare quella USA), a cui però ha corrisposto una accresciuta e consolidata iniziativa della tecnologia russa, coreana e ora anche cinese (come sempre imparano in fretta!) che hanno sopravanzato nettamente le concorrenti francese e statunitense, imponendosi sia da un punto di vista delle scelte tecnologiche (per l’IAEA i migliori reattori oggi in commercio sono quelli della filiera VVER russa) che della commercializzazione: secondo UxC, una società di ricerche e analisi di mercato dell’industria nucleare, dei 107 nuovi reattori nucleari che saranno completati in tutto il mondo entro il 2030, 43 saranno forniti da distributori cinesi, 29 dalla Russia, 10 dall’India, 9 dalla Corea del Sud, e 4 dalla Francia. Tutto ciò mentre nel 2017 la statunitense Westinghouse, società capostipite dei reattori pressurizzati PWR, dichiarava fallimento.

Potevano gli Stati Uniti, la nazione che aveva lanciato nel 1953 il programma “Atoms for peace” avviando di fatto la commercializzazione dell’energia nucleare nel mondo, subire passivamente questo smacco? Evidentemente no, e la risposta è ora pronta, concepita e sostenuta dai più importanti centri di ricerca di tutto l’occidente e da uno schieramento politico omogeneo (repubblicani e democratici) come raramente si era registrato nella storia degli USA.

 3.1 – America first, iniziando dal nucleare civile

A partire dal 2017 una serie di atti del presidente degli Stati Uniti e del congresso, hanno delineato le tappe della nuova strategia nucleare degli USA in campo civile ma, come si vedrà, con rilevanti agganci al settore militare. Nel documento citato (Restoring America’s Competitive Nuclear Energy Advantage- A strategy to assure US national security ) si evidenziano tre steps fondamentali intimamente correlati tra loro, ma non necessariamente consequenziali:

Primo step“Ripristinare la sovranità degli USA nell’uso dell’elemento naturale più potente del pianeta – l’uranio – per usi pacifici e scopi di difesa.” Questo è -alla lettera- l’impegno a breve termine dell’amministrazione USA e pur di realizzarlo non si è andati per il sottile:

a) – il 20 dicembre 2017 il presidente Trump ha firmato l’ordine esecutivo 13817 [40] con cui si stabilisce che alcuni elementi naturali sono considerati “minerali critici” e pertanto debbono soggiacere a una legislazione speciale relativamente ai processi di esplorazione, estrazione, raffinazione, trattamento e riprocessamento.

b) – per ritenersi “critico” un minerale non deve essere combustibile e deve risultare essenziale per l’economia e la sicurezza nazionale degli USA.

c) – la lista dei minerali critici sarà redatta dal ministro dell’interno in collaborazione col ministero della difesa (DoD, Department of Defence), sentito il parere delle maggiori agenzie nazionali interessate (EPA, NRC, USGS, BLM). [41]

d) – con successivo e definitivo atto del ministro dell’Interno del 5 maggio 2018 [42] è stata pubblicata la lista dei minerali critici (circa 35) in cui vi compaiono uranio, terre rare, oltre a una lunga serie di minerali strategici come elio, litio, zirconio, berillio, tellurio, manganese, cobalto etc.

e) – nonostante da più parti sia stato fatto rilevare che l’Uranio era sempre stato considerato un combustibile (pertanto non classificabile come minerale critico) la risposta ufficiale del ministero dell’Interno è stata che “l’uranio ha importanti usi diversi da quelli di combustibile e comunque soddisfa i criteri di inclusione nella lista”.

Le ragioni di questa “imperiosa” decisione risiedono nelle precarie condizioni in cui versa il settore nucleare USA e in particolare le attività legate al ciclo del combustibile nucleare.

Secondo il DoE la situazione è talmente grave da pregiudicare nel medio periodo i rifornimenti di uranio per i circa 100 reattori attualmente funzionanti, senza contare che con i nuovi impianti questa esigenza aumenterebbe e dunque bisogna mettere in atto una politica che tenda ad aumentare le scorte strategiche di uranio, sulla falsariga di quanto gli USA fanno da tempo con il petrolio. In questa logica rientrano anche le esigenze del ministero della difesa che attualmente dispone di scorte di uranio per usi non obbligati (cioè riservate ad usi militari) sufficienti ad assicurare la produzione di Trizio [43] fino al 2041 e la propulsione dei mezzi navali della marina fino al 2050. Inoltre sono sempre più pressanti le richieste del ministero della difesa di dotare tutte le istallazioni militari (attualmente alimentate dalla rete elettrica nazionale) di fonti di energia indipendenti di origine nucleare, costituite da micro reattori sviluppati congiuntamente alle forze armate. Si tratterebbe di centinaia di unità da dispiegare nell’intero territorio nazionale, ma non si può escludere il loro impiego anche all’estero presso alcune delle più importanti basi militari che gli USA mantengono nel mondo.

Tuttavia l’aver classificato l’uranio “minerale critico”, per quanto importante, non è sufficiente a rimettere in moto quella parte del ciclo del combustibile prettamente legata alla estrazione, raffinazione e trattamento del minerale uranifero, se non si ridisegna l’insieme della normativa vigente che sovrintende a questi processi. Di qui l’annunciata revisione ( in pratica una vera e propria deregulation) delle normative ambientali (coinvolgendo l’EPA), di quelle sull’uso dei terreni (di cui è responsabile il BLM) e di quelle della sicurezza nucleare per la parte di competenza della NRC. L’obiettivo è quello di alleggerire i costi di gestione e quindi incentivare gli investimenti privati nell’attività estrattiva rimettendo in funzione vecchie miniere ormai chiuse dato l’impoverimento progressivo dei giacimenti. A tale scopo si dà il definitivo via libera alla tecnica molto inquinante del in situ leaching [44] attualmente in funzione in alcune miniere degli Stati Uniti ma anche di Russia, Kazakistan e Australia.

A completare l’opera di rilancio del ciclo del combustibile c’è la ristrutturazione dei vecchi impianti di arricchimento costruiti negli anni ‘40-’50 dal governo federale, l’ultimo dei quali ha cessato le attività nel 2013 quando la USEC, (società partecipata dallo Stato) d’accordo con il DoE, prese atto che l’impianto era vecchio e, soprattutto, che la tecnologia impiegata per l’arricchimento – quella della diffusione gassosa – era decisamente obsoleta e costosa e quindi era giunto il momento di costruire un nuovo impianto basato sulla “temuta” tecnologia delle centrifughe [45] di cui si è tanto parlato (e minacciato) nei riguardi del Pakistan e ancora di più dell’Iran.

La nuova società sorta dalle ceneri del USEC (la Centrus Energy) ha realizzato un mega impianto per la centrifugazione dell’uranio che, manco a dirlo, si vanta di essere un progetto innovativo denominato American Centrifuge Plant, AC-100.

Secondo StepRiconquistare il primato USA nella progettazione dei reattori ad acqua leggera secondo tre direttrici di intervento:

a) – Elaborare un nuovo progetto del combustibile nucleare che sia in grado di offrire una maggiore resistenza alle sollecitazioni fisiche, meccaniche e chimiche anche in caso di grave incidente come il LOCA (Loss of coolant accident, cioè perdita del refrigerante) e nello stesso tempo che sia in grado di fornire maggiore energia specifica (burnup) [46] rispetto agli attuali combustibili in commercio.

Questa sintetica descrizione può apparire senza particolare significato per i non addetti ai lavori; ma invece –se effettivamente realizzata – costituirebbe un considerevole passo avanti rispetto alle scarse prestazioni degli attuali combustibili e di conseguenza nel rendimento dei reattori nucleari. [47]

Il nome dato al “nuovo” combustibile nucleare, che secondo le stime dei progettisti dovrebbe entrare in servizio nel 2025, è “Accident Tolerant Fuel” (ATF) cioè “combustibile resistente agli incidenti” il cui programma di elaborazione e messa a punto coinvolge i massimi centri del sapere scientifico e tecnologico in materia nucleare. [48]

Da quanto è dato capire dalla letteratura scientifica fin qui prodotta, l’integrità del combustibile verrebbe in qualche modo “garantita” per 100 ore dall’inizio dell’incidente grave, il che significa un periodo di tempo pari a 5 giorni corrispondente al tempo necessario al calore di decadimento di ridursi a meno del 1% , cioè ad un livello gestibile con normali sistemi di raffreddamento.

Si tratterebbe di una svolta decisiva nella progettazione e nel funzionamento dei reattori con positive ripercussioni sulla sicurezza ultima, ma anche sui costi di costruzione dato che i complessi e costosi sistemi di contenimento delle radiazioni verrebbero ridimensionati, ma con una contropartita di non poco conto costituita da un maggiore impatto e rischio radiologico sull’ambiente dovuto all’aumento dell’arricchimento del combustibile.

b) – Sviluppo di reattori di piccola taglia, modulari ed estremamente semplificati. Si tratta di una vera e propria inversione di tendenza nella tradizione nucleare in quanto le potenze proposte dal programma degli USA vanno da un minimo di qualche decina di Mwe (cosiddetti microreattori) ad un massimo di 300 Mwe che corrispondo a un quinto della potenza di un EPR francese e un quarto di un VVER russo. Il modello di punta di questi reattori è il BWRX 300 della General Electric che ha queste caratteristiche:

– vessel (e quindi nocciolo) sotto il piano campagna

– sistemi di raffreddamento di emergenza a caduta (collocati sopra il vessel)

– circolazione naturale dell’acqua dentro il reattore (quindi assenza di pompe)

– in caso di incidente il raffreddamento è assicurato dalla condensa del vapore (LOCA free)

– volumi di contenimento ridotti del 90%

– costi di costruzione ridotti del 50%

– tempi di costruzione dimezzati

– costo del Kwh paragonabile a quello delle centrali a gas

– progetto certificato dalla NRC

Al di là della propaganda che sempre accompagna questi “lanci” di prodotto, la scelta USA è in controtendenza per due aspetti decisivi:

– spiazza la concorrenza euro – asiatica la cui produzione è concentrata sulle grandi taglie

– ridisegna il contesto economico industriale di tutti i comparti tecnologici che concorrono alla

realizzazione di un impianto nucleare.

Questo ultimo aspetto, in tempi di crisi dell’industria, è particolarmente rilevante perché rifiutando la logica della massima concentrazione di potenza, aggira i problemi del gigantismo delle opere civili e delle apparecchiature industriali che si sono rivelati un handicap nella realizzazione delle centrali nucleari: un vessel per un impianto da oltre 1000 Mwe richiede tempi di fabbricazione di 4 anni, mentre una turbina o un generatore di vapore ne richiedono circa tre e sono poche le fabbriche al mondo in grado di fabbricare questi grandi componenti, senza contare la maggiore difficoltà nei controlli.

c) – Per quanto riguarda i cosiddetti microreattori (sotto i 100 Mwe) si tratta di una scelta politico militare più che una novità tecnologica. Essi infatti sono prodotti derivati dai reattori impiegati dalla US Navy, cioè reattori PWR ad altissimo arricchimento (fino al 90%), di dimensioni compatte, a volte raffreddati da metalli liquidi (sodio-piombo-bismuto), che non hanno bisogno di ricarica per un minimo di 10 anni a un massimo di 30 e con potenze variabili da 30 Mwe ad oltre 160 Mwe (sottomarini e portaerei).

Si tratta di vere e proprie “bombe atomiche” che unite a quelle delle altre unità navali delle nazioni nuclearizzate (Russia, Cina, Francia e Inghilterra) assommato a parecchie centinaia di ordigni nucleari che girano per il mondo, ma non sono conteggiati come tali dai trattati internazionali.

Anzi, l’iniziativa del ministero della difesa USA volta a impiegare anche sulla terraferma l’uso di questi reattori va nella direzione di sminuirne la pericolosità agli occhi dell’opinione pubblica rendendoli disponibili anche per un uso civile. Tuttavia le motivazioni a ciò addotte dal ministero della difesa, e cioè disporre di una fonte di energia indipendente per il funzionamento di tutte le sue basi collocate in territorio nazionale (ma anche all’estero), sono poco credibili in quanto non è l’affidabilità della rete elettrica di trasmissione USA -quantunque sia complicata e frammentata – a preoccupare il DoD, quanto il suo software di gestione, che già una decina di anni fa si è rivelato suscettibile di attacchi informatici. Questo aspetto, come vedremo, rimanda al tema degli scenari catastrofici che l’amministrazione USA sta studiando da tempo. Inoltre bisogna mettere in conto che l’evoluzione dei sistemi d’arma è fortemente condizionata dall’informatica e dalla quantità di energia che si ha a disposizione per farli funzionare, per cui se oggi i reattori navali arrivano a fornire potenze dell’ordine di 100.000 Cv per alimentare tutti servizi di bordo (offensivi e non) e per far muovere velocemente le navi, domani (un domani che è già il presente) dovranno essere in grado di fornire ulteriore potenza per il funzionamento di sistemi d’arma ancor più sofisticati come le armi laser.

d) – Applicazione dell’Intelligenza artificiale (AI) ai reattori nucleari. E’ il progetto più ardito che il DoE sta sviluppando insieme ai maggiori enti di ricerca e società nucleari; quello più avanzato fa capo al MIT di Boston e a GE research e ha per scopo la semplificazione (automazione) delle attività di Esercizio e Manutenzione del reattore BWRX – 300 con un abbattimento dei relativi costi -qualora realizzato – impressionante.

La tecnica su cui si basa questo progetto è quella dei Digital Twins (gemelli digitali) ovvero realizzare una replica virtuale di risorse fisiche, potenziali ed effettive equivalenti a oggetti, processi, sistemi e dispositivi. Nel caso specifico si tratta di riprodurre digitalmente tutti o quasi i sistemi e i componenti del BWRX – 300 e simularne il funzionamento in tutte le condizioni di esercizio possibili. Per la manutenzione invece si tratta di predire il malfunzionamento di un componente o di un sistema al fine di ottimizzare le effettive operazioni di intervento: secondo il responsabile del team di ricerca del Oak Ridge National Laboratory “La riduzione delle operazioni e dei costi di manutenzione sono essenziali per aumentare la competitività economica dell’energia nucleare e la tecnologia del gemello digitale fornisce alle centrali nucleari un mezzo per ridurre i costi di O&M consentendo decisioni informate sul rischio in merito alle operazioni dell’impianto, alla riconfigurazione del sistema e alla pianificazione della manutenzione predittiva che ottimizzano i costi senza compromettere la sicurezza.”

Si tenga conto che proprio la GE ha esteso da alcuni anni l’utilizzo dei digital twins ai sistemi eolici risolvendo così anche tutta la fase di manutenzione e controllo post vendita. Quando una turbina eolica viene venduta, viene associata ad un gemello digitale che fornisce tutta una serie di dati sulle condizioni di funzionamento dei suoi componenti.

 Terzo StepGarantire il primato degli Stati Uniti nella diffusione internazionale dei reattori di prossima generazione.” Ancora una volta l’ossessione del primato spinge l’amministrazione USA a forzare le condizioni del mercato mondiale dell’energia nucleare. Anche in questo caso si possono distinguere due linee di intervento: la prima segue il dettato dell’Atomic Energy Act del 1954 che, opportunamente emendato, fornisce ancora il quadro per una cooperazione nucleare tra gli Stati Uniti e le nazioni straniere nel mentre mantiene fermi i propri requisiti statutari, ovvero la sua avversione a qualsiasi processo e/o tecnologia che possa favorire la proliferazione di armi nucleari.

La seconda linea di intervento fa perno sull’esperienza e il prestigio della NRC che a partire dalla sua creazione [49] ha rappresentato un punto di riferimento fondamentale nel panorama internazionale, tale da condizionare l’evoluzione stessa del concetto di sicurezza nucleare e della normativa ad esso collegata. Tuttavia, accanto alla severità e al rigore iniziali che segnarono la sua creazione, si è andata sempre più affermando una funzione di governance che più di avere a cuore la sicurezza nucleare, bada alla tutela degli interessi nazionali. Come detto in apertura, il declino della tecnologia nucleare statunitense, in attesa che questa nuova posture review si faccia strada, non poteva essere lasciato senza protezioni di fronte all’aggressività dei competitors internazionali e l’unico modo per farlo (in un mondo globalizzato e formalmente aperto a qualsiasi intrapresa) è quello di usare le norme di sicurezza vigenti nel proprio paese come barriera. Basta pensare alla immatricolazione degli autoveicoli con cui, reciprocamente, Stati Uniti ed Europa si boicottano adducendo questioni di non conformità alle rispettive norme di sicurezza.

Ma questo ruolo di interdizione non basta, evidentemente, se si vuole riconquistare il primato mondiale nel settore nucleare, ed ecco quindi delinearsi la prospettiva di una procedura internazionale di licencing, [50] improntata agli standard della NRC e quindi ai reattori USA, che superi ostacoli e incertezze di carattere procedurale, ambientale e soprattutto di sicurezza nucleare che i singoli stati potrebbero frapporre alla costruzione di centrali nucleari: qualcosa di analogo a quanto accaduto in sede WTO per la liberalizzazione dei mercati.

 

4 – Congetture non autorizzate sull’impiego del nucleare in ogni possibile scenario

Come ho cercato di illustrare, la carta che sta giocando l’amministrazione degli Stati Uniti in tema di energia nucleare, è grossa e il fatto che sia passata sotto silenzio per la sfortunata coincidenza di essere stata pubblicizzata in piena pandemia, non toglie nulla alla sua importanza. Degli aspetti prettamente tecnici, presuntamente innovativi, ho cercato di dire quello che si poteva, tenuto conto della imponente mole di ricerca effettuata negli ultimi 6-7 anni – specialmente sul combustibile nucleare – di cui si conosce ancora poco. Ma non sono questi gli aspetti che a me preme evidenziare (per questi ci sarà tempo e modo), quanto le implicazioni di altra natura che hanno a che fare con questa proposta.

4.1 – Il nucleare civile come metafora dell’industria 4.0 Ciò che è applicabile al nucleare, è applicabile a tutto

Si è visto come lo sforzo dell’industria nucleare USA e dei centri di ricerca sia volto a realizzare un nuovo tipo di combustibile resistente agli incidenti (ATF). Il motivo per cui si stanno impiegando enormi risorse per raggiungere questo obiettivo è presto detto: tra tutte le tecnologie che trovano attualmente un’applicazione industriale, quella nucleare è una tecnologia multidisciplinare per eccellenza dove la summa delle conoscenze settoriali (chimica, meccanica, elettrotecnica, termodinamica, elettronica e nucleare) hanno raggiunto un forte grado di interazione unitamente ad elevatissimi standard di costruzione e fabbricazione dettati da esclusivi piani di quality assurance e quality control. Ciononostante, dopo 70 anni dal suo avvio, non è riuscita a raggiungere l’affidabilità [51] necessaria per essere accettata universalmente (basti pensare alla questione dei rifiuti) e il motivo di fondo risiede nel fatto che il suo principale componente – il combustibile nucleare- in certe condizioni si “rompe”, rilasciando all’esterno il suo pericoloso contenuto. Dunque le più complesse tecnologie e i sofisticati sistemi di sicurezza che concorrono nella realizzazione di un impianto nucleare, non sono riuscite finora ad evitare che ciò avvenga, come ha dimostrato ancora una volta l’incidente di Fukushima. Di qui l’imperativo a risolvere una volta per tutte l’handicap congenito di questa tecnologia -il combustibile nucleare è il cuore della centrale, ma è anche il cuore del problema- realizzando un combustibile ATF che non si “rompe” perfino durante un incidente grave.

Come detto sarebbe un passaggio decisivo, non solo da un punto di vista tecnico-scientifico, ma anche da quello della “accoglienza” di questa tecnologia presso l’opinione pubblica, per proiettarla verso un ulteriore meta dalle conseguenze imprevedibili: quella dell’applicazione dell’Intelligenza artificiale alla gestione degli impianti nucleari.

Il salto epocale vero sta quindi in questa opzione di cui l’ATF è la condizione sine qua non. Come immaginare infatti di poter procedere all’automatizzazione completa di un sistema così complesso e pericoloso, se non si è dimostrato di aver risolto una volta per tutte il problema della rottura del combustibile nucleare che è alla base di tutti i guai?

La riproduzione virtuale e dettagliata di un reattore nucleare attraverso la tecnica del gemello digitale impiegata a fini operativi è quanto di più “spinto” si possa concepire per rappresentare le potenzialità dell’industria 4.0 e con essa le magnifiche sorti dell’annunciata quarta rivoluzione industriale, ma introduce anche un elemento di assoluto contrasto nella interazione uomo-macchina per quanto riguarda la gestione sicura dei sistemi, tanto più se complessi.

Con l’introduzione dell’Intelligenza Artificiale infatti, a chi (o cosa) sarà affidato il processo decisionale per intervenire sul reattore in caso di emergenza, decisione che attualmente spetta esclusivamente agli operatori ? E in relazione a quali condizioni di funzionamento ciò avverrà? Quelle realmente presenti nel reattore, o quelle simulate dal gemello digitale?

Al di là degli interrogativi etico-filosofici posti dal modo in cui sta evolvendo l’interazione uomo-macchina, qui la questione si pone in termini di convenienza economica (riduzione del costo della forza lavoro) secondo una logica utilitaristica che nulla ha a che fare con l’affidabilità e la sicurezza. E non è solo il settore nucleare ad essere interessato da questa spinta verso l’automatizzazione totale delle attività, come dimostra il caso del sistema automatico (governato da un algoritmo) del Boeing 737 max che interessa il settore areonautico, ma ancor di più quello automobilistico con i veicoli a guida autonoma. Lo testimonia l’accoglienza che stanno ricevendo gli unmanned vehicles (veicoli senza conducente) di cui un alto funzionario del OMS (organizzazione mondiale della sanità) ha detto: “se i veicoli senza guidatore producessero meno incidenti sulla strada di quelli a guida umana, ciò sarebbe un fattore decisivo per stabilire che il traffico stradale venga riservato ai soli veicoli autonomi, tenuto conto che nel mondo ci sono circa 1.300.000 morti/anno causati da incidenti stradali”. [52]

Non c’è ancora nulla di scontato, è vero, perchè incidenti di percorso ci sono stati sia per la Boeing che per Tesla, ma proprio per questo l’idea di affidare la gestione di un reattore ad una intelligenza artificiale è dirompente, perché se andrà bene per il nucleare vuol dire che si può applicare a tutto.

4.2 – Il nucleare civile come componente essenziale della transizione energetica e della sicurezza nazionale degli Stati Uniti

Dato per assodato l’avvento dell’industria 4.0 (in che misura si vedrà) a cui non è improbabile che si accompagni (sia pure parzialmente) l’auspicato abbandono dei combustibili fossili, l’amministrazione USA (unitamente a diversi settori industriali) ha ritenuto bene rilanciare il nucleare civile, stante l’ambiguità della scienza (l’IPCC ritiene l’energia nucleare carbon free) e l’ingenuità dei movimenti ambientalisti, laddove si limitano a rivendicare sic et simpliciter le emissioni zero. Non a caso negli ultimi anni si è assistito ad una sorta di effetto rimbalzo per quanto riguarda l’atteggiamento dell’opinione pubblica nei confronti del nucleare e dei combustibili fossili: più cresceva (a ragione) la preoccupazione per gli effetti dei cambiamenti climatici più si è fatta evidente l’insofferenza verso tutto ciò che brucia e fa fumo, provocando -di rimbalzo – una maggiore attenzione alla proposta nucleare, cosa prontamente sfruttata dalla WNA (World Nuclear Association) che propone di costruire 1000 reattori nucleari nei prossimi 30 anni facendo leva su questi aspetti:

– l’energia nucleare si assume tutti i costi del ciclo produttivo (decommissioning e trattamento rifiuti) mentre ciò non è richiesto ad altre fonti che usano l’atmosfera come discarica, ma nemmeno alle rinnovabili cui non è imposto di smaltire gli impianti a fine vita:

– l’energia nucleare previene molte migliaia di morti causate ogni anno dall’inquinamento dell’aria da fonti fossili che per di più godono di sovvenzioni che l’energia nucleare non ha;

– l’energia nucleare è svantaggiata rispetto ad altre fonti a causa delle diverse normative nazionali che la regolano. Ci vuole quindi una licenza standard valida internazionalmente.

Tanto è forte la “confusione” ingenerata dall’obiettivo delle emissioni zero, che pochi giorni prima dell’ultima conferenza sul clima svoltasi a Madrid, il Parlamento Europeo ha approvato due risoluzioni: una contenete la dichiarazione di stato di emergenza climatica e ambientale (come richiesto dai movimenti) e l’altra in cui si “ritiene che l’energia nucleare possa contribuire al conseguimento degli obiettivi in materia di clima in quanto non produce gas a effetto serra e che possa altresì assicurare una quota consistente della produzione di energia elettrica in Europa.”

Stando così le cose quindi, il nucleare civile ha tutte le carte in regola per costituire una componente essenziale della transizione energetica.

Per quanto riguarda la sicurezza nazionale, occorre tener conto che ormai da molti anni gli USA hanno rivolto la loro attenzione allo studio di scenari estremi che potrebbero verificarsi sulla Terra. Alcuni di questi studi, i più fantasiosi (ma non per questo impossibili), hanno fatto da trama ad altrettanti film del genere “disaster movie” come le invasioni aliene, il meteorite in rotta di collisione con la Terra, le perturbazioni del campo magnetico terrestre e, non ultime, diverse pellicole dedicate a cataclismi dovuti ai cambiamenti del clima. Quest’ultima tipologia è in realtà assai più “seria” delle altre, non solo perché è riferita a fenomeni effettivamente in corso, ma anche perché “ispirata” da studi strategici del Pentagono. [53]

Uno di questi studi, opportunamente adattato per il grande pubblico, fu divulgato nel 2003 [54] a firma di due ricercatori indipendenti ricevendo – all’epoca- scarsa attenzione, al punto che gli ambienti di sinistra lo reputarono niente più che una “gringada”, cioè una smargiassata tipica degli statunitensi (gringos, come vengono apostrofati in Messico ma anche in Sud America).

A me, invece, sembrò una cosa da prendere in seria considerazione e nel 2004 ne feci una presentazione ragionata dal titolo “L’ultimo rapporto sul futuro” [55]  che poi ho aggiornato nel 2019 nel pieno delle mobilitazioni per il clima.

Perchè questo interesse? Innanzitutto perché lo studio del 2003, prendendo spunto dal lavoro dei diversi scienziati che si occupavano dei cambiamenti climatici, anticipava con una certa verosimiglianza, fenomeni che poi si sono verificati e sono tutt’ora in corso, ma soprattutto per il “messaggio” che vi era contenuto: nell’ipotesi che i peggiori scenari ipotizzati dagli scienziati si avverino, il mondo sarebbe investito da una serie di sconvolgimenti naturali e sociali tali da non consentire altre forme di sopravvivenza sulla Terra, se non quelle determinate dalla guerra.

Nessuna indulgenza a considerazioni etiche; nessuna concessione a eventuali rimedi che peraltro potrebbero giungere tardivamente, ma solo lo spietato pragmatismo di chi ritiene assai improbabile (per non dire impossibile) che nell’attuale consesso mondiale si dia la possibilità di un percorso di rinuncia al proprio status per “salvare il mondo : non lo farebbero gli USA e nessun altro paese sviluppato, ma nemmeno gli altri che sperano sempre di diventare come loro. Quindi, come detto in precedenza, tanto vale prepararsi al peggio e mettere in atto quelle strategie necessarie a tutelare la sicurezza nazionale degli Stati Uniti che fa leva in buona misura sull’efficienza del complesso militare. Sotto questa luce la compresenza delle forze armate USA nei nuovi piani di sviluppo del nucleare civile ha questo scopo: dotarsi di una fonte di energia indipendente (i micro reattori nucleari), compatta, di lunga autonomia e facilmente trasportabile per assicurare l’operatività delle forze armate anche in scenari catastrofici non necessariamente legati alla guerra.

Mi rendo conto che questa analisi delle tendenze in atto negli USA può apparire forzata, quasi complottarda, ma solo se applichiamo alla situazione mondiale attuale gli stessi schemi interpretativi di 20 o 30 anni fa. E non solo perché si è passati da un mondo sostanzialmente bipolare a uno multipolare, ma soprattutto perché ce lo suggerisce la mutata percezione dei rischi associabili alle condizioni critiche del pianeta. Da parecchi anni i movimenti di sinistra hanno fatto proprie – con diverse intensità e sfumature – le istanze ambientaliste, peraltro sempre più orientate a descrivere i problemi dell’ambiente come una minaccia globale e crescente, tale per cui ci troviamo oggi in una situazione limite di sostenibilità del carico complessivo che si riversa sulla Terra, e l’errore che non dovremmo commettere è quello di ritenere che questo limite sia vagliato e agito politicamente solo da “noi”. Se è vero infatti che i paesi più potenti si mostrano formalmente reticenti o addirittura contrari a mettere in atto i cambiamenti necessari (vedi i vari accordi/protocolli internazionali sul clima), non significa che tra loro non ci sia chi si sta preparando ad affrontare questa situazione limite, non per porvi rimedio, ma con ostilità; ovvero con l’ottica di dover fronteggiare una minaccia “esterna” (vedi risoluzione del congresso USA riportata in nota 38), che si preferisce ritenere ineluttabile pur di non rinunciare al proprio status di nazione dominante, atteggiamento che il succitato rapporto del Pentagono esplicita in due lapidarie affermazioni: “Le risorse del pianeta non sono più in grado di sostenere le necessità dell’attuale popolazione” e quindi “ Ancora una volta solo la guerra potrà definire la forma della vita sulla Terra”.

 

Note

[1] (vedi) – Jerry Harris è uno studioso del capitalismo globale. Tra le sue opere: Dialettica della globalizzazione: lotta economica e politica nell’era trasnazionale

[2] “Il 6 agosto 1945, giorno di Hiroshima, è cominciata una nuova era: l’era in cui possiamo trasformare in qualunque momento ogni luogo, anzi la Terra intera, in un’altra Hiroshima. Da quel giorno siamo onnipotenti in modo negativo; ma potendo essere distrutti a ogni momento, ciò significa anche che da quel giorno siamo totalmente impotenti. Indipendentemente dalla sua lunghezza e dalla sua durata, quest’epoca è l’ultima, poiché la sua differenza specifica, la possibilità dell’autodistruzione del genere umano, non può aver fine che con la fine stessa.” ( Günther Anders, Essere o non essere – diario di Hiroshima e Nagasaki, Einaudi 1961).

[5] Oltre ad essere riferito all’attività estrattiva vera e propria (molto sentita in America Latina ) l’estrattivismo viene descritto anche così : “L’estrattivismo è una forma di accumulazione fatta dal capitale finanziario, che domina attualmente nel pianeta, attraverso l’appropriazione della natura e dei beni comuni. Ma c’è anche un estrattivismo urbano, che si manifesta ad esempio tramite la gentrificazione e che sta avvenendo in tutto il mondo, o attraverso la privatizzazione del welfare, dei servizi, della formazione, dei trasporti, ossia di quella infrastrutturazione dell’essere sociale e della sua riproduzione.” Oppure: “l’estrattivismo consiste nella sottrazione sistematica di ricchezza, ogni tipo di ricchezza dai territori, con il conseguente trasferimento di sovranità da chi quei territori li abita a chi li depreda. Ovvero coloro che si servono dell’estrattivismo per garantire il consolidamento e la riproducibilità di un modello basato sul profitto a vantaggio di pochi, tendenzialmente sempre gli stessi.” Ed infine: “Estrattivismo fase suprema del capitalismo”.

[6] Il nostro senso comune politico: introduzione alla folk politics in “Inventare il futuro- per un mondo senza lavoro” , Nick Srniceck& Alex Williams. Edizioni Nero -2018

[7] Energia e Occupazione – Energia padrona ; rossovivo n.1, febbraio 1979

[8] Scomposizione del ciclo lavorativo; delocalizzazione; esternalizzazione, liberalizzazione dei mercati.

[9] Uno studio pubblicato nel 1975 da un gruppo di ricercatori del Max Plank Institut di Monaco di Baviera sulle nuove aree di investimento del capitale in 103 paesi suddivisi tra America latina, Asia e Africa, dimostrava come una esigua frazione della forza lavoro mondiale (pari a 720.000 unità), impiegata nelle Free Production Areas e nelle fabbriche per il mercato mondiale, riuscisse a produrre consistenti quantitativi di prodotti per oltre 20 settori merceologici. In particolare risultava che meno di 90.000 operai impiegati in alcune fabbriche dell’estremo oriente producevano l’85% di tutta la componentistica di base dell’intero settore elettronico mondiale. Oltre il 70% della manodopera impiegata era femminile con una età compresa tra 14 e 24 anni. I salari medi giornalieri non superavano i 2,0 $/giorno per gli uomini, mentre per le donne non arrivavano a 1,3 $/giorno. Questo tipo di investimenti a bassissima composizione organica di capitale, fu alla base del successivo exploit delle “tigri asiatiche” e poi della Cina.

[10] Dal dominio delle “sette sorelle” (tutte compagnie occidentali) si è passati ad una ripartizione di mercato che vede tra le prime dieci compagnie petrolifere del mondo 2 società cinesi (1° e 4° posto), una araba (3° posto), una russa (9° posto) e una brasiliana (10° posto)

[11] Da alcuni anni sono in vigore i cosiddetti indici di sostenibilità per le imprese che hanno una loro corrispondente quotazione di borsa. Tra i più noti indici ci sono Dow Jones Sustainability World o il Dow Jones Sustainability Europe, il FTSE4Good.

[12] Riguardo alla generazione elettrica, il rendimento termodinamico di un impianto a gas in ciclo combinato supera il 50%; quello delle moderne centrali a carbone raggiunge il 34%. I moderni sistemi di filtraggio (filtri chimici ed elettrostatici etc) e di gestione della combustione (additivazione con ammoniaca etc) hanno abbattuto parte degli inquinanti allo scarico. Nel settore trasporto i motori presentano consumi specifici (km/litro) decisamente migliori e altrettanto vale per i gas di scarico, con una importante precisazione però: che gli standard di legge sono stati suggeriti dalle case automobilistiche e si riferiscono a condizioni di prova fatte non su strada ma con il veicolo al banco e valgono solo per uno specifico intervallo del numero di giri del motore. Al di fuori di questo intervallo non c’è più corrispondenza ne di consumo , né di emissioni.

[13] I limiti dello sviluppo. Rapporto del MIT per il progetto del Club Di Roma sui dilemmi dell’umanità. Edizioni scientifiche Mondadori, 1972

[14] Vedi le considerazioni di Angelo Baracca citate in nota 4

[15] Per fare degli esempi concreti: il consumo di elettricità in Italia vede le regioni del Nord consumare più della metà (55-57%) dei consumi totali e più del Centro-Sud messi insieme. Conseguentemente il maggior numero di impianti di produzione è situato al Nord perché, nonostante una estesa rete di interconnessione, non è conveniente far fare all’energia elettrica percorsi superiori in media ai 150 Km, pena un considerevole aumento delle perdite di trasmissione. Ne consegue che la sostituzione delle centrali elettriche che usano fonti fossili con altre a fonti rinnovabili deve avvenire negli stessi ambiti territoriali, ma ciò è ostacolato dal fatto che lo sfruttamento di sole e vento non è possibile (o conveniente) in tutte le circostanze. L’irradiazione solare raggiunge tutta la terra, ma non con la stessa intensità (dunque c’è una diversa resa energetica dei pannelli solari a seconda della latitudine), ma soprattutto le caratteristiche del vento non consentono l’uso delle pale se questo è al di sotto di una certa intensità e velocità durante l’anno. La carta del vento in Italia esclude tutto il Nord, mentre le zone sfruttabili si trovano al sud e nelle isole. Altri fattori limitanti sono costituiti dall’assetto stesso del territorio, cioè se questo è molto “antropizzato” è più difficile trovare spazi per sistemare le grandi distese di pannelli solari che servirebbero.

[16] Questa sostituzione negli usi domestici ha implicazioni consistenti sia nelle rete di distribuzione elettrica cittadina che negli edifici. La prima, sostanzialmente, deve essere talmente capace da trasportare anche l’equivalente dell’energia termica che arrivava nelle abitazioni mediante la rete di distribuzione del gas. Per gli edifici si tratta di rifarne da capo le colonne montanti (oltre che gli impianti interni ad ogni singola abitazione) perché i cavi attuali non reggerebbero l’aumento di potenza richiesto dal riscaldamento elettrico.

[17] In Italia circolano grossomodo 39 milioni di autovetture e poco più di 5 milioni di veicoli commerciali. Attribuendo un valore medio di ricarica rapida di 40 Kw per le automobili e di 200 Kw per i veicoli commerciali e facendo l’ipotesi che l’1% del parco veicoli si trovi contemporaneamente in condizioni di ricarica, si ottiene un picco di potenza sulla rete di questa entità: 390.000 autovetture (pari al 1%) • 40 kwe pari a 15.600 Mwe + 50.000 veicoli commerciali (1%) • 200 Kwe pari a 10.000 Mwe = 25.600 Mwe. Anche nelle ipotesi più cautelative si tratterebbe comunque di fare fronte a picchi di potenza di almeno 10.000 Mwe, pari all’incirca al 15% di potenza massima richiesta attualmente dalla rete elettrica italiana. Estendendo il calcolo all’Europa dove circolano 271 milioni di autovetture e 41 milioni di camion e poi via via al resto del mondo si può avere l’idea a quali enormi difficoltà occorrerebbe far fronte.

In una rete elettrica lo scambio produzione-consumo di energia è istantaneo, cioè non si può “immagazzinare” energia sui cavi dell’alta tensione, ma in ogni istante quella che si produce è pari a quella richiesta dalle utenze allacciate in quel momento .Questa produzione complessiva è generata da impianti che forniscono il carico base (tipicamente quelli ad energie rinnovabili e le nucleari), mentre le centrali a combustibili fossili (tipicamente turbogas o centrali a carbone) fanno la regolazione, cioè seguono le variazioni di carico momento per momento. Anche le centrali idriche possono svolgere questa funzione di regolazione, ma solo in proporzioni contenute e limitatamente all’ambito territoriale su cui insistono. In Italia ad esempio le centrali idriche sono concentrate al Nord, salvo qualche impianto nell’Appennino centrale.

[18] Felsida. IVL Svenska Miljoinstitut

[19] Nel calcolo si assume cautelativamente il valore minimo di emissioni specifiche (150 kg CO2/Kwh) e un valore medio di capacità della batteria di 40 Kwh sia per le
autovetture che per i veicoli commerciali. Il risultato è pari a: 150 Kg CO2/kwh • 40 Kwh • 1,2 109 autoveicoli = 7,2 Gt CO2 (miliardi di tonnellate) a fronte di una emissione globale attualmente stimata in circa 17 Gt.

[20] Qui ci si è limitati a considerare l’estrattivismo limitatamente agli impieghi legati alle batterie per autotrazione, ma è evidente che nell’ ipotesi di una robotizzazione spinta l’estrattivismo aumenterebbe a dismisura dato che nei processi di informatizzazione/robotizzazione sono necessari altri minerali strategici (“critici” secondo la definizione adottata dall’amministrazione USA), come le terre rare, i lantanidi e ovviamente l’uranio.

[21] (vedi) citato.

[22] Questa quantità non è semplicemente quella corrispondente al rapporto tra energia consumata da una fabbrica e quantità di prodotti ottenuti, ma deve tener conto dell’intero ciclo di sfruttamento dell’energia a monte della fabbrica, cioè a partire dal tipo di energia primaria utilizzata, dai processi di trasformazione di questa in altre forme di energia fino al quantitativo di energia secondaria impiegata nella fabbricazione. Per certi versi essa dà l’idea della perdita di entropia complessiva associabile alla merce prodotta, in quanto per ogni trasformazione di energia una parte di essa va irrimediabilmente persa. Per fare degli esempi pratici: l’essiccazione di prodotti alimentari (verdure, pesce, carne) può essere fatta esponendoli al sole oppure per mezzo di essiccatoi industriali alimentati a gasolio o elettrici. Nel primo caso il trasferimento di calore è diretto ma occorre molto tempo per ottenere il prodotto finale, negli altri casi c’è la trasformazione di energia chimica in energia termica (essiccatoio a gasolio) a cui va aggiunta l’ulteriore trasformazione in energia meccanica e poi elettrica nel caso dell’essiccatoio elettrico, ma il tempo di produzione si è ridotto enormemente. Analogo ragionamento può valere per delle pale eoliche (energia meccanica) che invece di essere utilizzata in quanto tale, viene trasformata in energia elettrica e poi di nuovo in energia meccanica per far funzionare una qualsiasi macchina rotante. Ciò che governa queste logiche è la possibilità di concentrare l’energia, cioè disporre di potenza maggiore perché lo scopo è appunto l’aumento del lavoro nell’unità di tempo.

[23] I progetti più avanzati prevedono di convogliare le emissioni gassose sottoterra o sotto il fondo marino attraverso una rete di condutture. In Italia è stato presentato dall’Eni il progetto dell’Hub di Ravenna, capace di immagazzinare fino a 500 milioni di t di gas, provenienti dalle centrali elettriche della zona ed altri impianti industriali. Tra i progetti globali, il più studiato è il Desertec che prevede di installare 60.000 Mw di energie rinnovabili (soprattutto solare) nelle zone desertiche che si estendono dal Marocco all’Egitto, per poi collegarle all’Europa con una rete elettrica in corrente continua. Il costo dell’investimento è stimato in 400 miliardi di euro.

[24] Il rapporto Brandt (con sottotitolo “un programma per la sopravvivenza”) uscì nel 1980 e partiva dalla constatazione che il 20% dell’umanità disponeva del 80% delle risorse del pianeta, mentre l’80% dell’umanità si spartiva il restante 20% delle risorse. Per una descrizione più approfondita si veda: http://www.labottegadelbarbieri.org/lultimo-rapporto-sul-futuro/

[26] “Il signore si rapporta mediatamente alla cosa attraverso il servo […], il servo può solo trasformarla col proprio lavoro”. Hegel, Fenomenologia dello spirito.

“Se il prodotto del lavoro non appartiene all’operaio, e un potere estraneo gli sta di fronte, ciò è possibile soltanto per il fatto che esso appartiene ad un altro uomo estraneo all’operaio.” [ … ] “Se quindi egli sta in rapporto al prodotto del suo lavoro, al suo lavoro oggettivato come in rapporto ad un oggetto estraneo, ostile, potente, indipendente da lui, sta in rapporto ad esso in modo che padrone di questo oggetto è un altro uomo, a lui estraneo, ostile, potente e indipendente da lui. Se si riferisce alla sua propria attività come a una attività non libera, si riferisce a essa come a un’attività che è al servizio e sotto il dominio, la coercizione e il giogo di un altro uomo.” Marx, Manoscritti economici e filosofici

[27] “La natura presa astrattamente, per sé, fissata separatamente dall’uomo, è nulla per l’uomo” dice Marx nei Manoscritti economici e filosofici; ma non “nulla” in assoluto in quanto l’esistenza di un mondo naturale indipendente è fra i fondamenti del materialismo, ma “nulla” esclusivamente per la coscienza dell’uomo che “pensa” la natura.

[28] F. Engels, Dialettica della natura

[29] I limiti dello sviluppo. Op.Cit. – Le principali grandezze prese in considerazione nel rapporto sono:popolazione; prodotto industriale pro capite; alimenti pro capite; inquinamento; risorse naturali.

[30] Mi riferisco, ad esempio, alle ipotesi di diffusione in aria del virus , anche connesse a fattori inquinanti di cui ho scritto in http://effimera.org/virus-e-inquinamento-rischi-associati-o-associazioni-rischiose-di-giorgio-ferrari/.
In proposito lo scorso 2 giugno è stato diffuso un appello firmato da 230 scienziati in cui si sottolinea che la diffusione per aereosol è una modalità di trasmissione da non sottovalutare, ma specificatamente negli ambienti chiusi e/o ristretti, essendo questo l’aspetto critico da prendere in considerazione e non, tout court, la presenza in aria del virus. (vedi)

[31] “…una volta soddisfatto il primo bisogno, l’azione di soddisfarlo e lo strumento già acquisito di questa soddisfazione spingono a nuovi bisogni, e questa produzione di nuovi bisogni è il primo fatto storico”. Marx-Engels, L’ideologia tedesca.

[32] La speranza progettuale, Tomàs Maldonado, Einaudi- 1971

[33]C’è un grande fatto, significativo per questo nostro secolo, e che nessuno osa contestare. Da un lato sono nate forze industriali e scientifiche di cui nessuna epoca precedente della storia umana ebbe mai presentimento. Dall’altro esistono sintomi di decadenza che superano di gran lunga gli orrori tramandatici sulla fine dell’impero romano. Ogni cosa oggi sembra portare in sé la sua contraddizione. Macchine, dotate del meraviglioso potere di ridurre e potenziare il lavoro umano, fanno morire l’uomo di fame e lo ammazzano di lavoro. Un misterioso e fatale incantesimo trasforma le nuove sorgenti della ricchezza in fonti di miseria. Le conquiste della tecnica sembrano ottenute a prezzo della loro stessa natura. Sembra che l’uomo, nella misura in cui assoggetta la natura, si assoggetti ad altri uomini o alla propria abiezione. Perfino la pura luce della scienza sembra poter risplendere solo sullo sfondo tenebroso dell’ignoranza. Tutte le nostre scoperte e i nostri progressi sembrano infondere una vita spirituale alle forze materiali e allo stesso tempo istupidire la vita umana, riducendola a una forza materiale. Questo antagonismo fra la industria moderna e la scienza, da un lato, e la miseria moderna e lo sfacelo dall’altro; questo antagonismo fra le forze produttive e i rapporti sociali della nostra epoca è un fatto tangibile, macroscopico e incontrovertibile.” Articolo scritto nel 1856 da Karl Marx per il giornale inglese “The people’s paper

[34] A questo proposito così scriveva G.Klaus in Kibernetik in philosophischer Sicht 1965: ”La cibernetica e l’automazione sono le condizioni tecniche della situazione comunista, perché permettono all’uomo di liberarsi d’ogni lavoro schematico non creativo (….) al punto che, quando i bisogni sono soddisfatti è possibilissimo, in parte grazie allo stesso progresso tecnico, passare a produzioni di piccola serie incorporandovi progetti artistici originali. Inoltre il tempo di “lavoro obbligatorio” sempre più ridotto contribuirà a far rifiorire tutte quelle cose che richiedono amore e cure personali….Senza dubbio esse ritorneranno sotto forma d’arte liberamente praticata da coloro che saranno stati liberati dalla tecnica”

[35] K.Marx, il Capitale, III° libro, Editori Riuniti 1966.

[36] Marx-Engels, L’ideologia tedesca

[37] J.Fallot, Sfruttamento, inquinamento, guerra – Bertani 1976.

[38] Affinchè queste mie affermazioni non sembrino apodittiche, riporto il testo di una risoluzione del Congresso degli Stati Uniti: il National Defence Authorization Act del 2018, Sezione 335 dal titolo “Effects of climate change on department of defence” dove si stabilisce, tra l’altro, che “il cambiamento climatico è un problema di sicurezza nazionale dato che l’instabilità climatica porterà all’instabilità geopolitica e avrà un impatto sulle attività militari americane in tutto il mondo. Un aumento di tre piedi del livello del mare minaccerà le operazioni di oltre 128 siti militari degli Stati Uniti ed è possibile che molte di queste basi a rischio possano essere sommerse nei prossimi anni. A causa dell’aumento della temperatura globale, della siccità e delle carestie molti stati falliranno, divenendo terreno fertile di organizzazioni estremiste e terroristiche. Nelle Isole Marshall, si prevede che un’installazione radar dell’aeronautica militare costruita su un atollo al costo di $ 1.000.000.000 sarà sommersa dall’acqua entro due decenni. Nell’Artico, la combinazione di scioglimento del ghiaccio marino, scongelamento del permafrost e innalzamento del livello del mare sta erodendo le coste, danneggiando istallazioni radar e impianti di comunicazione, passerelle, aree marine e aree di addestramento. Per questi motivi il pronunciamento del congresso degli Stati Uniti è quello di ritenere che il cambiamento climatico è una minaccia diretta per la sicurezza nazionale degli Stati Uniti e sta influenzando la stabilità in aree del mondo dove oggi operano le forze armate degli Stati Uniti, sia laddove esistono implicazioni strategiche per futuri conflitti e quindi il il Dipartimento della Difesa deve assicurarsi di essere pronto a fare fronte, sia oggi che in futuro, agli effetti di un clima in evoluzione valutando l’entità delle minacce e le risorse a disposizione e gli impianti militari devono prepararsi efficacemente per contenere i danni climatici nella loro prefigurazione generale”.

[39] (vedi)

[40]
(vedi)

[41] EPA, Enviromental Protection Agency; NRC, Nuclear Regulatory Commission; USGS, United States geological Survey; BLM, Bureau of Land Management

[42] (vedi)

[43] Il Trizio è un isotopo dell’Idrogeno ed è il componente essenziale delle bombe termonucleari. Si produce sottoponendo l’idrogeno disciolto nell’acqua a bombardamento neutronico, cosa che avviene normalmente durante il funzionamento di un reattore nucleare. Ogni 10-12 anni va rimpiazzato nelle testate termonucleari.

[44] A differenza dei tradizionali metodi meccanici (scavo ed estrazione del minerale uranifero) , l’estrazione in situ (ISL) è un processo basato sulla chimica. L’uranio viene estratto iniettando una soluzione acquosa acida o basica, a seconda della geologia sottostante, nel sottosuolo attraverso una serie di pozzi di iniezione posizionati strategicamente. I pozzi di iniezione pompano una soluzione chimica nello strato della Terra contenente minerale di uranio. La soluzione dissolve l’uranio che viene quindi rimandato in superficie attraverso pozzi di recupero e inviato all’impianto di lavorazione per essere trasformato in yellowcake (nome comune del minerale base di colore giallo). Le sostanze chimiche impiegate in grandi quantità sono, in genere, perossido di idrogeno e acido solforico.

[45] La diffusione gassosa consiste nel far passare ripetutamente l’ UF6 in setti porosi estremamente piccoli per separare l’ U238 dal U235 e quindi aumentarne la concentrazione. La centrifugazione consiste nello sfruttare la differenza di massa tra i due isotopi immettendo l’ UF6 in centrifughe ad altissima velocità. La diffusione è molto più onerosa della centrifugazione anche dal punto di vista della sicurezza.

[46] Il burnup indica la quantità di energia prodotta per unità di massa dal combustibile nucleare e si esprime in Mwd/t (MW al giorno per tonnellata), cioè potenza generata giornalmente per tonnellata di uranio.

[47] Per maggiore approfondimento si veda: Il rendimento dei reattori nucleari e il gioco del perché, in SCRAM – di Angelo Baracca e Giorgio Ferrari, Edizioni Jaca book -2011

[48] Oak Ridge National Laboratiry; Argonne National Laboratory; Los Alamos National Laboratory; Brookhaven Nuclear Laboratory; Massachussets Institute of Technology; Electric Power Research Institute; General Electric Global research center; Westinghouse research; Idaho Nuclear Laboratories; Karlsruhe Institute of Technology; Department of Energy; Framatome; Savannah River National Laboratory; National Nuclear Laboratory (UK); Areva e Commissariat de l’Energie Atomique (FR).

[49] Secondo i dettami dell’Atomic Energy Act del 1954, l’Atomic Energy Commission (AEC) riassumeva in sé tutte le funzioni inerenti il settore nucleare, quindi senza distinzione tra promozione dell’energia nucleare e suo controllo. Le crescenti preoccupazioni e contestazioni al nucleare misero sotto accusa questo ruolo contraddittorio costringendo, nel 1975, l’allora presidente Ford a sciogliere l’AEC e a costituire la NRC come Autorità di sicurezza indipendente.

[50] Per licencing si intende un complesso esame tecnico e procedurale volto a valutare in dettaglio il progetto e il funzionamento di una centrale nucleare dal punto di vista dell’affidabilità e della sicurezza. Al termine di questo iter (che può richiedere anche anni) l’autorità di sicurezza preposta rilascia una sorta di nulla osta (licence) alla costruzione e all’esercizio.

[51] Per affidabilità si intende la probabilità che un componente o un sistema assolva alle funzioni per cui è stato progettato per un tempo determinato e nelle condizioni stabilite

[52] Nel gennaio 2020 il dipartimento dei trasporti degli Stati Uniti, attraverso la NHTSA (National Highway Transport Safety Administration) ha lanciato una campagna a sostegno dei veicoli autonomi denominata AV 4.0

[53] Nel 1973 Richard Nixon approvò la creazione presso il Pentagono del “Office of Net Assessment” (ONA) alle dirette dipendenze del Segretario alla Difesa, con il compito di studiare sia i futuri scenari di guerra (con il corollario di nuovi e impensabili armamenti), sia quali eventi estremi di carattere naturale avrebbero potuto minacciare la sicurezza degli USA. A capo di questo Ufficio fu insediato Andrew Marshall (soprannominato Joda) che lo ha guidato fino al 2014.

[54] An abrupte climate change scenario and its implications for United States National Security – Peter Schwartz and Doug Randall – Jet Propulsion Laboratory Pasadena, CA. Oct 2003.