venerdì 5 maggio 2023

COME FUNZIONA DAVVERO IL MONDO VaclavSmil




 COME FUNZIONA DAVVERO IL MONDO

VaclavSmil

Energia, cibo, ambiente, materie prime: le risposte della scienza

Il lavoro ormai decennale di Vaclav Smil si fonda su una certezza incrollabile: per affrontare qualsiasi problema in maniera efficiente è necessario conoscere i fatti e partire dai dati.

Recensione di Umberto Minopoli

I CONTI GIUSTI PER L'APOCALISSE

Il realismo che manca sulla transizione energetica

Umberto Minopoli 

21 FEB 2023

Il culto delle date simboliche per la decarbonizzazione non aiuterà a combattere la crisi climatica: la transizione deve passare per un calcolo realistico e flessibile, non dal panico per la fine del mondo. 

Il nuovo libro di Vaclav Smil

Oltre quaranta pubblicazioni fanno di Vaclav Smil un’autorità nel campo dello studio delle transizioni energetiche. Nel suo ultimo lavoro, Come funziona davvero il mondo (Einaudi, Torino 2022), l’autore prende di mira il paradigma dominante della decarbonizzazione e della crisi climatica. Non per negarne le premesse scientifiche e metodologiche – il riscaldamento globale e le sue origini carboniche ed antropiche – ma per imputargli un mancato realismo, l’efficacia e l’effettiva fattibilità. L’oggetto polemico di Smil è, sulla base di un ricchissimo corredo di dati, cifre, argomentazioni tecniche, la possibilità realistica della decarbonizzazione globale delle principali economie del mondo entro le date preconizzate: il 2030 e il 2050. Il timore dei cambiamenti climatici ha generato, negli ultimi trent’anni, un paradosso: “un’ondata di catastrofismo”, di “profezie inquietanti” e di ansia per le sorti del pianeta, tutto accompagnato però da “promesse assolutamente irrealistiche” e da un sostanziale “nullismo” realizzativo: le emissioni carboniche globali aumentano sistematicamente. 

Alla base del paradosso, è la tesi di Smil, c’è un fraintendimento e un uso distorto del concetto di previsione nell’ambito delle scienze ambientali e delle ipotesi climatiche. Esse hanno perso, scrive Smil, il valore euristico e di criterio orientativo, “per aziende e governi che ne facevano uso” per indirizzare scelte di investimento e politiche pubbliche. Potendo contare sulla ricchezza di nuovi software e su enormi flussi di dati osservativi, le interpretazioni climatiche hanno condotto a una sovrastima della previsione: l’abbondanza quantitativa, osserva Smil – spesso “inversamente proporzionale alla loro qualità” – ha finito per trasformare i modelli digitali computerizzati in predizioni con il marchio della certezza. Finendo per dar vita a una letteratura, in molti casi, di “narrazioni speranzose e fin troppo politicamente corrette”. Smil sostiene l’inattendibilità di un tale uso delle previsioni climatiche. Applicate ai “sistemi complessi” – clima, ambiente, energia, economia – le predizioni perdono la loro validità orientativa: finiscono per trascurare le interazioni tra numerosi fattori e variabili, anzitutto tecnologiche o di policies dei governi, e le previsioni stesse, specie quelle di lungo periodo, vengono vanificate. 


Ne abbiamo un esempio concreto oggi. Il libro di Smil precede la crisi dei prezzi dell’energia e la guerra in Ucraina. La sua tesi sulla vacuità di scelte energetiche costruite su previsioni di troppo lungo periodo ha avuto immediata conferma con la corsa, a metà del 2022, agli investimenti sulle infrastrutture del gas, ai contratti di approvvigionamenti di lungo periodo o con la decisa ripresa del ricorso al carbone. È impossibile, insiste Vaclav Smil, pretendere di ingessare la transizione energetica entro previsioni e date temporali troppo arbitrarie e predeterminate, generate da modelli computerizzati. Non si fa altro, in tal modo, che creare incertezza e indeterminatezza degli esiti dei modelli. Non c’è alcuna apocalisse alle porte: “I catastrofisti si sbagliano ripetutamente”. Smil illustra una ricca casistica di previsioni errate nell’ultimo secolo: il peak oil che avrebbe messo fine alla disponibilità di fonti fossili; l’esaurimento delle risorse minerali già nel corso di questo secolo; l’apocalisse demografica e della disponibilità di cibo per una popolazione mondiale che procede verso i 9 miliardi di individui. Le apocalissi mancate sono all’origine delle “fantasie distopiche” che, sin dagli anni Venti, hanno prefigurato, talvolta con picchi di vero “terrorismo psicologico”, il collasso delle economie moderne. L’apocalisse climatica è solo l’ultima, in ordine di tempo. 


Smil non è un negazionista del global warming. Tutt’altro. Addirittura, egli imputa a politici ed esperti la sottovalutazione della relazione tra temperature e tassi di CO2 e altri gas serra (metano, vapore acqueo, ozono) la cui scoperta, per la scienza climatica, data “da più di un secolo e mezzo”. La strategia del contrasto ai gas serra si è rivelata inefficace: paralizzata tra la “profezia inquietante” di un’apocalisse ravvicinata e soluzioni irrealistiche all’eccesso di carbone. Abbiamo di esso un “fabbisogno annuale sopra i 10 miliardi di tonnellate” (un volume doppio, ad esempio, “dell’acqua consumata dai quasi 8 miliardi di abitanti del pianeta”). La sostituzione del carbon fossile non sarà più breve del tempo – circa un secolo – da esso impiegato per plasmare la nostra civiltà. Servono tempi lunghi e, soprattutto, soluzioni tecnologiche effettivamente sostitutive del carbone negli usi finali. Laddove sarà possibile. Senza inseguire scorciatoie o soluzioni penalizzanti per i consumi e gli stili di vita delle persone.

Da conoscitore profondo dell’energia, Smil fa alcuni esempi illuminanti. È fallimentare il modello tedesco che, dopo aver sostituito il nucleare con le rinnovabili eoliche e solari, si ritrova con un sistema energetico dipendente all’84 per cento dalle energie fossili. È tecnicamente infattibile la sostituzione della propulsione elettrica nei mezzi di trasporto, specie quelli strategici della globalizzazione (navi e aerei): allo stato attuale, per ragioni fisiche di densità energetica, non esistono alternative ai combustibili liquidi e al cherosene. Ma c’è di più. Una certa indulgenza per le filosofie della smaterializzazione ci porta a trascurare il fatto che, sotto la crosta del digitale, il mondo resta ancorato, quasi esclusivamente, alla domanda di quattro “materiali” – ammoniaca, acciaio, cemento, plastica – che “si distinguono tra loro per un’enormità di diverse proprietà e funzioni” e sulla cui disponibilità e produzione si regge il funzionamento delle società moderne. Nel 2019, non un secolo fa, il mondo ha consumato circa 4,5 miliardi di tonnellate di cemento, 1,8 miliardi di tonnellate di acciaio, 370 milioni di tonnellate di plastica e 150 milioni di tonnellate di ammoniaca. Dall’agricoltura, alla chimica, alla farmaceutica, alle costruzioni, alla microelettronica e ogni altro settore della vita civile l’uso di questi quattro materiali è indispensabile, la domanda di essi è crescente e sono tutti ad alta intensità di energia “fossile”: “sostituirli con materiali differenti – scrive Smil – non è affatto facile e, di certo, non in tempi stretti o su scala globale”.

Non c’è, dunque, solo il fabbisogno dei minerali legati allo sviluppo delle “economie verdi” – litio, cobalto, nickel, rame, grafite – che crescerà tra le 15 e le oltre 30 volte i consumi attuali. Continuerà, ben oltre le date della decarbonizzazione, la domanda dei quattro materiali essenziali per nutrire le persone, per costruire gli insediamenti umani, per edificare gli impianti delle energie rinnovabili, per produrre mezzi e macchinari (turbine, automobili elettriche, combustibili, batterie) essenziali alla “sostenibilità” economica e ambientale. È un’immensa attività di estrazione, lavorazione e produzione che richiederà un enorme fabbisogno di energia. Che non potrà essere fornita solo da fonti rinnovabili. Almeno non nei tempi di una generazione o due. E “nessuna intelligenza artificiale”, conclude Smil, “applicazione informatica o messaggi elettronici potranno alterare questa verità”.

Introduzione

A cosa serve questo libro?


Qualsiasi periodo storico ha pretese di unicità, sebbene l’esperienza delle ultime tre generazioni – quelle successive alla fine della Seconda guerra mondiale – possa non essere stata cosí rivoluzionaria come quella delle tre che hanno preceduto lo scoppio della Grande guerra, non sono certo mancati gli avvenimenti e i progressi tecnico-scientifici. Ciò che colpisce è che oggi ci sia un numero maggiore di persone che godono di un tenore di vita migliore, per un numero maggiore di anni e in condizioni di salute migliori, rispetto a qualsiasi altro momento della storia umana. Eppure i beneficiari di queste circostanze costituiscono ancora una minoranza (soltanto un quinto) della popolazione mondiale, quest’ultima ormai vicina alla cifra di 8 miliardi di persone.


La seconda conquista degna della nostra ammirazione è l’espansione senza precedenti sperimentata dalla nostra comprensione sia del mondo fisico che di tutte le forme di vita che lo abitano. Il campo della nostra conoscenza si estende da grandi generalizzazioni riguardanti sistemi complessi su scala universale (galassie, stelle) e planetaria (atmosfera, idrosfera, biosfera) fino a processi osservabili soltanto su scala atomica e genica: le linee incise sulla superficie del piú potente microprocessore hanno un diametro pari appena al doppio di quello del Dna umano. Da ciò abbiamo derivato un assortimento in continua espansione di macchine, dispositivi, procedure, protocolli e interventi che sono alla base della nostra civiltà, e l’enormità della nostra conoscenza aggregata – e dei metodi che abbiamo adoperato per impiegarla a nostro vantaggio – va ben oltre le capacità di comprensione della mente di qualsiasi individuo.


Nel 1500, gironzolando per piazza della Signoria a Firenze avreste avuto la possibilità di imbattervi in dei veri geni universali – ma non per molto ancora. Verso la metà del XVIII secolo, due eruditi francesi, Denis Diderot e Jean Le Rond d’Alembert, potevano ancora mettere insieme i contributi di un gruppo di diversi esperti cosí da riunire le diverse conoscenze dell’epoca in voci sufficientemente esaustive all’interno dei volumi che avrebbero composto l’Encyclopédie, ou Dictionnaire raisonné des sciences, des arts et des métiers. Qualche generazione piú tardi, l’estensione e la specializzazione del nostro sapere erano cresciute di piú ordini di grandezza, grazie a scoperte fondamentali che andavano dall’induzione magnetica (Michael Faraday, nel 1831), alla base della produzione di energia elettrica, passando per il metabolismo delle piante (Justus von Liebig, 1840), alla base dei sistemi per la fertilizzazione delle colture, fino alle teorie sul campo elettromagnetico (James Clerk Maxwell, 1861), alla base di tutti i metodi di comunicazione senza fili.


Nel 1872, un secolo dopo la pubblicazione del volume conclusivo dell’Encyclopédie, realizzare un compendio delle conoscenze dell’epoca avrebbe voluto dire accontentarsi di un trattamento superficiale di un repertorio di tematiche in rapida espansione e, un secolo e mezzo piú tardi, è divenuto impossibile riassumere interamente il sapere che abbiamo accumulato, anche limitandosi a quello contenuto da specializzazioni rigorosamente circoscritte: termini come «fisica» o «biologia» sono etichette in un certo senso prive di significato, ed esperti nel campo della fisica delle particelle potrebbero trovare grosse difficoltà nel comprendere anche la prima pagina di un recente studio di immunologia virale. Ovviamente, l’atomizzazione della nostra conoscenza non ha certo reso piú semplice prendere decisioni di ordine pubblico. Le branche, altamente specializzate, della scienza moderna sono diventate cosí arcane che molti di coloro che se ne occupano sono costretti a studiare fino all’inizio o alla metà dei loro trent’anni prima di poter essere ammessi in questo nuovo ordine sacro.


Questi campi potranno anche avere in comune lunghi percorsi di apprendistato, ma troppo spesso non sono in grado di accordarsi su quale sia il miglior modo di procedere rispetto alla stessa questione. La pandemia causata dalla SARS-CoV-2 ha reso evidente che le divergenze d’opinione tra gli esperti possono arrivare a toccare persino decisioni in apparenza cosí semplici come quella sulla necessità di indossare o meno una maschera chirurgica. Verso la fine di marzo 2020 (tre mesi dall’inizio della pandemia) l’Organizzazione Mondiale per la Sanità suggeriva ancora di non farlo, a meno che una persona fosse infetta, e la rettifica arrivò soltanto ai primi di giugno. Come possono coloro che non hanno alcuna conoscenza specialistica prendere posizione o trovare un senso in dispute che spesso si concludono con il ritrarre o lo smontare le tesi in precedenza predominanti?


Ciononostante, le incognite e le diatribe non giustificano un livello di fraintendimento come quello condiviso dalla maggior parte delle persone per i processi sui cui è fondato il mondo moderno. Dopotutto, avere cognizione di come il grano venga coltivato (vedi il Secondo capitolo) o di come l’acciaio venga prodotto (capitolo Terzo) o rendersi conto che la globalizzazione non è né qualcosa di nuovo né di inevitabile (capitolo Quarto) non è come pretendere che qualcuno comprenda la femtochimica (lo studio delle reazioni chimiche osservabili in intervalli di tempo di 10-15 secondi – Ahmed Zewail, premio Nobel nel 1999) o la reazione a catena della polimerasi (il rapido processo di copiatura del Dna – Kary Mullis, premio Nobel nel 1993).


Allora come mai la maggior parte delle persone nella società moderna ha un’idea cosí superficiale di come funziona davvero il mondo? La complessità della realtà moderna ne è una ragione evidente: interagiamo costantemente con delle scatole nere, che producono segnali relativamente semplici e che ci richiedono una comprensione scarsa o nulla di ciò che avviene al loro interno. Ciò vale per dispositivi ubiqui come i telefoni e i computer portatili (basta digitare una semplice query per ottenere delle risposte) ma anche per procedure su ampissima scala come la vaccinazione (sicuramente il miglior esempio offertoci dal 2021, valido per tutto il pianeta, di cui normalmente l’unico aspetto comprensibile era l’atto concreto del rimboccarsi la manica). Ma le ragioni che stanno dietro a un simile deficit di comprensione vanno ben al di là del fatto che la vastità del nostro sapere collettivo incoraggia la specializzazione, con l’ovvio rovescio della medaglia di una cognizione incredibilmente superficiale – se non dell’ignoranza – delle basi.


I processi di urbanizzazione e di meccanizzazione costituiscono altre due importanti ragioni. Dal 2007 piú della metà dell’umanità abita città (oltre l’80 per cento della popolazione in tutti Paesi ricchi), e a differenza della situazione che caratterizzava i centri urbani in via di industrializzazione nel XIX secolo e all’inizio del XX, la gran parte dei posti di lavoro oggi disponibili nelle aree urbane appartengono al settore dei servizi. Cosí, chi abita in città oggigiorno vive nella maggior parte dei casi in uno stato di dissociazione non solo dai metodi impiegati per produrre gli alimenti di cui ci nutriamo ma anche da quelli impiegati per realizzare le macchine e i dispositivi che utilizziamo, e la crescente meccanizzazione di ogni attività produttiva fa sí che soltanto una minuscola parte della popolazione globale venga coinvolta nella distribuzione dell’energia necessaria alla nostra civiltà e delle materie di cui è formato il mondo moderno.


Negli Stati Uniti sono soltanto tre milioni circa gli uomini e le donne (proprietari di aziende agricole o lavoratori dipendenti) direttamente impegnati nella produzione di cibo – e che, dunque, eseguono effettivamente l’aratura dei campi e la semina, spargono il fertilizzante, sradicano le erbacce, raccolgono la frutta e la verdura (la raccolta è la parte del processo che richiede il lavoro maggiore) e si prendono cura degli animali. Parliamo di meno dell’1 per cento della popolazione del Paese, pertanto non ci si deve sorprendere se la maggioranza non ha invece idea, o ne ha una piuttosto vaga, di come il pane o i tagli di carne che consuma prendano forma. Una mietitrebbiatrice esegue la mietitura del grano – ma serve anche a raccogliere fagioli di soia e lenticchie? Quanto tempo ci vuole perché un maialetto diventi una costoletta di maiale: settimane o anni? La gran parte degli abitanti degli Stati Uniti semplicemente non lo sa – e non sono i soli. La Cina è il piú grande produttore di acciaio al mondo – dato che fonde, cola e lamina circa un miliardo di tonnellate di questo metallo ogni anno – ma il lavoro in questione viene svolto da meno dello 0,25 per cento dei 1,4 miliardi di persone che abitano in Cina. Soltanto a una piccola percentuale della popolazione cinese capiterà almeno una volta nella vita di trovarsi nelle vicinanze di un altoforno, o di osservare un impianto di colata continua da cui escono nastri rossi di metallo incandescente in costante movimento. E questa separazione è la norma in tutto il mondo.


L’altra importante ragione della sempre piú scarsa comprensione che abbiamo dei processi fondamentali che regolano la distribuzione di energia (sotto forma di cibo o carburanti) e di materie durevoli (che siano metalli, minerali non metallici o calcestruzzo) è che questi processi sono considerati antiquati – se non proprio sorpassati – e decisamente poco interessanti se confrontati con il mondo dell’informazione, dei dati e delle immagini. Le proverbiali menti migliori non si dedicano alla scienza del suolo e non si mettono alla prova nel tentativo di sviluppare un tipo di cemento piú efficiente di quelli esistenti, preferiscono maneggiare informazioni immateriali, nella forma di elettroni che scorrono all’interno di una miriade di microdispositivi. Che si tratti di avvocati o economisti, programmatori o gestori di patrimoni finanziari, i loro ricchi e sproporzionati compensi sono dovuti ad attività che non hanno niente a che fare con la realtà materiale della vita sulla Terra.


Inoltre, molti fanatici dei dati arrivano a credere che questi flussi elettronici renderanno quelle bizzarre e obsolete risorse materiali non piú necessarie. La coltivazione dei campi sarà sostituita dall’agricoltura verticale urbana, e prima o poi i prodotti sintetici elimineranno una volta per tutte il bisogno di dover effettivamente coltivare o allevare il cibo. Il processo di smaterializzazione, alimentato dall’intelligenza artificiale, porrà fine alla nostra dipendenza da masse di metalli e minerali lavorati e modellati in forme particolari, e prima o poi potremo anche fare a meno dell’ambiente terrestre: chi mai ne avrà bisogno una volta che avremo terraformato Marte? Ovviamente queste non sono soltanto previsioni estremamente premature, ma fantasie promosse da una società in cui le notizie false sono cosa comune e realtà e finzione si sono mischiate al punto che menti ingenue, inclini ad abbracciare visioni parareligiose, credono a storie che in passato osservatori meno diplomatici non avrebbero esitato a definire quasi, se non veri e propri, deliri.


Nessuno dei lettori di questo libro si trasferirà mai su Marte; noi tutti continueremo a cibarci di cereali di base, coltivati sul suolo in vasti appezzamenti di terra, piuttosto che nei grattacieli immaginati dai promotori della cosiddetta agricoltura urbana; nessuno di noi vivrà in un mondo immateriale in cui non si vedrà piú alcuna utilità in insostituibili processi naturali quali l’evaporazione dell’acqua o l’impollinazione delle piante. Ma distribuire le risorse naturali per noi essenziali sarà un compito sempre piú impegnativo, dato che una larga parte dell’umanità vive in condizioni che la minoranza piú ricca si è lasciata alle spalle generazioni fa, e visto che la crescente domanda di energia e materie prime ha esercitato una pressione cosí intensa e cosí improvvisa sulla biosfera da comprometterne la capacità di mantenere l’equilibrio dei cicli naturali e delle riserve nei limiti compatibili con il suo corretto funzionamento nel lungo periodo.


Giusto per fare un solo esempio, chiave, però, nel 2020 la fornitura di energia pro capite per circa il 40 per cento della popolazione mondiale (pari a 3,1 miliardi di persone, di cui fanno parte quasi tutti gli abitanti dell’Africa subsahariana) non era maggiore di quella di Francia e Germania insieme nel 1860! Per avvicinarsi a uno standard di vita dignitoso, quei 3,1 miliardi di persone dovranno almeno raddoppiare – ma preferibilmente triplicare – il loro consumo di energia pro capite, e nel fare ciò moltiplicare il loro consumo di elettricità, intensificare la produzione di cibo ed erigere essenziali infrastrutture urbane, industriali e per il trasporto. Inevitabilmente, un simile incremento della domanda di energia provocherà un ulteriore degrado della biosfera.


E come affronteremo il cambiamento climatico in corso? Oggi c’è un ampio consenso sul bisogno di fare qualcosa per prevenirne le conseguenze, assai indesiderabili, ma che tipo di azioni, quale modifica del nostro comportamento darebbe i risultati migliori? Per coloro che ignorano gli imperativi energetici e materiali del nostro mondo, che preferiscono inneggiare a soluzioni verdi piuttosto che comprendere come siamo arrivati a questo punto, la ricetta è semplice: basta decarbonizzare, passare dal bruciare carbonio fossile al convertire inesauribili fonti di energia rinnovabile. Il problema fondamentale è che facciamo parte di una civiltà basata sui combustibili fossili e i cui progressi tecnici e scientifici, la qualità della vita e la prosperità raggiunta dipendono dalla combustione di enormi quantità di carbonio fossile, e non possiamo semplicemente abbandonare nell’arco di qualche decennio, figuriamoci nel giro di qualche anno, questo fattore determinante delle nostre fortune.


La completa decarbonizzazione dell’economia globale entro il 2050 è concepibile soltanto al costo di un’impensabile recessione economica a livello planetario, o come risultato di trasformazioni straordinariamente rapide che necessiterebbero di progressi tecnici quasi miracolosi. Ma chi mai si occuperebbe di pianificare deliberatamente la prima, quando ancora ci manca una strategia globale convincente e i mezzi tecnici concreti e accessibili che ci permettano di realizzare i secondi? Che accadrà veramente? La distanza tra la realtà e le illusioni in cui riponiamo le nostre speranze è vasta, ma in una società democratica nessun confronto di idee e proposte può essere sviluppato in modo razionale senza che tutti gli schieramenti condividano almeno un minimo di informazioni rilevanti sul mondo reale, invece che limitarsi a ripetere pregiudizi e dichiarazioni troppo distanti dalle possibilità concrete.


Questo libro rappresenta un tentativo di ridurre il deficit di comprensione, di spiegare alcuni dei fatti fondamentali che governano le nostre possibilità di sopravvivenza e di successo. Il mio obiettivo non è quello di formulare previsioni, tratteggiare prospettive future entusiasmanti o deprimenti. Tale genere letterario cosí popolare, ma spesso errato, non ha bisogno di ulteriori contributi: sul lungo periodo, si sviluppano imprevisti e interazioni talmente complesse che qualsiasi sforzo individuale o collettivo non potrà mai prevedere tutto. E nemmeno difenderò la validità di una specifica (prevenuta) interpretazione della realtà, sia essa fonte di rassegnazione o di aspettative senza limiti. Non sono né un pessimista né un ottimista, sono solo uno scienziato che prova a spiegare come funziona davvero il mondo, e utilizzerò questa conoscenza per capire meglio quali sono i nostri limiti e le nostre opportunità in relazione al futuro.


Si tratta inevitabilmente di un’analisi selettiva, ma ciascuno dei sette temi scelti per questo esame ravvicinato rispetta tutti i requisiti per essere considerato di fondamentale necessità, sono tutti frutti di scelte rigorose. Il Primo capitolo di questo libro ci mostra come le nostre società ad alto consumo energetico abbiano costantemente incrementato la propria dipendenza dai combustibili fossili in generale e dall’elettricità, la forma di energia piú flessibile, in particolare. Prenderne atto è un necessario correttivo alle tesi oggi molto comuni (basate su una scarsa comprensione di sistemi complessi) secondo cui sarebbe possibile decarbonizzare la fornitura di energia globale in tempi brevi, e che basteranno appena due o tre decenni per arrivare a fare affidamento esclusivo sulle energie rinnovabili. Ma sebbene una percentuale sempre maggiore della produzione di elettricità sia dovuta all’uso delle nuove fonti rinnovabili (energia solare ed eolica, invece che la consolidata energia idroelettrica) e il numero di auto elettriche presenti sulle strade sia in aumento, decarbonizzare il trasporto merci su gomma, per via aerea e via mare costituisce una sfida ben piú grande, cosí come la produzione di materie chiave senza ricorrere all’utilizzo di combustibili fossili.


Il Secondo capitolo tratta la piú elementare necessità per la nostra sopravvivenza: la produzione di cibo. Si focalizza su come ciò su cui facciamo affidamento per la nostra sussistenza, dal grano ai pomodori, fino ai gamberetti, abbia una caratteristica comune: richiede l’impiego, diretto o indiretto, di quantità considerevoli di combustibili fossili. Prendere coscienza di questa fondamentale dipendenza dai combustibili fossili ci porta ad avere un’idea realistica del nostro costante bisogno di carbonio fossile: è relativamente facile generare energia elettrica per mezzo di turbine eoliche o pannelli solari, invece che bruciare carbone o gas naturale, ma sarebbe molto piú difficile far funzionare tutti i macchinari agricoli senza l’ausilio dei combustibili fossili allo stato liquido o produrre tutti i fertilizzanti necessari e altri prodotti agrochimici senza petrolio e gas naturale. In breve, per decenni sarà impossibile nutrire adeguatamente il pianeta senza l’impiego di combustibili fossili come fonti di energia e materie prime.


Il Terzo capitolo illustra come le nostre società si reggono in piedi grazie a materiali frutto dell’ingegno umano, focalizzandosi su quelli che chiamo i quattro pilastri della civiltà moderna: ammoniaca, acciaio, calcestruzzo e plastica. Comprendere questa realtà ci rivela la natura ingannevole di tante dichiarazioni oggi di moda sulla smaterializzazione delle economie moderne, che sarebbero dominate dal settore dei servizi e da dispositivi elettronici miniaturizzati. Il declino relativo della quantità di materia necessaria per unità di molti prodotti finiti è stata una delle tendenze che hanno definito il moderno sviluppo industriale. Ma in termini assoluti, la domanda di materie prime è cresciuta anche nelle società piú ricche, e resta ben al di sotto di qualsiasi immaginabile livello di saturazione nei Paesi a basso reddito, dove possedere appartamenti costruiti bene, elettrodomestici per la cucina e impianti per l’aria condizionata (per non parlare delle automobili) resta soltanto un sogno per miliardi di persone.


Il Quarto capitolo è una storia della globalizzazione, o di come il mondo sia divenuto cosí interconnesso attraverso lo sviluppo dei trasporti e della comunicazione. Una prospettiva storica che ci mostra quanto in là nel passato (o nel passato remoto) bisogna andare per rintracciare le origini di questo processo, e quanto recente sia la sua forma piú compiuta e finalmente davvero globale. E uno sguardo piú ravvicinato rende chiaro come non ci sia niente di inevitabile nel corso futuro di questo fenomeno percepito in maniera cosí ambivalente (molto elogiato, molto discusso e molto criticato). Di recente, in diverse parti del mondo si è potuto osservare un chiaro arretramento e una tendenza generale verso il populismo e il nazionalismo, ma non è chiaro per quanto ancora questa continuerà, e fino a che punto le svolte ormai realizzate potranno essere alterate, per via di una combinazione di considerazioni economiche, di sicurezza e politiche.


Il Quinto capitolo ci fornisce gli strumenti per inquadrare realisticamente i rischi a cui ci esponiamo: le società moderne sono riuscite a eliminare o ridurre molti rischi in precedenza mortali o gravemente debilitanti – la poliomielite e i pericoli associati al parto, ad esempio – ma molti altri resteranno per sempre con noi, e continuiamo a valutarli in modo scorretto, sottovalutandoli o esagerandoli. Dopo la lettura di questo capitolo, vi sarete fatti una buona idea del rischio relativo a cui comunemente ci esponiamo attraverso azioni volontarie o involontarie (dalle cadute dagli edifici ai voli intercontinentali; dall’abitare in una città a rischio di uragani all’hobby del paracadutismo). E, tenendoci alla larga dalle sciocchezze propagandate dall’industria dietetica, scopriremo una gamma di opzioni alimentari che possono esserci d’aiuto per vivere piú a lungo.


Il Sesto capitolo guarderà in prima battuta a come le trasformazioni ambientali potrebbero ripercuotersi sulle nostre tre necessità esistenziali: l’ossigeno, l’acqua e il cibo. Il resto del capitolo si concentrerà sul riscaldamento globale, fenomeno che ha dominato i recenti timori relativi all’ambiente e ha portato, da una parte, all’emergere di un nuovo – quasi apocalittico – catastrofismo, e dall’altra alla totale negazione del fenomeno stesso. Invece di riportare o giudicare la validità di queste tesi cosí discusse (molti libri l’hanno già fatto), insisterò su come, contrariamente alla percezione comune, non si tratti di un fenomeno scoperto di recente: è da oltre centocinquant’anni che abbiamo compreso i meccanismi fondamentali che vi stanno dietro.


Inoltre, è da piú di un secolo che siamo al corrente dell’effettivo incremento della temperatura associato al raddoppio della CO2 atmosferica, e oltre mezzo secolo fa eravamo stati messi in guardia sulla natura senza precedenti (e irripetibile) di questo esperimento planetario (è dal 1958 che vengono eseguite ininterrotte e accurate misurazioni del livello di CO2 nell’aria). Ma abbiamo scelto di ignorare queste spiegazioni, avvertimenti e fatti documentati. Anzi abbiamo aumentato la nostra dipendenza dal consumo di combustibili fossili, e cosí riuscire a superarla sarà ancora piú difficile e costoso. Quanto rapidamente potremmo invertire la rotta non è chiaro. Se a questo aggiungiamo tutte le altre preoccupazioni per l’ambiente, dobbiamo concludere che l’interrogativo cruciale per la nostra esistenza – può l’umanità realizzare le proprie aspirazioni senza violare i limiti imposti dalla nostra biosfera? – non ha una risposta facile. Ma è imperativo comprendere i fatti, soltanto allora potremo affrontare il problema in maniera efficace.


Nell’ultimo capitolo del libro poserò lo sguardo su quello che ci prospetta il futuro, piú specificatamente sulle due tendenze opposte sorte di recente, quella che ci spinge ad abbracciare il pensiero catastrofista (figlia di chi sostiene che sia soltanto questione di anni prima che sulla civiltà moderna cali il sipario) e quella verso un pensiero tecno-ottimista (sostenuta dalle previsioni di chi crede che il potere dell’ingegno umano ci aprirà orizzonti oltre i confini terrestri, rendendo irrilevanti le sfide poste dal nostro pianeta). Non sorprende che entrambe le posizioni siano per me di scarsa utilità, nessuna di esse mi appare piú plausibile dell’altra. Non vedo alcuna imminente deviazione dal normale tracciato della storia umana in nessuna di queste direzioni; non vedo sviluppi futuri predeterminati, ma piuttosto una complicata traiettoria subordinata alle decisioni – per le quali il tempo non è ancora scaduto – che prenderemo.

Questo libro si regge su due pilastri fondamentali: un numero abbondante di scoperte scientifiche e, da parte mia, mezzo secolo di ricerca e scrittura. Le prime spaziano da contributi emblematici come le pionieristiche descrizioni dei meccanismi di conversione dell’energia e degli effetti dei gas serra formulate nel XIX secolo, fino alle ultimissime valutazioni relative alle sfide globali che ci attendono e alla stima dei rischi che corriamo. Non avrei potuto scrivere un libro con un cosí ampio campo di indagine senza avere alle spalle decenni di studi interdisciplinari distillati nei tanti altri miei libri. Invece che affidarmi all’antica dicotomia tra volpi e ricci (una volpe conosce molte cose, un riccio conosce un’unica ma grande cosa), tendo a vedere gli scienziati moderni o come degli scavatori di buchi sempre piú profondi (quella che oggi è la via dominante per ottenere fama) o come scrutatori di vasti orizzonti (ormai un gruppo molto ristretto).

Scavare il buco piú profondo possibile e divenire il maestro insuperato di un piccolo frammento di cielo visibile dal fondo di esso è una prospettiva che non mi ha mai attratto. Ho sempre preferito scrutare quanto piú in lungo e in largo era permesso dalle mie capacità. Il campo di studi principale è stata l’energia, perché per comprenderla in modo soddisfacente è necessario combinare elementi di fisica, chimica, biologia, geologia e ingegneria, facendo attenzione alla storia e ai fattori sociali, economici e politici.

Quasi la metà dei miei ormai oltre quaranta libri (nella maggior parte dei casi di stampo piú accademico) affronta diversi aspetti dell’energia, da ampie indagini generali o sul suo ruolo attraverso la storia, fino a esami piú ravvicinati delle differenti categorie di combustibili (petrolio, gas naturale, biomassa) e di specifiche proprietà e processi (densità energetica, transizione energetica). Il resto della mia produzione tradisce la natura interdisciplinare di molte mie ricerche: ho scritto di fenomeni fondamentali come la crescita – in tutte le sue forme, naturali e antropiche – e di rischio; ma anche a proposito dell’ambiente (la biosfera, i cicli biogeochimici, l’ecologia globale, l’economia energetica del processo di fotosintesi, i raccolti agricoli), del cibo e dell’agricoltura, dei materiali (soprattutto dell’acciaio e dei fertilizzanti), dei progressi tecnologici, dello sviluppo e del declino del settore manifatturiero, cosí come della storia dell’antica Roma e di quella dell’America moderna, senza dimenticare l’alimentazione giapponese.

Inevitabilmente, questo libro – il prodotto del lavoro di tutta una vita e scritto per un pubblico non specialistico – rappresenta la continuazione di una lunga ricerca finalizzata alla comprensione delle realtà che stanno alla base della biosfera, della storia e del mondo che abbiamo creato. E inoltre promuove, ancora una volta, l’idea che ho promosso per decenni: sostiene cioè che ci si debba allontanare da posizioni estreme. I fautori di queste posizioni (sempre piú sguaiati nonché fonti di maggiore confusione) rimarranno delusi: qui non troverete le grida di dolore di chi pensa che il mondo finirà nel 2030 né l’infatuazione per le capacità rivoluzionarie di un’intelligenza artificiale che si suppone arriverà prima di quanto immaginiamo. Al contrario, questo libro intende fornire le basi per un punto di vista piú misurato e necessariamente agnostico. Spero che il mio approccio razionale e concreto risulti d’aiuto ai lettori per capire come funziona veramente il mondo, e quali sono le probabilità di vedere offerte prospettive migliori alle generazioni future.


Ma prima di tuffarci negli argomenti affrontati piú nello specifico, ho un avvertimento da fare e anche una possibile richiesta. Questo libro pullula di cifre (tutte calcolate utilizzando il sistema metrico) perché la realtà del mondo moderno non può essere compresa solamente attraverso descrizioni di tipo qualitativo. Molti numeri in questo libro sono, inevitabilmente, molto grandi o molti piccoli, e un tale tipo di dati è meglio osservarlo in base ai diversi ordini di grandezza, indicati dai prefissi validi in tutto il mondo. In caso non si abbia una preparazione in proposito, di ciò si occupa l’Appendice, finalizzata ad aiutare la comprensione del valore dei numeri, grandi o piccoli che siano, pertanto alcuni lettori potrebbero trovare utile iniziare a leggere questo libro dalla fine. Altrimenti, ci vediamo al Primo capitolo per uno sguardo ravvicinato e di tipo quantitativo alle diverse forme di energia. Un punto di vista che non dovrebbe mai passare di moda.

1.


Comprendere l’energia

Combustibili ed elettricità


Immaginate il soggetto per un film di fantascienza: nessun viaggio verso pianeti lontani alla ricerca di forme di vita extraterrestri, sono invece la Terra e i suoi abitanti a essere sotto osservazione da parte di una civiltà straordinariamente sapiente che invia sonde nelle galassie vicine alla loro. Per quale motivo lo fanno? Soltanto per la soddisfazione di coltivare una conoscenza sistemica, e magari anche per evitare spiacevoli sorprese, dovesse il terzo pianeta nell’orbita di una stella insignificante rappresentare prima o poi una minaccia, o per avere una seconda casa, in caso di bisogno. Cosí, ecco che questa civiltà prende regolarmente nota di ciò che succede sulla Terra.


Immaginiamo che una sonda si avventuri sul nostro pianeta ogni cento anni e che sia programmata per eseguire un esame piú attento solamente quando registra un tipo di conversione energetica – il passaggio da una forma di energia all’altra – prima di allora mai osservato o un nuovo fenomeno fisico dovuto alla prima. In termini di fisica basilare, qualsiasi processo – la pioggia, un’eruzione vulcanica, la crescita delle piante, la predazione animale, o lo sviluppo dell’intelletto umano – può essere definito come una sequenza di conversioni energetiche, e per qualche centinaio di milioni di anni a seguito alla formazione del pianeta Terra, le sonde avrebbero osservato sempre lo stesso insieme vario, ma in definitiva monotono, di eruzioni vulcaniche, terremoti e tempeste atmosferiche.


Svolte radicali.


I primi microorganismi emergono intorno a 4 miliardi di anni fa ma le sonde non ne registrano la comparsa, dato che queste forme di vita sono rare e nascoste, legate alle sorgenti idrotermali alcaline presenti sul fondale oceanico. La prima occasione per uno sguardo piú ravvicinato si ha circa 3,5 miliardi di anni fa, quando una sonda di passaggio prende nota dei primi microbi monocellulari semplici capaci di fotosintesi, presenti dove le acque sono meno profonde: assorbono radiazioni a una lunghezza d’onda simile a quella dei raggi infrarossi – collocati appena oltre lo spettro della luce visibile – e non producono ossigeno1. Devono passare centinaia di milioni di anni senza alcun segno di cambiamento prima che i cianobatteri inizino a utilizzare l’energia delle radiazioni solari visibili per convertire CO2 e acqua in inediti composti organici ed emettere ossigeno2.


Si tratta di una svolta radicale che è all’origine dell’atmosfera ossigenata della Terra, tuttavia dovrà passare molto tempo prima di vedere comparire, 1,2 miliardi di anni fa, dei nuovi e piú complessi organismi acquatici, quando le sonde documentano l’emergere e la diffusione di alghe rosse dai colori brillanti (per via del pigmento fotosintetico conosciuto come ficoeritrina) e di alghe marroni di dimensioni molto piú grandi. Le alghe verdi fanno la loro comparsa circa mezzo miliardo di anni piú tardi, e a causa della proliferazione di piante acquatiche le sonde vengono dotate di sensori migliori, pensati per monitorare il fondale marino. L’investimento darà i suoi frutti, oltre 600 milioni di anni fa le sonde compiono un’altra scoperta epocale: l’esistenza dei primi organismi formati da cellule differenziate. Queste creature piatte e soffici che abitano sul fondo del mare (conosciute come fauna di Ediacara, in riferimento alle omonime colline australiane dove sono stati rinvenuti alcuni dei loro fossili) sono i primi animali ad avere bisogno di ossigeno per il funzionamento del loro metabolismo e, a differenza delle alghe che possono solamente essere sospinte dalle onde e dalle correnti, sono in grado di muoversi autonomamente3.


Successivamente le sonde aliene iniziano a documentare quelle che, in confronto, sono trasformazioni molto rapide: invece di sorvolare continenti privi di vita e dover attendere centinaia di milioni di anni prima di rilevare una nuova svolta epocale, iniziano a registrare ondate di processi di emergenza, diffusione ed estinzione di un’enorme varietà di specie differenti. Al principio di questo periodo geologico si ha l’esplosione cambriana, ovvero la comparsa improvvisa di piccole creature marine abitanti dei fondali (541 milioni di anni fa, con i trilobiti inizialmente predominanti) a cui seguono i primi esemplari di pesci, anfibi, piante terrestri e animali quadrupedi (e perciò dotati di una straordinaria capacità di movimento). Estinzioni periodiche riducono, e a volte quasi cancellano, tale varietà biologica, e persino 6 milioni di anni fa le sonde aliene ancora non vedono alcun tipo di organismo dominare il pianeta4. Non molto tempo dopo le sonde rischiano di non rilevare il valore di una svolta nella meccanica del movimento, una svolta con enormi implicazioni dal punto di vista energetico: molti quadrupedi iniziano ad alzarsi per dei brevi momenti su due zampe e avanzare goffamente, e piú di 4 milioni di anni fa questa forma di locomozione diventa la norma per delle creature di modeste dimensioni simili alle scimmie che iniziano a spendere sempre piú tempo a terra invece che sugli alberi5.


Adesso gli intervalli di tempo che separano gli avvenimenti degni di nota segnalati alla nave madre non sono piú di centinaia di milioni, ma di appena centinaia di migliaia, di anni. E alla fine i discendenti di quei precoci bipedi (li classifichiamo come hominini, appartenenti al genere homo, nel lungo solco dei nostri antenati) fanno qualcosa che li posiziona su una traiettoria accelerata per il dominio del pianeta. Diverse centinaia di migliaia di anni fa, le sonde rilevano il primo utilizzo extrasomatico di energia – esterno al proprio corpo, ovvero, qualsiasi tipo di conversione energetica che non sia la digestione del cibo – quando alcuni di questi bipedi imparano a padroneggiare il fuoco e cominciano a utilizzarlo di proposito per cucinare, per il proprio benessere e per la propria sicurezza6. Un processo di combustione controllata che converte l’energia chimica contenuta nelle piante in energia termica e luce, permettendo cosí agli hominini di mangiare alimenti prima di allora difficili da digerire, di riscaldarsi nelle notti fredde e di tenere a distanza gli animali pericolosi7. Sono i primi passi verso la capacità di modellare e controllare deliberatamente l’ambiente su una scala senza precedenti.


Una tendenza che si intensifica con un secondo importante sviluppo, l’adozione della pratica della coltivazione delle piante. Circa diecimila anni fa, le sonde registrano il formarsi dei primi appezzamenti di terreno coltivato di proposito, cosí che una piccola parte dell’intero processo di fotosintesi che avviene sulla Terra viene controllato e manipolato dagli umani che addomesticano – selezionano, piantano, coltivano e raccolgono – colture diverse per il proprio (differito) vantaggio8. In breve tempo seguiranno i primi animali addomesticati. Prima di allora, i muscoli umani erano gli unici motori disponibili – gli unici strumenti, cioè, in grado di convertire energia chimica (derivata dal cibo) in energia cinetica (meccanica) necessaria per il lavoro fisico. L’addomesticamento degli animali da lavoro, che ha avuto inizio con quello dei bovini circa 9.000 anni fa, mette per la prima volta a disposizione dell’uomo dell’energia extrasomatica oltre a quella dei suoi muscoli: gli animali vengono utilizzati per il lavoro nei campi, per sollevare acqua dai pozzi, per trasportare carichi e persone9. E molto piú tardi sarebbero apparsi i primi motori inanimati: le barche a vela, oltre cinquemila anni fa, i mulini ad acqua, oltre duemila anni fa; e i mulini a vento, oltre un migliaio di anni fa10.


In seguito le sonde non hanno piú molto da osservare, si ha un’altra fase di (relativo) rallentamento: secolo dopo secolo, si susseguono soltanto ripetizione e stagnazione, o la lenta crescita e diffusione di queste forme di conversione dell’energia da tempo presenti. Nelle Americhe e in Australia (dove non c’è alcun tipo di animale da tiro o di semplice motore meccanico), prima dell’arrivo degli europei qualsiasi tipo di lavoro viene eseguito utilizzando i muscoli umani. Mentre in alcune regioni del Vecchio Mondo preindustriale sono gli animali imbrigliati, il vento e i corsi o le cascate d’acqua a fornire l’energia necessaria alla macinazione dei cereali attraverso i mulini, ai processi di frangitura per ricavare l’olio, alla frantumazione, alla lavorazione dei metalli, e le bestie da tiro divengono indispensabili per il lavoro nei campi (l’aratura in particolare, mentre la raccolta è ancora eseguita manualmente), per il trasporto dei beni e per combattere le guerre.


Ma a questo punto, persino nelle società che dispongono di animali addomesticati e di motori meccanici, gran parte del lavoro è ancora eseguito dalle persone. Secondo le mie stime, calcolate basandomi per forza di cose su approssimazioni dei numeri totali di animali e persone impiegate in passato, e presumendo un volume di lavoro quotidiano tipico in base alle moderne misurazioni dello sforzo fisico necessario, risulta che – sia che ci troviamo agli inizi del secondo millennio dopo Cristo o 500 anni piú tardi (nel 1500, al principio dell’età moderna) – oltre il 90 per cento di tutta l’energia meccanica utile era fornita da esseri viventi, suddivisa in misura piú o meno uguale tra quella proveniente da persone e quella proveniente da animali, mentre tutta l’energia termica derivava dall’uso di combustibili di origine vegetale (principalmente legna e carbone vegetale, ma anche paglia e sterco essiccato).


Senonché nel 1600 la sonda aliena si attiva notando un fenomeno inedito. Piuttosto che fare affidamento solamente sulla legna, una società isolana brucia, in quantità sempre maggiori, carbone, un tipo di combustibile prodotto da processi di fotosintesi avvenuti decine o centinaia di milioni di anni fa, fossilizzatosi a causa del calore e della pressione a cui è stato sottoposto durante il lungo periodo di conservazione sotterranea. Le migliori ricostruzioni storiche mostrano che in Inghilterra il carbone ha superato i combustibili derivati dalle biomasse (biocarburanti) come fonte di calore intorno al 1620 (forse persino prima); nel 1650 la combustione di carbonio fossile fornisce due terzi di tutta l’energia termica; e il 75 per cento nel 170011. L’Inghilterra ha un vantaggio straordinario: tutti i giacimenti di carbone che renderanno il Regno Unito la principale economia del XIX secolo vengono sfruttati da prima del 164012. Successivamente, nei primissimi anni del XVIII secolo, in alcune miniere si iniziano a utilizzare macchine a vapore, i primi motori alimentati attraverso la combustione di combustibili fossili.


Questi primi modelli sono cosí inefficienti che possono essere impiegati solamente nelle miniere dove una riserva di combustibile è immediatamente disponibile e non richiede alcun trasporto13. Ma il Regno Unito resta ancora per generazioni la nazione piú interessante per i sensori della sonda aliena, essendo la prima nazione a adottare questa tecnologia. Persino nel 1800 il volume combinato del carbone estratto in alcuni dei Paesi dell’Europa e negli Stati Uniti è soltanto una frazione di quello britannico.


Una sonda registrerà che, su tutto il pianeta, nel 1800, i combustibili vegetali forniscono ancora oltre il 98 per cento di tutto il calore e la luce utilizzata dalla specie bipede dominante, e i muscoli umani e animali procurano oltre il 90 per cento di tutta l’energia meccanica necessaria alla produzione di cibo, all’edilizia e alla manifattura. Nel Regno Unito, dove negli anni Settanta del Settecento James Watt ha presentato una versione migliorata della macchina a vapore, la Boulton & Watt inizia ad assemblare motori la cui potenza media equivale a quella di venticinque cavalli particolarmente in forma, ma nel 1800 le unità vendute fino ad allora sono meno di cinquecento, intaccando soltanto marginalmente la porzione di potenza totale fornita da cavalli e lavoro manuale14.


Nel 1850, l’estrazione del carbone in Europa e nell’America del Nord è sí in crescita, ma ancora non fornisce piú del 7 per cento di tutta l’energia ricavata da combustibili, quasi metà di tutta l’energia cinetica utile deriva dagli animali da tiro, circa il 40 per cento dai muscoli umani, e appena il 15 dalle tre tipologie di motori inanimati: mulini ad acqua, mulini a vento e macchine a vapore, che lentamente si stanno diffondendo. Il mondo del 1850 ha molti piú aspetti in comune con il mondo del 1700 o persino con quello del 1600 piuttosto che con quello dell’anno 2000.


Ma nel 1900 la quota globale di energia ricavata dai combustibili fossili e rinnovabili e dai motori è considerevolmente mutata, al punto che le moderne fonti di energia (carbone e in una certa misura il greggio) forniscono metà di tutta l’energia primaria e i carburanti tradizionali (legna, carbone vegetale, paglia) l’altra metà. Le turbine idrauliche delle centrali idroelettriche generano per la prima volta elettricità primaria negli anni Ottanta dell’Ottocento; piú tardi è il momento dell’elettricità derivata dall’energia geotermica, e dopo la Seconda guerra mondiale di quella ricavata dall’energia nucleare, solare ed eolica (le nuove rinnovabili). Ma nel 2020 oltre la metà di tutta l’energia elettrica del mondo sarà ancora generata bruciando combustibili fossili, in gran parte carbone e gas naturale.


Nel 1900 i motori inanimati forniscono circa metà di tutta l’energia meccanica: le turbine alimentate con il vapore generato dalla combustione del carbone dànno il contributo piú grande, seguite da mulini ad acqua piú sofisticati del passato e dalle nuove turbine idrauliche (i primi modelli risalgono agli anni Trenta dell’Ottocento), dai mulini a vento e dalle nuovissime turbine a vapore (a partire dalla fine degli anni Ottanta dell’Ottocento), e infine dai motori a combustione interna (alimentati a benzina, anche questi introdotti negli anni Ottanta dell’Ottocento)15.


Nel 1950 i combustibili fossili forniscono quasi tre quarti di tutta l’energia primaria (il carbone resta dominante), e i motori inanimati – tra i quali ormai ai primi posti troviamo quelli a combustione interna alimentati a benzina o gasolio – forniscono oltre l’80 per cento di tutta l’energia meccanica. E nel 2000 soltanto chi vive in povertà in Paesi a basso reddito dipende dai combustibili derivati dalle biomasse, con legna e paglia che forniscono solamente il 12 per cento circa di tutta l’energia primaria del mondo. I motori animati producono oramai solamente il 5 per cento dell’energia meccanica, gli sforzi fisici degli umani e il lavoro degli animali da tiro sono stati quasi completamente sostituiti da macchine alimentate a combustibili liquidi o per mezzo di motori elettrici.


Nel corso degli ultimi due secoli, le sonde aliene sono state testimoni di un rapido processo di sostituzione delle diverse fonti di energia primaria, accompagnato dall’espansione e dalla diversificazione della fornitura di energia fossile, e da un non meno rapido processo di introduzione, adozione e crescita di potenza dei nuovi motori inanimati – in prima battuta quelli a vapore, derivato dalla combustione del carbone, a cui sono seguiti i motori a combustione interna (i motori a pistoni e le turbine). Se visitassero il nostro pianeta un’ultima volta, osserverebbero una società realmente globale, fondata su sistemi di conversione del carbonio fossile operanti su vasta scala, stazionari e mobili, impiegati dovunque tranne che in alcune regioni disabitate.


I moderni utilizzi dell’energia.


Che differenza ha fatto questa enorme mobilitazione di fonti energetiche extrasomatiche? Con fornitura di energia primaria globale di solito ci si riferisce alla produzione (lorda) totale, ma è piú istruttivo guardare all’energia che è effettivamente disponibile per essere convertita in forme da noi utilizzabili. Per farlo, dobbiamo sottrarre le perdite che avvengono prima del momento del consumo effettivo (durante le fasi di selezione e pulizia del carbone, di raffinazione del greggio, e di lavorazione del gas naturale), ma anche le risorse che non vengono utilizzate a scopo energetico (principalmente nella forma di materie da utilizzare come ingredienti per l’industria chimica, o in quella di lubrificanti per diversi tipi di macchine, dalle pompe industriali alle turbine degli aerei, ma anche come materiali per la pavimentazione delle strade), e le perdite che si verificano durante la trasmissione dell’elettricità. Con questi aggiustamenti – e arrotondando pesantemente il risultato in modo da evitare di dare un’ingiustificata impressione di accuratezza – secondo i miei calcoli il consumo di combustibili fossili durante il XIX secolo è cresciuto di 60 volte, di 16 volte nel corso del XX, e di circa 1.500 volte negli ultimi 220 anni16.


La crescente dipendenza dai combustibili fossili è il fattore piú importante per spiegare i progressi compiuti dalla civiltà moderna – cosí come i nostri timori impliciti relativi alla loro disponibilità e all’impatto ambientale associato alla loro combustione. In realtà, l’energia a nostra disposizione è cresciuta molto piú delle 1.500 appena nominate, se prendiamo in considerazione anche il concomitante aumento dei tassi medi di efficienza di conversione17. Nel 1800, la combustione del carbone che avveniva nei forni e nelle caldaie, per generare calore e scaldare l’acqua, non aveva un rendimento superiore al 25-30 per cento, e solamente il 2 per cento del carbone consumato dalle macchine a vapore veniva convertito in lavoro utile, con un’efficienza di conversione complessiva non superiore al 15 per cento. Un secolo dopo, fornelli, caldaie e motori di migliore qualità avevano portato l’efficienza complessiva a quasi il 20 per cento, e per l’anno 2000 il tasso medio di conversione era di circa il 50. Di conseguenza, il XX secolo ha visto la quantità di energia utile a nostra disposizione aumentare di quasi 40 volte; mentre dal 1800 è aumentata di 3.500 volte circa.


Per farsi un’idea ancora piú chiara dell’entità di tali trasformazioni, queste proporzioni andrebbero espresse in termini pro capite. La popolazione globale è passata da 1 miliardo di persone nel 1800, a 1,6 miliardi nel 1900, fino a 6,1 miliardi nel 2000, e pertanto l’energia utile a nostra disposizione è cresciuta da una media di 0,05 gigajoule pro capite nel 1800, passando per i 2,7 del 1900, e arrivando ai 28 nell’anno 2000. L’ascesa post 2000 sul palcoscenico mondiale della Cina ha costituito la ragione principale per un ulteriore incremento della fornitura mondiale, giunta a circa 34 GJ pro capite nel 2020. In media un abitante della Terra dispone oggigiorno di quasi 700 volte l’energia dei suoi avi degli inizi del XIX secolo.


Inoltre, nel corso della vita di una persona nata appena dopo la fine della Seconda guerra mondiale, questo valore è piú che triplicato, da circa 10 a 34 GJ a persona tra il 1950 e il 2020. Volendo tradurre quest’ultima cifra in qualcosa di piú facile da visualizzare, è come se l’abitante medio della Terra avesse ogni anno a propria personale disposizione circa 800 chilogrammi (0,8 tonnellate, quasi sei barili) di petrolio greggio, o circa 1,5 tonnellate di litantrace bituminoso (un tipo di carbone) di buona qualità. Mentre in termini di lavoro fisico, è come ci fossero 60 uomini adulti impegnati a lavorare senza alcuna interruzione, giorno e notte, per ogni singola persona; e per gli abitanti dei Paesi ricchi, il numero di uomini impegnati in un incessante lavorio sarebbe, a seconda del Paese specifico, in genere tra i 200 e i 240. In media, oggi gli umani hanno accesso a quantitativi di energia senza precedenti.


Le conseguenze in termini di sforzo umano, di numero di ore impiegate nel lavoro, di tempo dedicato al piacere e di standard di vita complessivo, sono ovvie. È l’abbondanza di energia utile che spiega, e da cui dipendono, tutti i progressi compiuti, divenuti nei Paesi ricchi la norma invece che l’eccezione: da una migliore alimentazione al viaggio di piacere come fenomeno di massa; dalla meccanizzazione della produzione e del trasporto delle merci ai sistemi personali di comunicazione elettronica istantanea. L’entità dello sviluppo che si è registrato in tempi recenti nelle diverse nazioni può variare molto, ovviamente: è inferiore nei Paesi ad alto reddito il cui consumo energetico pro capite era già relativamente elevato un secolo fa, mentre è superiore nelle nazioni in cui si è osservato un processo di rapidissima modernizzazione dell’economia a partire dal 1950, in particolar modo in Giappone, nella Corea del Sud e in Cina. Tra il 1950 e il 2020 gli Stati Uniti hanno all’incirca raddoppiato la quantità di energia utile pro capite messa a disposizione attraverso i combustibili fossili e l’energia elettrica primaria (fino a raggiungere i 150 gigajoule circa); in Giappone, lo stesso valore è piú che quintuplicato (fino a quasi 80 GJ pro capite), e la Cina ha visto un’impressionante crescita di oltre 120 volte il valore di partenza (fino ad avvicinarsi ai 50 GJ pro capite)18.


Tracciare la traiettoria delle fonti di energia che vengono installate è istruttivo perché l’energia non è semplicemente un’altra componente delle strutture complesse che costituiscono la biosfera, le società umane e le loro economie, o soltanto una variabile come tante all’interno delle intricate equazioni che determinano l’evoluzione di questi sistemi interconnessi. I processi di conversione dell’energia sono le fondamenta della vita e dell’evoluzione delle sue forme. La storia moderna può essere vista come una sequenza insolitamente rapida di transizioni verso nuove fonti di energia, e il mondo moderno è il risultato complessivo della loro conversione.


I fisici furono i primi a riconoscere il ruolo di fondamentale importanza che l’energia riveste negli affari umani. Nel 1886, Ludwig Boltzmann, uno dei fondatori della termodinamica, parlò dell’energia libera – l’energia disponibile per la conversione – come del Kampfobjekt (l’oggetto della lotta) della vita, la quale dipende fortemente dalle radiazioni solari che raggiungono la Terra19. Erwin Schrödinger, vincitore del premio Nobel per la Fisica nel 1933, sintetizzò con queste parole le basi della vita: «Ciò di cui si nutre un organismo è l’entropia negativa» (entropia negativa o neghentropia = energia libera)20. Negli anni Venti del Novecento, rifacendosi alle fondamentali intuizioni dei fisici che erano stati attivi nel XIX secolo e agli inizi del XX, il matematico e statistico Alfred Lotka giunse alla conclusione per cui gli organismi che meglio catturano l’energia disponibile godono di un vantaggio evolutivo21.


Al principio degli anni Settanta, l’ecologista americano Howard Odum spiegò che «qualsiasi progresso si deve a trasferimenti di energia, e il progresso si dissolve nell’aria quando e dove questi siano revocati»22. E, piú recentemente, il fisico Robert Ayres ha ripetutamente enfatizzato il ruolo centrale che l’energia riveste in qualsiasi economia: «il sistema economico è essenzialmente un sistema per l’estrazione, la lavorazione e la trasformazione dell’energia in forma di risorse naturali in energia incorporata in prodotti e servizi»23. Detto con molta semplicità, l’energia è l’unica valuta veramente universale, e niente può accadere (dalla rotazione delle galassie allo scorrere delle vite effimere degli insetti) senza i suoi processi di trasformazione24.


Considerati questi fatti facilmente verificabili, risulta difficile comprendere per quale ragione la teoria economica moderna, quel corpo di spiegazioni e precetti rispettati da individui la cui influenza sulle politiche pubbliche è maggiore di quella esercitata da qualsiasi altra categoria di esperti, ha in larga parte ignorato il tema dell’energia. Come ha osservato Ayres, le scienze economiche non solo mancano di una qualsiasi consapevolezza sistematica dell’importanza rivestita dall’energia nel processo concreto di produzione, ma presuppongono che «l’energia non conti (molto), dato che il costo dell’energia è una componente cosí piccola all’interno dell’economia che potrebbe essere ignorata […] come se la produzione fosse possibile per mezzo solamente del lavoro e del capitale – o come se l’energia stessa fosse soltanto una forma di capitale di origine umana che potrebbe essere prodotto (invece che estratto) per mezzo del lavoro e del capitale stesso»25.


Gli economisti moderni non vincono premi e riconoscimenti per essersi occupati di energia, e le società contemporanee se ne preoccupano soltanto una volta che le riserve di una delle sue principali forme commerciali appaiono minacciate con il conseguente aumento di prezzo. Ngram Viewer, un servizio offerto da Google che ci permette di conoscere la popolarità dei termini e delle espressioni apparse su carta stampata nel periodo di tempo compreso tra il 1500 e il 2019, illustra bene questo punto: nel corso del XX secolo la frequenza d’uso dell’espressione «prezzo dell’energia» è rimasta piuttosto insignificante, fino a quando, nei primi anni Settanta del Novecento, non si registra una svolta improvvisa (causata dalla decisione dell’Opec di quintuplicare il prezzo del greggio; dettagli al riguardo si trovano piú avanti in questo capitolo) con un picco nei primi anni Ottanta. Una volta che i prezzi sono nuovamente calati, è seguito un declino analogamente repentino, e nel 2019 l’espressione «prezzo dell’energia» non veniva menzionata con una frequenza maggiore di quanto avvenisse nel 1972.


Non è possibile comprendere come funziona davvero il mondo senza avere un minimo di preparazione in campo energetico. In questo capitolo, per prima cosa spiegherò come l’energia possa essere difficile da definire, ma come sia invece facile evitare di commettere l’errore piuttosto comune di confonderla con la potenza. Vedremo come differenti forme di energia (ognuna caratterizzata da specifici vantaggi e svantaggi) e differenti densità energetiche (la quantità di energia per unità di massa o volume, un parametro cruciale per la conservazione e il trasporto) hanno influenzato differenti fasi di sviluppo economico, e offrirò valutazioni realistiche delle sfide poste dalla transizione in corso verso una società che faccia sempre meno affidamento sul carbonio fossile. Come vedremo, la nostra civiltà ha con i combustibili fossili un rapporto di dipendenza cosí profondo che il futuro processo di transizione richiederà molto piú tempo di quanto crede la maggior parte delle persone.


Che cos’è l’energia?


Come possiamo definire questa grandezza fondamentale? L’etimologia greca è chiara. Aristotele scrivendo la sua Metafisica ha combinato ἐν (in) con ἔργον (lavoro) e ha concluso che ogni oggetto si mantiene grazie all’ἐνέργεια26.Questa concezione conferiva a tutti gli oggetti un potenziale di azione, di movimento e di cambiamento – non una cattiva caratterizzazione di qualcosa che racchiude in sé la potenzialità di essere convertita in forme differenti, accada ciò per sollevamento, lancio o combustione.


Poco cambiò nei due millenni che seguirono. Almeno fino a quando Isaac Newton (1643-1727) formulò i principî fondamentali della fisica riguardanti la massa, la forza e il moto, e il suo secondo principio della dinamica permise di ricavare le unità di base dell’energia. Utilizzando le moderne unità di misura, 1 joule è la forza di 1 newton – vale a dire, una massa di 1 chilogrammo che subisce un’accelerazione di 1 m / s2 impressa lungo la distanza di 1 metro27. Ma è una definizione che fa riferimento soltanto all’energia cinetica (meccanica) e non ci fornisce di certo una comprensione intuitiva del concetto di energia in tutte le sue forme.


La nostra concezione pratica dell’energia fu largamente ampliata nel XVIII secolo grazie alla proliferazione di esperimenti sul processo di combustione, sul calore, sulle radiazioni e sul moto28. Cosí si arrivò a quella che ancora oggi è la definizione piú comune di energia: «la capacità di compiere lavoro». Una definizione valida solamente quando il termine «lavoro» non fa riferimento soltanto a del lavoro allocato bensí, per usare le parole di uno dei principali fisici dell’epoca, descrive un atto fisico generalizzato «che produce una variazione nella configurazione di un sistema in opposizione a una forza che resiste tale variazione»29. Ma anche questa spiegazione è ancora troppo newtoniana per essere intuitiva.


Non c’è modo migliore di rispondere alla domanda «che cos’è l’energia?» del rifarsi a uno dei piú fini intelletti tra i fisici del XX secolo – la mente proteiforme di Richard Feynman, il quale (nelle sue celebri lezioni di fisica) affrontò la questione con il suo usuale approccio diretto, insistendo sul fatto che «l’energia si presenta in svariate forme […] gravitazionale, cinetica, termica, elastica, elettrica, chimica, radiante, nucleare, di massa; ognuna ha un’espressione diversa».


Segue questa disarmante ma inappuntabile conclusione:


È importante rendersi conto del fatto che al momento, in fisica, non sappiamo che cos’è l’energia. Non abbiamo un modello in cui l’energia è quantizzata in «blocchi» di dimensione definita. Non è cosí. Tuttavia, ci sono espressioni per calcolare certe quantità numeriche, e quando le sommiamo tutte insieme il risultato è […] lo stesso numero. Si tratta di un’astrazione, e non di una spiegazione del meccanismo o del perché le espressioni siano proprio quelle30.


E cosí è. Possiamo usare formule matematiche per calcolare, con grande accuratezza, l’energia cinetica di una freccia in movimento o di un aeroplano in volo, o l’energia potenziale di un masso enorme sul punto di rotolare giú da una montagna, o l’energia termica rilasciata da una reazione chimica, o l’energia luminosa (radiante) della fiamma tremolante di una candela o quella emessa da un puntatore laser – ma non possiamo ridurre queste diverse forme di energia a una singola entità facile da descrivere per la nostra mente.


Ma il carattere elusivo dell’energia non ha scoraggiato i plotoni di esperti improvvisati: sin dai primi anni Settanta, quando le questioni energetiche hanno acquistato grande importanza nel dibattito pubblico, costoro non hanno mancato di esprimere la loro opinione su questi temi con ignorante fervore. L’energia è tra i concetti piú fraintesi e difficili da afferrare, e una scarsa padronanza dei fatti basilari che la riguardano è all’origine di molte illusioni e fantasie. Come abbiamo visto, l’energia esiste in varie forme, e per renderla da noi utilizzabile abbiamo bisogno di convertire una forma in un’altra. Ma trattare tale sfaccettata astrazione come si trattasse di un monolite è la norma, come se le differenti forme sotto cui si presenta fossero sostituibili tra loro senza richiedere alcuno sforzo.


Alcune di queste sostituzioni sono allo stesso tempo relativamente facili da realizzare e vantaggiose. Passare dalle candele (nelle quali l’energia chimica della cera viene trasformata in energia radiante) alle luci elettriche alimentate grazie all’elettricità generata da turbine a vapore (l’energia chimica dei combustibili viene trasformata prima in calore e poi in energia elettrica, che è a sua volta convertita in energia radiante) ci ha dato in cambio molti evidenti benefici (un tipo di energia piú sicuro, piú luminoso, piú conveniente e piú affidabile). Sostituire i treni a vapore o a gasolio con mezzi che si muovono sfruttando l’energia elettrica ci ha permesso di avere un sistema di trasporto piú conveniente, piú ecologico e piú veloce: tutti i moderni treni ad alta velocità sono elettrici. Ma molte delle sostituzioni auspicabili continuano ad avere costi maggiori, o resteranno possibili ma realisticamente non abbordabili per qualche tempo ancora, o sono impossibili da realizzare nella scala necessaria, non importa con quanta forza i loro promotori ne decantino le qualità.


Le automobili elettriche sono un esempio comune della prima categoria: oggigiorno sono facilmente disponibili e i modelli migliori sono abbastanza affidabili, ma nel 2020 venivano ancora vendute a un prezzo superiore a quello dei veicoli di dimensioni simili mossi da motori a combustione interna. Per quanto riguarda la seconda categoria, come racconterò dettagliatamente nel prossimo capitolo, il processo di sintesi dell’ammoniaca, necessaria per produrre fertilizzanti azotati, si basa massicciamente sul gas naturale come fonte di idrogeno. L’idrogeno potrebbe invece essere prodotto attraverso la scomposizione (elettrolisi) dell’acqua, ma questo metodo continua a costare quasi cinque volte tanto quello attraverso cui è possibile ricavarlo dal metano, un composto abbondante e a buon mercato – e ancora dobbiamo creare un’industria dell’idrogeno su vasta scala. Mentre voli a lungo raggio su aerei di linea alimentati a energia elettrica (equivalenti alla tratta Tokyo-New York su un Boeing 787 con motore a cherosene) costituiscono un eccezionale esempio dell’ultima categoria: come vedremo, si tratta di un tipo di transizione che rimarrà irrealistica per lungo tempo.


Il primo principio della termodinamica afferma che non c’è alcuna perdita di energia nel corso di un processo di conversione: sia che si tratti di energia chimica convertita in altra energia chimica durante la digestione del cibo; energia chimica convertita in energia meccanica con il movimento dei muscoli; energia chimica convertita in energia termica attraverso la combustione di gas naturale; energia termica convertita in energia meccanica con la rotazione di una turbina; energia meccanica convertita in energia elettrica all’interno di un generatore; o energia elettrica convertita in energia elettromagnetica come nel caso della luce che illumina le pagine del libro che state leggendo. Tuttavia, qualsiasi processo di conversione energetica comporta la dissipazione di una quantità di calore a bassa temperatura: non c’è stata alcuna perdita di energia, ma è la sua utilità, la sua capacità di realizzare lavoro utile, che è andata perduta (seconda legge della termodinamica)31.


Tutte le forme di energia possono essere misurate utilizzando la stessa unità, il joule; mentre le calorie sono spesso usate nei testi dei nutrizionisti. Nel prossimo capitolo, dopo che avrò illustrato gli enormi quantitativi energetici investiti nel sistema di produzione alimentare, ci confronteremo con la realtà, veramente esistenziale, delle diverse qualità di energia. Produrre carne di pollo richiede un quantitativo di energia complessivo di molte volte superiore a quello che alla fine risulta contenuto nella carne commestibile cosí ottenuta. Anche se possiamo calcolare il rapporto tra gli investimenti e il risultato finale in termini di quantitativi di energia (joule in entrata / joule in uscita), c’è ovviamente una differenza fondamentale tra input e output: noi non siamo in grado di digerire gasolio o energia elettrica, mentre la carne magra di pollo è un cibo quasi perfettamente digeribile, contenente proteine di alta qualità, un macronutriente indispensabile che non può essere sostituito da un equivalente combinazione di energia derivata da lipidi o carboidrati.


Possiamo scegliere tra tante forme diverse di conversione dell’energia, alcune decisamente migliori di altre. L’alta densità di energia chimica del cherosene e del gasolio si presta molto bene per i voli intercontinentali e la navigazione, ma se volete che il vostro sottomarino resti sommerso durante una traversata dell’Oceano Pacifico allora la scelta migliore è ricorrere alla fissione di uranio arricchito all’interno di un piccolo reattore per produrre energia elettrica32. E, tornando sulla terraferma, i reattori nucleari di grandi dimensioni sono gli strumenti piú affidabili per la produzione di elettricità: alcuni di loro possono oggigiorno generarla per il 90-95 per cento del tempo, in confronto a circa il 45 per cento delle migliori turbine eoliche installate in mare aperto e al 25 per cento delle celle fotovoltaiche anche se montate nelle località piú soleggiate, mentre i pannelli solari installati in Germania producono energia elettrica soltanto il 12 per cento del tempo circa33.


Si tratta di semplice fisica o elettrotecnica, ma è degno di nota quanto spesso questi dati di realtà vengano ignorati. Un altro errore comune è quello di confondere l’energia con la potenza, e questo avviene con sempre maggiore frequenza. Ciò tradisce un’ignoranza dei principi basilari della fisica, ignoranza che, purtroppo, non è limitata ai profani. L’energia è scalare, termine che in fisica indica una grandezza descrivibile soltanto dalla sua grandezza; volume, massa, densità e tempo sono altre grandezze scalari onnipresenti. La potenza misura l’energia in un’unità di tempo e perciò si tratta di un rapporto. Le centrali elettriche vengono comunemente descritte facendo riferimento alla potenza erogata – ma la potenza è semplicemente il rapporto che indica la produzione o il consumo di energia. La potenza equivale all’energia divisa per il tempo: la sua unità scientifica è il watt, equivalente ai joule divisi per i secondi (W=J/s). L’energia equivale alla potenza moltiplicata per il tempo (J=W×s). Se accendete un cero in una chiesa, la fiamma può durare anche per quindici ore, convertendo l’energia chimica della cera in calore (energia termica) e luce (energia elettromagnetica) con una potenza media di quasi 40 watt34.


Sfortunatamente, persino i testi di ingegneria scrivono spesso di «centrali elettriche che erogano 1.000 MW di energia elettrica», ma ciò è impossibile. Un impianto di produzione dell’elettricità può avere una potenza (nominale) installata di 1.000 megawatt – ovvero, può produrre elettricità a quel ritmo – ma una volta in funzione genererebbe 1.000 megawattora o (in unità basilari) 3.600 miliardi di joule all’ora (1 000 000 000 watt × 3.600 secondi). Analogamente, il ritmo metabolico di base di un uomo adulto (l’energia necessaria per eseguire le funzioni essenziali del corpo a riposo) è di circa 80 watt o 80 joule al secondo; stando disteso tutto il giorno un uomo di 70 chili avrebbe comunque bisogno di 7 megajoule (80 × 24 × 3.600) di energia ricavata dal cibo, o circa 1.650 chilocalorie, per mantenere stabile la temperatura del corpo, fornire energia al cuore ed eseguire una miriade di reazioni enzimatiche35.


Di recente una scarsa conoscenza del tema ha portato i fautori di un certo ecologismo a chiedere ingenuamente una transizione quasi istantanea, dagli abominevoli e inquinanti combustibili fossili, disponibili soltanto in quantità limitate, verso una forma di elettricità derivata dall’energia solare e quindi di qualità superiore, ecologica ed eternamente rinnovabile. Ma gli idrocarburi in forma liquida che vengono ricavati dalla raffinazione del petrolio greggio (la benzina, il cherosene utilizzato in aviazione, il gasolio, i distillati pesanti) hanno la piú alta densità energetica di tutti i combustibili abitualmente disponibili, e per questa ragione sono particolarmente adatti a fornire l’energia necessaria ai diversi mezzi di trasporto. Ecco a voi una scala della densità energetica (tutti i valori sono espressi in gigajoule per tonnellata): legna secca stagionata all’aria aperta, 16; litantrace bituminoso (a seconda della qualità), 24-30; cherosene e carburanti diesel, circa 46. In termini di volume invece (tutti i valori espressi in gigajoule per metro cubo), la densità energetica è soltanto 10 per il legno, 26 per del buon carbone, 38 per il cherosene. Il gas naturale (metano) contiene soltanto 35 MJ/m3, meno di 1 millesimo della densità del cherosene36.


Le implicazioni che porta con sé la densità energetica – cosí come le qualità fisiche dei carburante – per il settore dei trasporti sono evidenti. La navigazione intercontinentale su imbarcazioni mosse da motori a vapore non utilizzava la combustione del legname perché, a parità di condizioni, per la traversata dell’Atlantico la legna da ardere avrebbe richiesto 2,5 volte tanto lo spazio occupato dal litantrace (carbone) bituminoso di alta qualità (e sarebbe pesata almeno 50 volte di piú), riducendo enormemente la capacità della nave per il trasporto delle persone e delle merci. Non sarebbe possibile volare su un aeroplano alimentato a gas naturale, essendo la densità energetica del metano di tre ordini di grandezza inferiore a quella del cherosene per aerei, e neppure usare il carbone per lo stesso scopo – la differenza di densità non è cosí significativa, ma il carbone non riuscirebbe a scorrere dai serbatoi esterni dell’aeromobile e raggiungere i motori.


E i vantaggi offerti dai carburanti liquidi vanno ben oltre l’elevata densità energetica. A differenza del carbone, il petrolio greggio è molto piú facile da estrarre (non serve mandare minatori sottoterra o deturpare il paesaggio aprendo grosse voragini nel terreno), da stoccare (nelle cisterne o sotto il suolo – grazie all’alta densità, qualsiasi spazio chiuso in genere può contenere il 75 per cento in piú di energia nella forma di carburante liquido rispetto al carbone) e da distribuire (su scala intercontinentale per mezzo di petroliere e oleodotti, il metodo di trasporto a lungo raggio e su vasta scala piú sicuro), e pertanto è facilmente accessibile quando serve37.


Il greggio deve essere sottoposto a un processo di raffinazione per separare la complessa miscela di idrocarburi nei differenti tipi di carburanti: la benzina è il piú leggero, mentre i combustibili ricavati distillando ulteriormente i residui di una precedente raffinazione sono i piú pesanti – ma il risultato sono carburanti con usi specifici e prodotti di altro tipo come i lubrificanti.


Gli oli lubrificanti sono necessari per minimizzare l’attrito un po’ ovunque, dalle enormi turboventole montate sugli aerei a fusoliera larga ai minuscoli cuscinetti a sfera38. A livello globale, il consumo maggiore si ha in campo automobilistico, essendo oggi oltre 1,4 miliardi i veicoli su strada, seguito dall’uso industriale – i mercati piú grandi sono l’industria tessile, quella energetica, quella chimica e quella della lavorazione degli alimenti – e da quello nelle imbarcazioni per la navigazione oceanica. Il consumo annuale di questi composti supera i 120 milioni di tonnellate (per fare un confronto, la produzione globale complessiva degli oli per uso alimentare, da quello di oliva a quello di soia, si colloca oggi intorno ai 200 milioni di tonnellate all’anno), e dato che le alternative disponibili – lubrificanti sintetici ricavati da composti piú semplici, anche se spesso comunque a base di petrolio, invece che quelli derivati direttamente dal greggio – sono piú costose, la domanda crescerà ulteriormente con l’espansione mondiale di questi settori.


Un altro prodotto ricavato dal greggio è l’asfalto. La produzione globale di questa sostanza vischiosa e di colore nero è oggigiorno nell’ordine delle 100 milioni di tonnellate, di cui l’85 per cento finisce nella pavimentazione stradale (sotto forma di miscele di asfalto caldo) e il resto in gran parte nei tetti delle case39. Gli idrocarburi sono poi indispensabili in chimica, come materie prime per diversi processi di sintesi (le piú importanti sono l’etano, il propano e il butano, liquidi ricavati dal gas naturale) essenziali nella produzione di una vasta gamma di fibre sintetiche, resine, sostanze adesive, coloranti, vernici e rivestimenti, detergenti e pesticidi, tutti prodotti per diversi motivi vitali per il mondo contemporaneo40. Considerati questi suoi vantaggi e benefici, era prevedibile – di fatto inevitabile – che la nostra dipendenza dal petrolio greggio crescesse una volta che questo fosse divenuto meno costoso e una volta perfezionato il sistema per la sua distribuzione a livello globale.


La transizione dal carbone al greggio richiese generazioni per essere realizzata. Le prime attività estrattive commerciali risalgono agli anni Cinquanta dell’Ottocento in Russia, Canada e negli Stati Uniti. I pozzi petroliferi – scavati utilizzando l’antico metodo a percussione, che consisteva nel sollevare per poi lasciare cadere un pesante scalpello – erano poco profondi, il livello di produttività giornaliera era modesto e il principale prodotto dell’ancora semplice processo di raffinazione era il cherosene per le lampade41, che rimpiazzò l’olio di balena e le candele. Nuovi mercati per i prodotti della raffinazione del petrolio si aprirono soltanto con l’adozione su vasta scala dei motori a combustione interna: prima quelli alimentati a benzina (a ciclo Otto) adoperati nelle automobili, nei furgoni e nei camion; poi toccò ai dispositivi piú efficienti ideati da Rudolf Diesel, alimentati da una frazione del greggio piú pesante e meno costosa (avete indovinato, il «diesel», o meglio il gasolio) e utilizzata soprattutto per navi, tir e macchinari pesanti (per saperne di piú su questo argomento, si veda il Quarto capitolo, relativo alla globalizzazione). La diffusione di questi nuovi mezzi di locomozione è stata un processo lento, nel periodo precedente alla Seconda guerra mondiale gli Stati Uniti e il Canada erano gli unici due Paesi con un elevato numero di automobili di proprietà.


Il greggio è diventato un combustibile utilizzato in tutto il mondo, e alla fine la piú importante fonte di energia primaria, grazie alla scoperta di giganteschi giacimenti di petrolio in Medio Oriente e Unione Sovietica – e, certamente, anche grazie all’introduzione di grandi navi petroliere. Alcuni dei piú vasti depositi del Medio Oriente furono trivellati per la prima volta negli anni Venti e Trenta del Novecento (Gachsaran, in Iran e Kirkuk, in Iraq nel 1927, Burgan, in Kuwait, nel 1937), ma la maggior parte sono stati scoperti dopo la guerra, tra questi Ghawar (il piú grande al mondo) nel 1948, Safaniya nel 1951, e Manifa nel 1957. Le maggiori scoperte in territorio sovietico sono state invece compiute nel 1948 (Romashkino, nel bacino compreso tra il Volga e gli Urali) e nel 1965 (Samotlor, nella Siberia Occidentale)42.


L’ascesa e il relativo declino del greggio.


Il processo di adozione di massa delle automobili in Europa e in Giappone, insieme alla simultanea conversione delle economie in questione da un sistema basato sul carbone a uno incentrato sul petrolio greggio e, in seguito, anche sul gas naturale, ebbe inizio soltanto negli anni Cinquanta del Novecento, cosí come l’espansione del commercio estero e del turismo (con i primi voli di linea) e l’utilizzo di materie prime petrolchimiche nella sintesi dell’ammoniaca e delle plastiche. In quel torno di anni il volume complessivo delle estrazioni di greggio raddoppiò e nel 1964 il petrolio superò il carbone diventando il combustibile fossile piú importante a livello globale, ma nonostante i livelli di produzione abbiano continuato a crescere, le forniture rimanevano abbondanti e perciò i prezzi calavano. Se guardiamo al suo valore reale (al netto dell’inflazione), il prezzo del petrolio nel mondo era piú basso nel 1950 che nel 1940, e inferiore nel 1960 a quello del 1950 – e nel 1970 era ancora piú basso43.


Non sorprende che la domanda di petrolio provenisse da tutti i settori. In realtà, il greggio costava cosí poco che non c’era niente che ne incentivasse un consumo efficiente: le abitazioni nelle regioni a clima freddo degli Stati Uniti, sempre piú spesso riscaldate tramite un sistema alimentato a petrolio, erano state costruite utilizzando finestre a vetro singolo e senza un adeguato isolamento termico delle pareti; l’efficienza media delle automobili statunitensi ha subito un calo nel periodo compreso tra il 1933 e il 1973; e settori ad alto consumo energetico continuarono a operare sfruttando processi di conversione inefficienti44. È forse degno di nota il fatto che negli Stati Uniti la sostituzione dei vecchi forni detti Martin-Siemens (open-hearth) con i piú performanti convertitori a ossigeno sia stata molto piú lenta che in Giappone e nell’Europa occidentale.


Verso la fine degli anni Sessanta, il già elevato fabbisogno di petrolio degli Stati Uniti crebbe di quasi il 25 per cento, e quello globale di quasi il 50. Il fabbisogno europeo era pressoché raddoppiato tra il 1965 e il 1973, e in Giappone le importazioni aumentarono di 2,3 volte45. Come ho scritto, le scoperte di nuovi giacimenti permisero di soddisfare questa crescente domanda e il petrolio veniva venduto a quello che essenzialmente era lo stesso prezzo del 1950. Ma una simile, cosí rosea situazione non poteva durare per sempre. Nel 1950 agli Stati Uniti si doveva circa il 53 per cento della produzione mondiale di petrolio; nel 1970, pur rimanendo il maggior produttore mondiale, la quota era scesa al di sotto del 23 per cento – ed era chiaro che il Paese avrebbe dovuto aumentare le importazioni – mentre l’Organizzazione dei Paesi esportatori di petrolio (Opec) produceva il 48 per cento del totale.


L’Opec, istituita nel 1960 a Baghdād da un gruppo di cinque Paesi con l’unico scopo di evitare ulteriori riduzioni del prezzo del petrolio, aveva il tempo dalla propria parte: durante gli anni Sessanta non era grande abbastanza da potersi imporre, ma a partire dal 1970, grazie alla sua quota di produzione combinata con il declino delle estrazioni negli Stati Uniti (che raggiunsero il loro picco in quell’anno), divenne impossibile ignorare le sue richieste46. Nell’aprile 1972 la Railroad Commission del Texas abolí i limiti alle estrazioni di petrolio a livello statale e cosí facendo rinunciò al controllo sul prezzo dello stesso che aveva esercitato sin dagli anni Trenta. Nel 1971, l’Algeria e la Libia iniziarono il processo di nazionalizzazione delle attività di estrazione, e l’Iraq seguí il loro esempio nel 1972, lo stesso anno in cui Kuwait, Qatar e Arabia Saudita iniziarono la graduale acquisizione dei giacimenti presenti sul loro territorio e che fino a quel momento erano stati sotto il controllo di società straniere. Poi, nell’aprile 1973, gli Stati Uniti misero fine ai limiti sulle importazioni di greggio per gli stati a est della catena delle Montagne Rocciose. All’improvviso, si creò un mercato al rialzo, e il 1 ottobre 1973 l’Opec aumentò il prezzo prefissato del 16 per cento fino a 3,01 dollari al barile, a cui fece seguire un ulteriore aumento del 17 per cento per volontà di sei Paesi del Golfo Persico e, dopo la vittoria di Israele sull’Egitto nel Sinai nell’ottobre 1973, fermò tutte le esportazioni di petrolio dirette verso gli Stati Uniti.


Il primo gennaio 1974, gli stati del Golfo aumentarono il prezzo da loro fissato a 11,65 dollari al barile. In questo modo il prezzo di questa risorsa energetica essenziale raggiungeva, in un solo anno, una cifra pari a 4,5 volte quella di partenza – non poteva che essere la fine di un’èra di rapida espansione economica alimentata da petrolio a basso prezzo. Dal 1950 al 1973 il prodotto economico dell’Europa occidentale era quasi triplicato e il Pil degli Stati Uniti era piú che raddoppiato. Tra il 1973 e il 1975 il ritmo di crescita economica globale subí un calo di circa il 90 per cento, e quando le economie che avevano patito un aumento dei prezzi del petrolio stavano iniziando a adattarsi a questa nuova realtà – soprattutto grazie ai progressi impressionanti compiuti nell’efficienza di conversione dell’energia nel settore industriale – la caduta della monarchia iraniana e l’ascesa al potere di una teocrazia fondamentalista portarono a una seconda ondata di aumenti dei prezzi del petrolio, da circa 13 dollari nel 1978 a 34 nel 1981, e a un ulteriore declino del 90 per cento del tasso di crescita economica globale tra il 1979 e il 198247.


Un prezzo superiore ai 30 dollari al barile non poteva che danneggiare la domanda di petrolio, che nel 1986 tornò a essere venduto a 13 dollari al barile, creando le condizioni per un’altra ondata di globalizzazione – al centro della quale questa volta c’era la Cina, il cui rapido processo di modernizzazione era guidato dalle riforme economiche messe in atto da Deng Xiaoping con il contributo di massicci investimenti esteri. Due generazioni piú tardi, soltanto chi ha vissuto in quegli anni di caos dei prezzi delle forniture (o chi, appartenente a una cerchia sempre piú ristretta, ne ha studiato l’impatto) può rendersi conto di quanto siano state traumatiche quelle due ondate di aumento dei prezzi del petrolio. Le conseguenze delle inversioni di tendenza dell’economia che ne derivarono si fanno sentire ancora quattro decenni dopo, dato che una volta che la domanda di petrolio riprese a salire molte delle misure finalizzate a contenerne il consumo rimasero in funzione e alcune di esse – in particolare la tendenza a un utilizzo piú efficiente nel settore industriale – non fecero che intensificarsi48.


Nel 1995, il volume delle estrazioni di greggio nel mondo sorpassò il record raggiunto nel 1979 e da allora non ha fatto che aumentare, per rispondere al fabbisogno di una Cina in piena riforma economica, cosí come a quello di altri Paesi asiatici, ma il petrolio non ha mai riconquistato il dominio relativo sulle altre fonti energetiche che lo aveva caratterizzato nel periodo precedente al 197549. La sua quota nella fornitura globale di energia primaria commerciale calò dal 45 per cento del 1970 al 38 per cento nel 2000, fino ad arrivare al 33 per cento del 2019 – ed è ormai certo che il suo declino relativo continuerà insieme all’aumento dell’elettricità generata utilizzando gas naturale, energia solare ed energia eolica. Ci sono enormi opportunità di generare un maggior quantitativo di energia elettrica attraverso l’uso di celle fotovoltaiche e turbine eoliche, ma c’è anche una differenza fondamentale tra sistemi che ricavano tra il 20 e il 40 per cento della loro elettricità complessiva da queste fonti intermittenti (Spagna e Germania sono gli esempi migliori tra le grandi economie) e una fornitura nazionale che faccia completo affidamento su di esse.


In una nazione grande e popolosa affidarsi totalmente a queste fonti rinnovabili richiederebbe quello che ancora ci manca: o un sistema di stoccaggio dell’energia elettrica su larghissima scala e a lungo termine (di diversi giorni, ma anche di settimane) che possa fare da supporto per un sistema di generazione elettrica intermittente, o un’estesa rete elettrica con linee di trasmissione ad alta tensione che attraversino zone con diversi fusi orari e si estendano a partire da aree soleggiate e ventose fino a raggiungere i grandi agglomerati urbani e industriali. Possono, queste nuovi fonti rinnovabili generare elettricità sufficiente a prendere il posto non soltanto del carbone e del gas naturale, ma anche dei combustibili liquidi che alimentano automobili, navi e aeroplani, portando cosí alla completa elettrificazione dei trasporti? E possono davvero fare tutto ciò, come alcuni progetti recenti promettono, nel giro di appena due o tre decenni?


I molti vantaggi dell’elettricità.


Se l’energia è, come dice Feynman, «un’astrazione», allora l’elettricità è una delle sue forme piú astratte. Non c’è bisogno di avere una conoscenza scientifica del tema per avere esperienza diretta delle differenti tipologie di energia, per distinguere le loro forme e sfruttare i meccanismi per la loro conversione. I carburanti solidi o liquidi (energia chimica) sono cose tangibili (il tronco di un albero, un pezzo di carbone, una tanica di benzina) e la loro combustione – che avvenga negli incendi delle foreste, nelle grotte del paleolitico, all’interno delle locomotive al fine di produrre vapore, o in veicoli motorizzati – rilascia calore (energia termica). L’acqua che scorre o quella che precipita sotto forma di una cascata sono due esempi, evidenti per tutti, di energia gravitazionale e cinetica che può essere convertita abbastanza facilmente in energia cinetica utile (energia meccanica) costruendo dei semplici mulini ad acqua in legno. E per convertire l’energia cinetica del vento nell’energia meccanica necessaria a macinare il grano o spremere olive, tutto ciò che serve è un mulino a vento con ingranaggi in legno per trasferire il movimento alle macine in pietra.


Invece l’energia elettrica è qualcosa di intangibile e non possiamo farcene un’idea nello stesso modo in cui faremmo con i combustibili. Ma i suoi effetti possono essere osservati con i nostri occhi nel caso dell’elettricità statica, delle scintille e dei lampi; le correnti a bassa intensità possono essere percepite, mentre quelle che superano i 100 milliampere possono rivelarsi mortali. Le definizioni piú comuni di elettricità non sono intuitivamente comprensibili, richiedono una conoscenza pregressa di altri termini utili quali «elettroni», «flusso», «carica» e «corrente». Sebbene Feynman nel primo volume delle sue magistrali lezioni di fisica ne dia una definizione sbrigativa – «c’è l’energia elettrica, che ha a che fare con l’attrazione e la repulsione delle varie cariche» – quando, nel secondo volume, torna sull’argomento, affrontandolo piú nel dettaglio, trattando temi come l’energia meccanica, quella elettrica e la corrente continua, lo fa ricorrendo al calcolo infinitesimale50.


Per la maggior parte dei suoi abitanti il mondo contemporaneo è pieno di scatole nere, dispositivi il cui funzionamento interno resta – a diverso livello – un mistero per coloro che li utilizzano. L’elettricità può essere pensata come l’esempio perfetto di una scatola nera onnipresente nella nostra società: nonostante molte persone abbiano un’idea abbastanza buona di ciò che entra nel sistema (la combustione dei combustibili fossili all’interno di una grande centrale termoelettrica; l’acqua in movimento in una centrale idroelettrica; le radiazioni solari assorbite dalle celle fotovoltaiche; la scissione dell’uranio dentro a un reattore nucleare) e tutti noi godiamo dei benefici portati da quello che ne viene fuori (luce, calore, movimento), soltanto una minoranza comprende pienamente che cosa succede all’interno delle centrali elettriche, dei trasformatori, delle linee di trasmissione e dei dispositivi d’uso finale.


I fulmini, la manifestazione dell’elettricità piú comune in natura, sono troppo potenti, troppo brevi (durano solamente una frazione di secondo) e troppo distruttivi per poter (mai?) essere sfruttati a fini produttivi. E mentre noi tutti possiamo produrre minime quantità di energia elettrica strofinando tra loro i materiali adatti, oppure utilizzare batterie di piccole dimensioni, capaci di durare, senza che siano ricaricate, per diverse ore garantendo prestazioni ridotte da parte di torce e dispositivi elettronici portatili, generare elettricità per uso commerciale su vasta scala è un’impresa costosa e complicata. E la sua distribuzione, da dove viene generata ai luoghi e alle regioni in cui il consumo è maggiore – città, fabbriche, e mezzi elettrici di trasporto rapido – è un affare ugualmente complicato: necessita di trasformatori e vaste reti di linee di trasmissione ad alta tensione e, dopo un’ulteriore trasformazione della tensione, di un sistema di distribuzione costituito da linee elettriche aeree o cavi sotterranei a bassa tensione per raggiungere miliardi di consumatori.


E persino in un’epoca caratterizzata dai miracoli elettronici dell’alta tecnologia, non disponiamo ancora di metodi abbordabili per lo stoccaggio dell’energia elettrica in quantità sufficienti per soddisfare il fabbisogno energetico di una città di media grandezza (500 000 abitanti) per un periodo di una o due settimane, o per fornire l’energia necessaria a una megalopoli (oltre 10 milioni di abitanti) anche solo per mezza giornata51. Ma nonostante queste complicazioni, i costi elevati e le sfide dal punto di vista tecnico, proviamo da tempo a convertire le economie moderne all’elettricità, uno sforzo verso un’elettrificazione ancora maggiore che non potrà che proseguire, perché questa forma di energia combina diversi vantaggi ineguagliati. Il piú evidente, al momento dell’uso finale, è il fatto che il consumo di energia elettrica è sempre pulito e non richiede alcuno sforzo, e la maggior parte del tempo è anche straordinariamente efficiente. Semplicemente premendo un tasto, girando un interruttore, o aggiustando un termostato (oggi spesso per mezzo soltanto di un cenno della mano o di un comando vocale) è possibile azionare luci elettriche e motori, impianti di riscaldamento e frigoriferi, senza bisogno di ingombranti sistemi per l’immagazzinamento di combustibili o di faticosi metodi di trasporto e stoccaggio, senza esporsi ai pericoli di una combustione incompleta (che produce monossido di carbonio), e senza dover pulire lampade, fornelli o forni.


L’elettricità è la forma migliore di energia per l’illuminazione: non ha rivali su alcun tipo di scala sia nel pubblico che nel privato, e sono poche le innovazioni che hanno avuto un tale impatto sulla civiltà moderna come quello avuto dalla capacità di superare i limiti della luce diurna e illuminare la notte52. Tutte le alternative precedenti, dalle antiche candele di cera e lampade a olio, ai primi modelli industriali di lampade a gas e a cherosene, erano fioche, costose e altamente inefficienti. Il confronto piú rivelatore tra le differenti fonti di luce è quello realizzato in termini di efficienza luminosa, la loro capacità di produrre un segnale visibile, calcolato come il rapporto tra il flusso luminoso totale (l’energia emessa, in lumen) e la potenza della fonte di energia (in watt). Se fissiamo l’efficienza luminosa delle candele a un valore pari a 1, quella delle lampade a gas illuminante (gas ottenuto per distillazione del litantrace) delle prime città industriali era tra le 5 e le 10 volte superiore; prima dello scoppio della Prima guerra mondiale le lampadine a filamenti di tungsteno emettevano fino a 60 volte di luce in piú; oggi, le migliori lampade a fluorescenza ne producono circa 500 volte tanta; e le lampadine al sodio (utilizzate per l’illuminazione esterna) possono essere fino a 1.000 volte piú efficaci53.


È impossibile decidere quale classe di mezzi di conversione dell’elettricità abbia avuto un impatto maggiore – se le lampade o i motori. La conversione dell’elettricità in energia cinetica effettuata dai motori elettrici ha per prima cosa rivoluzionato quasi ogni settore della produzione industriale e in seguito penetrato qualsiasi nicchia del mercato degli elettrodomestici. Le attività manuali meno impegnative e quelle che utilizzavano macchine a vapore per sollevare, schiacciare, tagliare, tessere e altre operazioni industriali, furono quasi completamente elettrificate. Negli Stati Uniti perché ciò accadesse sono stati sufficienti i primi quattro decenni successivi all’introduzione dei primordiali motori elettrici a corrente alternata54. Nel 1930, i macchinari elettrici avevano quasi raddoppiato la produttività del settore manifatturiero statunitense, e ci riuscirono di nuovo verso la fine degli anni Sessanta55. Contemporaneamente i motori elettrici avevano iniziato la conquista graduale del trasporto su rotaia, con i tram urbani, inizialmente, per estendersi in seguito ai treni passeggeri.


Il settore dei servizi domina tutte le economie moderne e il suo funzionamento dipende completamente dall’energia elettrica. I motori elettrici azionano ascensori e scale mobili, permettono il condizionamento dell’aria negli edifici, aprono porte, compattano i rifiuti. Sono anche indispensabili per l’e-commerce, dato che mettono in moto i labirinti di nastri trasportatori che scorrono all’interno di magazzini sempre piú vasti. Ma la loro implementazione piú diffusa, onnipresente nel nostro mondo, resta invisibile agli occhi delle persone che su di essa fanno affidamento tutti i giorni. Si tratta delle minuscole unità che fanno vibrare i nostri telefoni cellulari: i piú piccoli misurano meno di 4 × 3 mm, una larghezza inferiore alla metà di quella dell’unghia del mignolo di un adulto medio. L’unico modo per osservarne uno è smontare il vostro telefono o guardare online un video dell’operazione56.


In alcuni Paesi, praticamente tutto il trasporto su rotaia è ormai elettrificato, e tutti i treni ad alta velocità (fino ai 300 km / h) sono mossi da locomotive elettriche o utilizzano motori elettrici montati in piú punti, come nel caso del pionieristico Shinkansen giapponese, introdotto nel 196457. E anche i modelli di automobile piú semplici hanno oggigiorno al loro interno tra i venti e i quaranta motori elettrici di piccole dimensioni, e questi sono ancora piú numerosi nelle auto piú costose – fattore che contribuisce all’aumento del peso del veicolo e al carico sulle batterie58. Nelle case, oltre che alimentare l’illuminazione e tutti i tipi di dispositivi elettronici – tra cui oggi sono spesso inclusi sistemi di sicurezza – l’energia elettrica domina tutte le attività meccaniche, permette il riscaldamento e la refrigerazione degli alimenti, fornisce l’energia richiesta per scaldare l’acqua, cosí come quella per riscaldare gli ambienti59.


Senza l’elettricità, non sarebbe possibile avere acqua potabile in tutte le città – e neanche combustibili fossili in forma liquida o gassosa disponibili in ogni luogo. Potenti sistemi di pompaggio elettrici portano l’acqua alla fornitura municipale, un’operazione particolarmente impegnativa nel caso di aree urbane ad alta densità commerciale e residenziale, dove l’acqua necessita di essere trasportata ad altezze maggiori60. Motori elettrici azionano tutti i distributori di carburante necessari per pompare benzina, cherosene e gasolio nei serbatoi o, nel caso di un velivolo, nelle ali. E mentre il gas naturale abbonda nei gasdotti – dove spesso sono utilizzate proprio turbine a gas per lo scorrimento del carburante – in Nord America, dove dominano gli impianti di riscaldamento ad aria calda, sono piccoli motori elettrici a muovere le ventole che spingono l’aria riscaldata dal gas naturale attraverso le condutture61.


La tendenza nel lungo periodo verso l’elettrificazione delle società (ovvero un aumento della quota di combustibili convertiti in elettricità piuttosto che essere consumati direttamente) non può essere negata. Le nuove fonti rinnovabili – energia solare ed eolica, e quella idroelettrica, in uso invece fin dal 1882 – facilmente contribuiranno a questo sviluppo, ma la storia della produzione di elettricità ci ricorda che al processo si accompagnano difficoltà e complicazioni; e che, nonostante la sua profonda e sempre maggiore rilevanza, l’energia elettrica ancora oggi costituisce una porzione relativamente ridotta del consumo di energia finale a livello globale, appena il 18 per cento.


Prima di premere un interruttore.


Per poter riconoscere a pieno il valore di ciò su cui si regge, della sua infrastruttura e di ciò che questi 140 anni di sviluppo ci hanno lasciato, dobbiamo tornare indietro fino alle origini del settore. La storia della produzione dell’elettricità ha inizio nel 1882, con tre prime volte. Due di queste furono i pionieristici impianti industriali per la generazione di elettricità attraverso la combustione del carbone, progettati da Thomas Edison (quello dell’Holborn Viaduct di Londra entrò in attività nel gennaio 1882; Pearl Street Station a New York nel settembre dello stesso anno), mentre la terza fu la prima centrale idroelettrica (sul fiume Fox ad Appleton, nel Wisconsin, anch’essa in attività dal settembre 1882)62. La produzione di elettricità iniziò a diffondersi rapidamente negli anni Novanta dell’Ottocento, quando la trasmissione a corrente alternata (Ca) prevalse sulle reti esistenti a corrente continua, e quando si iniziarono a adottare i nuovi modelli di motori elettrici a corrente alternata in campo industriale cosí come in ambito domestico. Nel 1900, meno del 2 per cento della produzione totale di combustibili fossili veniva impiegato per generare elettricità; nel 1950, la quota era ancora inferiore al 10 per cento; oggi è circa il 25 per cento63.


Il concomitante processo di espansione della potenza idroelettrica installata subí un’accelerazione nel corso degli anni Trenta del Novecento, grazie a grandi progetti pubblici realizzati negli Stati Uniti e in Unione Sovietica, e raggiunse nuove vette dopo la Seconda guerra mondiale, culminando nella costruzione di progetti di dimensioni record in Brasile (la diga di Itaipú, completata nel 2007, 14 gigawatt di potenza nominale) e in Cina (la diga delle Tre gole, completata nel 2012, 22,5 gigawatt)64. Nel frattempo, la fissione nucleare iniziava a essere impiegata per la produzione commerciale di elettricità (nel 1956, a Calder Hall in Gran Bretagna), aveva il proprio periodo di maggior crescita negli anni Ottanta e raggiungeva il picco nel 2006. Da allora il suo utilizzo ha subito un leggero declino, e oggi genera circa il 10 per cento della produzione globale di energia elettrica65. Alla generazione idroelettrica si doveva il 16 per cento nel 2020; all’energia solare e a quella eolica il 7 per cento; e il resto (circa due terzi) proveniva da grandi centrali alimentate per lo piú a carbone e gas naturale.


Non è una sorpresa che la domanda di elettricità sia cresciuta piú velocemente di quella di tutte le altre forme di energia commerciale messe assieme: nei cinquant’anni tra il 1970 e il 2020, la produzione globale di energia elettrica è quintuplicata, mentre il totale fabbisogno di energia primaria è soltanto triplicato66. E il carico di base richiesto – la quantità minima di elettricità che è necessario fornire su base giornaliera, mensile o annuale – è aumentato via via che una sempre maggiore fetta della popolazione si spostava nelle città. Decine di anni fa, la domanda di energia elettrica negli Stati Uniti era ai minimi durante le notti estive, quando chiudevano i negozi e le fabbriche, i trasporti pubblici interrompevano le operazioni e l’intera popolazione, salvo una piccola parte, dormiva con le finestre aperte. Oggi le finestre restano chiuse e il ronzio dei condizionatori d’aria attraversa le stanze per tutta la notte per rendere possibile il sonno nonostante il clima caldo e umido; nelle metropoli e nelle megalopoli molte fabbriche fanno il doppio turno e molti negozi e aeroporti restano aperti 24 ore su 24. Soltanto il CoViD-19 ha fermato la metropolitana di New York dall’operare senza interruzioni, e quella di Tokyo si ferma solamente per cinque ore al giorno (il primo treno a lasciare la stazione di Tokyo per Shinjuku parte alle 5.16 del mattino, l’ultimo a mezzanotte e venti minuti)67. Le immagini satellitari scattate di notte a distanza di anni mostrano come le luci delle strade, dei parcheggi e degli edifici brillino sempre piú intensamente su un territorio sempre piú ampio che spesso si fonde con quello di altre città vicine per formare enormi, sfavillanti conurbazioni68.


Una fornitura di energia elettrica molto affidabile – i gestori delle reti elettriche parlano del loro desiderio di raggiungere i sei nove: ovvero un’affidabilità del 99,9999 per cento, il che significherebbe avere solamente 32 secondi di interruzione della fornitura in un anno! – è un imperativo nelle società in cui l’elettricità alimenta ogni cosa, dalle luci (siano esse negli ospedali, lungo le piste degli aerei, o a indicare le uscite di emergenza) ai dispositivi medici per la circolazione extracorporea, cosí come quelli utilizzati per una miriade di processi industriali69. Seppure la pandemia di CoViD-19 ha provocato scompiglio, angoscia e morti inevitabili, questi malaugurati effetti apparirebbero poca cosa se paragonati a quelli che si avrebbero in seguito a qualche giorno di massiccia riduzione della fornitura elettrica di una qualsiasi area densamente popolata, e se tale penuria fosse protratta per settimane e su scala nazionale si tratterebbe di un evento catastrofico dalle inedite conseguenze70.


Decarbonizzazione: quale ritmo, quale scala.


Non c’è penuria di risorse di combustibili fossili nella crosta terrestre, nessun pericolo che il carbone e gli idrocarburi si esauriscano presto: se mantenessimo i livelli di produzione del 2020, le riserve di carbone basterebbero per altri centoventi anni circa, quelle di petrolio e gas per altri cinquanta circa, e proseguendo le esplorazioni se ne trasferirebbe una parte maggiore dalla categoria delle risorse a quella delle riserve (i giacimenti tecnicamente ed economicamente sfruttabili). L’affidamento fatto sui combustibili fossili ha permesso di dare forma al mondo contemporaneo, ma i timori relativi al rapido intensificarsi del fenomeno del riscaldamento globale hanno portato ad appelli ad abbandonare il carbonio fossile il prima possibile. Idealmente, il processo di decarbonizzazione della fornitura globale di energia dovrebbe procedere abbastanza in fretta da limitare il riscaldamento globale a un valore medio non superiore a 1,5°C (nel peggiore di casi a 2°C). Raggiungere un tale obiettivo, secondo la maggior parte dei modelli climatici, significherebbe azzerare le emissioni nette globali di CO2 entro il 2050 e mantenerle su valori negativi per il resto del secolo.


Da notare la qualifica chiave: l’obiettivo non è la totale decarbonizzazione, ma le «emissioni zero» nel senso di zero emissioni nette, o neutralità carbonica. Questa definizione ci permette di ammettere nuove emissioni da compensare grazie al processo (ancora non esistente!) di rimozione di grandi quantità di CO2 dall’atmosfera e del suo immagazzinamento permanente nel sottosuolo, o con misure temporanee come la piantumazione di alberi su vasta scala71. Oggi le nazioni fissano con entusiasmo obiettivi per il raggiungimento delle zero emissioni nette di carbonio prendendo come date di riferimento solamente gli anni che terminano in uno zero o in un cinque: oltre cento nazioni si sono unite alla squadra, a partire dalla Norvegia che si è impegnata a raggiungere il traguardo entro il 2030, seguita dalla Finlandia entro il 2035, fino all’intera Unione Europea, insieme a Canada, Giappone e Sudafrica, entro il 2050, e infine la Cina (il piú grande consumatore di combustibili fossili al mondo) entro il 206072. Considerato che le emissioni annuali di CO2 prodotta attraverso la combustione di combustibili fossili hanno sorpassato i 37 miliardi di tonnellate nel 2019, l’obiettivo delle emissioni zero entro il 2050 richiederebbe, per essere raggiunto, un processo di transizione energetica senza precedenti, sia dal punto di vista della velocità sia dal punto di vista della scala di grandezza. Uno sguardo piú ravvicinato ai fattori in gioco rivela le reali dimensioni della sfida.


Il processo di generazione dell’energia elettrica potrebbe essere il piú veloce a essere decarbonizzato, visto che i costi di installazione per unità di potenza solare o eolica possono competere con le alternative meno costose basate sui combustibili fossili, e alcuni Paesi vi hanno già convertito una quantità notevole della loro produzione di elettricità. Tra le maggiori economie, la Germania è l’esempio piú degno di nota: a partire dal 2000, ha decuplicato la propria capacità eolica e solare e aumentato la quota di rinnovabili (energia eolica, solare e idroelettrica) dall’11 al 40 per cento della produzione totale. L’intermittenza dell’elettricità solare ed eolica non pone alcun problema fintanto che queste nuove rinnovabili soddisfano una parte relativamente minore del fabbisogno totale, o fintanto che a qualsiasi carenza si può porre rimedio attraverso le importazioni.


Di conseguenza, molti Paesi ricavano ormai, senza dover operare grandi aggiustamenti, fino al 15 per cento della loro fornitura complessiva di energia elettrica da fonti intermittenti, e la Danimarca ci mostra come un mercato relativamente piccolo e ben interconnesso può fare anche di meglio73. Nel 2019, il 45 per cento della sua elettricità era prodotta attraverso la generazione eolica, e tale quota straordinariamente elevata può essere sostenuta senza disporre di enormi capacità di riserva poiché qualsiasi deficit può essere prontamente colmato grazie alle importazioni dalla Svezia (energia idroelettrica o nucleare) e dalla Germania (elettricità ricavata da molte fonti diverse). La Germania non potrebbe fare lo stesso, il suo fabbisogno è oltre 20 volte quello danese, e il Paese deve assolutamente mantenere una capacità di riserva sufficiente per i momenti in cui le nuove rinnovabili non possono generare energia74. Nel 2019, la Germania ha prodotto 577 terawattora di elettricità, meno del 5 per cento in piú rispetto al 2000 – ma nello stesso periodo di tempo la sua capacità installata è cresciuta del 73 per cento circa (da 121 a 209 gigawatt). La ragione di questa discrepanza è evidente.


Nel 2020, due decenni dopo l’inizio dell’Energiewende, come è chiamato il suo deliberatamente accelerato processo di transizione energetica, la Germania era ancora costretta a conservare gran parte della sua capacità di produrre elettricità (l’89 per cento, per la precisione) da combustibili fossili al fine di poter soddisfare il proprio fabbisogno energetico anche nelle giornate nuvolose e prive di vento. Dopotutto, nelle sue terre uggiose, gli impianti fotovoltaici lavorano in media soltanto tra l’11 e il 12 per cento del tempo, e la combustione dei carburanti fossili ha generato quasi la metà (il 48 per cento) di tutta l’elettricità prodotta nel 2020. Inoltre, mentre la quota di energia generata da fonte eolica è cresciuta, la costruzione delle nuove linee ad alta tensione necessarie per la trasmissione dell’elettricità dal Nord ventoso alle regioni del Sud, sta richiedendo tempi piú lunghi del previsto. E negli Stati Uniti, dove servirebbero sistemi di trasmissione di dimensioni ben maggiori per far arrivare l’energia eolica generata nelle Grandi Pianure e quella solare proveniente dal sudovest del Paese alle aree costiere caratterizzate da un elevato fabbisogno energetico, non è stato realizzato quasi nessun progetto a lungo termine per la costruzione di una simile rete di collegamento75.


Per quanto possa essere difficile mettere in piedi sistemi del genere, questi ultimi potrebbero fare affidamento su soluzioni tecnologicamente avanzate, ovvero su celle fotovoltaiche piú efficienti, su grandi turbine eoliche erette sulla terraferma e in mare aperto e sulla trasmissione di elettricità ad alta tensione (inclusa la trasmissione di corrente continua a lungo raggio). Se i costi economici, le trafile per ottenere i permessi necessari e i sentimenti Nimby (not-in-my-backyard, l’atteggiamento di chi non accetta l’edificazione di opere pubbliche con un possibile impatto ambientale nei pressi della propria abitazione) non costituissero degli ostacoli, tali tecnologie potrebbero essere messe in campo abbastanza rapidamente e senza spese eccessive. Inoltre, il problema dell’intermittenza della generazione elettrica da fonte solare ed eolica potrebbe essere risolto facendo nuovamente affidamento sull’energia nucleare. Un rinascimento nucleare sarebbe particolarmente d’aiuto nel caso non riuscissimo a sviluppare in tempi brevi nuovi metodi di stoccaggio su larga scala dell’energia elettrica.


Abbiamo bisogno di un sistema che permetta di immagazzinare quantitativi di elettricità molto grandi (diversi gigawattora) per le città e le megalopoli, ma per ora l’unica opzione fattibile per soddisfare il fabbisogno dei grandi agglomerati urbani sono le centrali idroelettriche con impianti ad accumulo: queste sfruttano l’elettricità notturna, meno costosa di quella diurna, per pompare l’acqua da un bacino di raccolta situato a valle fino al bacino a monte, e una volta azionate permettono di produrre immediatamente energia elettrica disponibile e pronta all’uso76. Con l’energia ricavata da fonti rinnovabili, lo spostamento dell’acqua potrebbe essere effettuato ogni volta che sia disponibile una capacità eolica o solare in eccesso, ma ovviamente le stazioni di pompaggio possono funzionare solamente in luoghi il cui territorio presenti un adeguato dislivello e l’operazione consuma circa un quarto dell’energia generata dalla centrale soltanto per riportare l’acqua a monte. Altri metodi di conservazione dell’energia, come ad esempio le batterie, lo stoccaggio ad aria compressa, e i supercondensatori hanno ancora una capacità di diversi ordini di grandezza inferiore a quella che servirebbe alle grandi città, anche soltanto per un solo giorno77.


Al contrario, i moderni reattori nucleari, se costruiti correttamente e gestiti con l’attenzione necessaria, offrono un metodo di produzione di energia elettrica sicuro, di lunga durata e molto affidabile; come ho già fatto notare, sono capaci di lavorare per oltre il 90 per cento del tempo e possono restare in attività per un periodo di oltre 40 anni. Ciononostante, il futuro dell’energia nucleare rimane incerto. Soltanto Cina, India e Corea del Sud si sono impegnate a realizzare un’ulteriore espansione della loro potenza nucleare. In Occidente, la combinazione di alti costi economici, ampi ritardi accumulatisi nella costruzione degli impianti e disponibilità di alternative meno costose (il gas naturale negli Stati Uniti, l’energia solare ed eolica in Europa) hanno reso poco attraente l’ampliamento della potenza di fissione installata. Inoltre, i nuovi reattori americani, di dimensioni ridotte, modulari e inerentemente sicuri (proposti per la prima volta negli anni Ottanta) ancora devono essere commercializzati e la Germania, con la sua decisione di abbandonare completamente la produzione di energia nucleare entro il 2022, è soltanto l’esempio piú vistoso del sentimento antinucleare ampiamente condiviso tra le popolazioni europee (per una valutazione dei rischi effettivi dovuti all’energia nucleare, si veda il Quinto capitolo).


Ma questa situazione potrebbe non durare ancora a lungo: persino l’Unione europea oggi riconosce che senza reattori nucleari non potrà neanche avvicinarsi al suo straordinariamente ambizioso obiettivo di decarbonizzazione. Lo scenario che prevede emissioni zero nel 2050 tralascia i decenni di stagnazione e di allontanamento dall’industria nucleare, e prospetta che fino al 20 per cento dell’energia consumata potrebbe essere ottenuta sfruttando la fissione nucleare78. Da notare che tutto ciò si riferisce al consumo totale di energia, non solo a quella elettrica. L’elettricità costituisce soltanto il 18 per cento dell’energia globale e la decarbonizzazione di oltre l’80 per cento degli utilizzi finali dell’energia – nelle fabbriche, nelle case, nel commercio e nel trasporto – sarà un’impresa anche piú ardua della decarbonizzazione della produzione di energia elettrica. Una maggiore produzione di elettricità può essere utilizzata per riscaldare gli ambienti e per molti processi industriali che oggi si basano sui combustibili fossili, ma l’andamento del processo di decarbonizzazione degli attuali sistemi per il trasporto su lunghe distanze resta incerto.


Quanto tempo dovrà passare prima che si possano realizzare voli intercontinentali a bordo di aeroplani a fusoliera larga alimentati da batterie elettriche? I titoli dei giornali ci assicurano che il futuro dell’aviazione è elettrico, ignorando clamorosamente l’enorme differenza di densità energetica tra il cherosene consumato dalle turboventole dei velivoli e quelli che sono oggi i migliori modelli di batterie agli ioni di litio (Li-ion) disponibili, che andrebbero caricati a bordo di questi ipotetici aeroplani elettrici. Le turboventole, i motori dei jet moderni, utilizzano carburanti con una densità energetica di 46 megajoule per chilogrammo di combustibile (quasi 12 000 wattora al chilo), convertendo energia chimica in energia termica e cinetica, mentre le migliori batterie agli ioni di litio di cui disponiamo al momento forniscono meno di 300 Wh / kg, una differenza di oltre 40 volte79. Come è noto, l’efficienza di conversione dell’energia dei motori elettrici è grosso modo il doppio di quella delle turbine a gas, e per questo motivo l’effettiva differenza di densità è «soltanto» di 20 volte. Ma nel corso degli ultimi trent’anni la densità energetica delle batterie è grosso modo triplicata e anche se dovesse triplicare ulteriormente entro il 2050, resterebbe ben al di sotto dei 3000 Wh / kg – ben lontana dal poter permettere a un aereo a fusoliera larga di volare da New York a Tokyo o da Parigi a Singapore, una tratta che da decenni viene percorsa quotidianamente grazie ai Boeing e agli Airbus alimentati a cherosene80.


Inoltre (come spiegherò nel Terzo capitolo), non disponiamo di alternative, pronte all’utilizzo su scala commerciale, per la fornitura dell’energia necessaria a produrre i quattro pilastri della civiltà moderna ricorrendo esclusivamente all’elettricità. Ciò significa che anche con una fornitura abbondante e sicura di energia elettrica generata da fonti rinnovabili, dovremmo comunque sviluppare nuove tecniche per la produzione su larga scala di acciaio, ammoniaca, cemento e plastica. Non sorprende che la decarbonizzazione proceda cosí lentamente al di fuori del campo dell’energia elettrica. La Germania genererà presto metà della sua elettrici-tà da fonti rinnovabili, ma nei due decenni dell’Energiewende la quota occupata dai combustibili fossili nella fornitura di energia primaria del Paese è diminuita solamente da circa l’84 per cento al 78 per cento: ai tedeschi piacciono le loro Autobahn prive di limiti di velocità e i loro frequenti voli intercontinentali, e il settore industriale tedesco va ancora avanti grazie al gas naturale e al petrolio81. Se il Paese ripetesse progressi pari a quelli compiuti in passato, nel 2040 dipenderebbe ancora per il 70 per cento dai combustibili.


E che dire di quei Paesi che non hanno promosso senza riserve il ricorso alle fonti rinnovabili? Il Giappone ne è l’esempio piú eminente: nel 2000 l’83 per cento della sua energia primaria proveniva dai combustibili fossili; nel 2019 (a causa della perdita di una parte dell’energia generata da fonte nucleare, in seguito al disastro di Fukushima, e della necessità di aumentare le importazioni di combustibili) era il 90 per cento82! E, sebbene gli Stati Uniti abbiano ampiamente ridotto la loro dipendenza dal carbone – il cui posto, nella produzione di energia elettrica, è stato occupato dal gas naturale – nel 2019 si doveva ai combustibili fossili ancora l’80 per cento della fornitura di energia primaria del Paese. Nel frattempo, in Cina la quota di combustibili fossili era scesa dal 93 per cento del 2000 all’85 per cento del 2019 – ma a questo declino relativo si è accompagnata una crescita del fabbisogno nazionale degli stessi, che è quasi triplicato. L’ascesa economica della Cina è stata la ragione principale di un aumento di quasi il 45 per cento del consumo globale di combustibili fossili nel corso dei primi due decenni del XXI secolo, e ci fa capire come mai, nonostante l’ampia e costosa espansione dell’energia rinnovabile, la quota di combustibili fossili all’interno della fornitura di energia primaria globale sia calata in maniera marginale, dal’87 all’84 per cento circa83.


Il fabbisogno annuale globale di carbonio fossile si colloca oggi appena sopra i 10 miliardi di tonnellate, una massa quasi cinque volte superiore a quella dell’ultimo raccolto annuale complessivo di tutti i cereali di base di cui si nutre l’umanità, e oltre il doppio del totale dell’acqua che viene bevuta annualmente dai quasi 8 miliardi di abitanti del pianeta – e dovrebbe risultare evidente che sostituire una tale massa con un’altra forma di energia non è un compito che possa essere affrontato al meglio rincorrendo obiettivi governativi fissati per gli anni che terminano con uno zero o un cinque. Sia la consistente quota relativa sulla produzione totale che l’entità della nostra dipendenza dal carbonio fossile rendono impossibile una transizione rapida: questa non è un’impressione personale frutto di pregiudizi e di una scarsa comprensione del sistema globale energetico, ma una conclusione realistica basata sulla realtà economica e tecnica.


In contrasto con i recenti impegni politici presi in manie-ra frettolosa, questi dati di realtà sono riconosciuti da tutti i possibili scenari energetici a lungo termine accuratamente elaborati. Lo Stated Policies Scenario pubblicato nel 2020 dalla Agenzia Internazionale dell’Energia (AIE) prevede per la quota di combustibili fossili un calo dall’80 per cento nel 2019 al 72 per cento nel 2040 sul fabbisogno totale globale, mentre il Sustainable Development Scenario (finora lo scenario che presuppone il piú aggressivo processo di decarbonizzazione, ammettendone una versione significativamente accelerata) prospetta che nel 2040 i combustibili fossili soddisferanno il 56 per cento della domanda globale di energia primaria, ritenendo altamente improbabile che una percentuale cosí alta possa essere portata allo zero in appena altri dieci anni84.


Sicuramente, il mondo ricco – considerati il suo benessere materiale, le sue capacità tecniche, l’elevato grado di consumo pro capite e l’entità della parallela produzione di rifiuti – può compiere progressi impressionanti e relativamente veloci in direzione della decarbonizzazione (detto schiettamente: dovrebbe farcela a utilizzare qualsiasi tipo di energia in quantità inferiori). Ma non è questo il caso degli oltre 5 miliardi di persone i cui consumi energetici equivalgono a una frazione dei livelli raggiunti dai Paesi piú ricchi e che necessitano di maggiori quantità di ammoniaca per la coltivazione del cibo necessario per le loro popolazioni in crescita, e di quantità di acciaio, cemento e plastica ancora maggiori per costruire le infrastrutture essenziali. Ciò di cui abbiamo bisogno è di puntare a una riduzione graduale ma costante della nostra dipendenza dalle forme di energia grazie alle quali è stato costruito il mondo moderno. Ancora non conosciamo i dettagli di questa transizione, ma una cosa è certa: non consisterà in un abbandono improvviso del carbonio fossile (non potrà esserlo), e neanche in una sua rapida scomparsa, ma piuttosto in un suo graduale declino85.

2.


Comprendere la produzione alimentare

Una dieta a base di combustibili fossili


Assicurarsi un’alimentazione sufficiente sia dal punto di vista della quantità sia da quello della qualità e della varietà nutrizionale costituisce l’imperativo esistenziale di ogni specie animale. Nel corso del loro lungo processo evolutivo, i nostri antenati hominini hanno sviluppato cruciali peculiarità fisiche rivelatesi vantaggiose – la postura eretta, il bipedismo e un cervello di dimensioni relativamente grandi – che li hanno distinti dagli altri primati loro antenati. Una combinazione di tratti distintivi che gli ha permesso di diventare piú abili nel procurarsi cibo dalle carcasse, nella raccolta di piante e nella caccia ad animali di piccole dimensioni.


I primi hominini disponevano soltanto di utensili in pietra estremamente semplici (ciottoli impiegati come martelli, o scheggiati, i cosiddetti chopper, da usare come strumenti da taglio), utili per la macellazione degli animali, ma erano privi di manufatti che aiutassero la caccia e la cattura degli animali. Erano in grado di uccidere con facilità animali feriti o affetti da qualche patologia, o anche esemplari di mammiferi lenti nel movimento e di dimensioni ridotte, ma la gran parte del loro fabbisogno di carne era ricavata dalle carcasse di animali di grande stazza uccisi da altri predatori1. Il successivo impiego di lance, asce dotate di manico, archi e frecce, reti, cesti e canne da pesca, ha reso possibile la cattura di un’ampia varietà di specie animali. Alcuni gruppi – in particolare i cacciatori di mammut del paleolitico superiore (periodo conclusosi circa 12 000 anni fa) – padroneggiavano la macellazione di creature di notevoli dimensioni, mentre molti di coloro che abitavano le zone costiere divennero abili pescatori: alcuni utilizzavano persino delle imbarcazioni, per riuscire a cacciare piccole balene.


La transizione da una società di cacciatori-raccoglitori a una vita di tipo sedentario, sostenuta dai primi esempi di agricoltura e dall’addomesticamento di diverse specie di mammiferi e volatili, ebbe come risultato quello di garantire una fornitura di cibo in genere piú stabile, anche se spesso ancora non sempre affidabile, che permise di raggiungere una densità di popolazione molto piú elevata di quanto fosse in precedenza – ma ciò non si traduceva necessariamente in un’alimentazione media migliore. La caccia e la raccolta in ambienti aridi poteva richiedere un’area di oltre 100 chilometri quadrati per procurarsi il cibo necessario a supportare un’unica famiglia. Per gli attuali abitanti di Londra, si tratta piú o meno della distanza che va da Buckingham Palace all’Isle of Dogs; per gli abitanti di New York, si tratta dei chilometri che percorre un gabbiano volando dalla punta estrema di Manhattan fino al cuore di Central Park: uno spazio enorme da attraversare soltanto per riuscire a sopravvivere.


Nelle aree piú produttive, la densità di popolazione poteva raggiungere fino a due o tre persone per cento ettari (equivalenti piú o meno all’area combinata di 140 campi da calcio standard)2. Le uniche società di cacciatori-raccoglitori con una densità alta erano quelle della zone costiere (in particolare quella che si affaccia sul Pacifico Nordoccidentale), visto che potevano attingere ai flussi migratori annuali dei pesci oltre ad approfittare dell’opportunità di cacciare mammiferi acquatici: una disponibilità sicura di cibo ad alto contenuto di proteine e grassi permise ad alcuni di questi gruppi di adottare uno stile di vita sedentario, in spaziose abitazioni comunitarie costruite in legno e con tempo libero sufficiente per incidere tronchi d’albero e trasformarli in fantastici totem. Invece, nelle prime società agricole, dove si crescevano le prime varietà di colture addomesticate, era possibile nutrire piú di una persona con un ettaro di terra coltivata.


A differenza dei cacciatori-raccoglitori che potevano raccogliere molti tipi diversi di piante selvatiche, chi praticava l’agricoltura poteva inizialmente coltivare soltanto un numero limitato di specie, poche colture di base (grano, orzo, riso, mais, legumi, patate) dominavano le diete tipiche, a base soprattutto di piante, di quel periodo – ma queste colture potevano sostenere densità di popolazione di due o tre ordini di grandezza superiori a quelle che caratterizzavano le società di cacciatori-raccoglitori. Nell’antico Egitto, i livelli di densità abitativa crebbero da circa 1,3 persone per ettaro di terra coltivata nel periodo predinastico (prima del 3.150 a. C.) a 2,5 persone per ettaro 3.500 anni piú tardi, quando il Paese era una provincia dell’Impero romano3. Il che significa che per nutrire una persona serviva un’area di 4.000 metri quadrati – equivalente quasi esattamente a sei campi da tennis. Ma una densità di produzione cosí elevata (favorita dalle regolari esondazioni annuali del Nilo) costituiva un risultato straordinario.


Col passare del tempo, molto lentamente, i livelli di produzione alimentare preindustriali crebbero ulteriormente – ma una densità di tre o piú persone per ettaro non venne raggiunta prima del XVI secolo, e anche allora soltanto nelle regioni intensamente coltivate della Cina della dinastia Ming; l’Europa rimase sotto le due per ettaro fino al XVIII secolo. Una simile stagnazione, o, quantomeno, crescita molto lenta, nella produzione alimentare che ha caratterizzato la lunga epoca preindustriale, significa che fino a poche generazioni fa soltanto un gruppo ridotto di élite ben nutrite era libero dalla preoccupazione di non avere cibo sufficiente. Anche negli anni in cui il raccolto era piú abbondante della media, le abitudini alimentari predominanti restavano monotone, ed erano diffusi i casi di malnutrizione o denutrizione. C’era il rischio di cattivi raccolti e spesso le colture venivano distrutte nel corso di eventi bellici – le carestie erano eventi regolari. Dobbiamo concludere che nessuna trasformazione recente – come i progressi compiuti nella mobilità individuale o l’ampliamento delle merci che possiamo possedere – è stata fondamentale per la nostra esistenza quanto la capacità di produrre, anno dopo anno, una sovrabbondanza di cibo. Oggi la gran parte degli abitanti dei Paesi ad alto e medio reddito si preoccupano di cosa (e in che quantità) sia piú opportuno mangiare per mantenere o migliorare la loro salute e prolungare la loro longevità, non se il cibo a disposizione sia sufficiente alla sopravvivenza.


Il numero di bambini, adolescenti e adulti che patiscono la penuria alimentare è ancora significativo, in particolare nei Paesi dell’Africa subsahariana, ma lungo il corso delle ultime tre generazioni è passato dal costituire la maggioranza della popolazione mondiale a meno di un decimo di tutti gli abitanti del pianeta. L’Organizzazione delle Nazioni Unite per l’Alimentazione e l’Agricoltura (Fao) stima che la componente globale di individui malnutriti sia calata da circa il 65 per cento nel 1950, passando per il 25 nel 1970, fino al 15 per cento circa dell’anno 2000. Progressi continui (con fluttuazioni dovute a imprevisti che si creano a livello nazionale o regionale in seguito a disastri naturali o conflitti armati) hanno permesso di raggiungere l’8,9 per cento nel 2019 – il che significa che l’aumento nella produzione alimentare ha portato il tasso di malnutrizione da due persone su tre nel 1950 a una su undici nel 20194.


Un risultato straordinario ancora piú degno di nota se espresso in modo da tener conto del considerevole aumento della popolazione globale registrato nello stesso periodo, da circa 2,5 miliardi di individui nel 1950 a 7,7 miliardi nel 2019. La drastica riduzione del fenomeno della denutrizione a livello globale significa che nel 1950 il pianeta era in grado di fornire una quantità di cibo sufficiente a sfamare circa 890 milioni di persone, ma nel 2019 la stessa cifra era di oltre 7 miliardi: in termini assoluti, un aumento di quasi otto volte!


Come si spiega un risultato del genere? Che ciò sia dovuto a una resa migliore dei raccolti è una tautologia. Attribuendolo a una combinazione tra diversi fattori, quali una maggiore varietà delle colture, la meccanizzazione del lavoro agricolo e le tecniche di fertilizzazione, irrigazione e protezione delle piantagioni, descriviamo correttamente le trasformazioni cruciali che hanno investito il settore – ma manchiamo di toccare la causa principale di una tale svolta. Il sistema di produzione alimentare moderno, che si tratti della coltivazione dei campi o della pesca, è un ibrido particolare basato su due differenti fonti di energia. La prima e la piú ovvia è il Sole. Ma necessitiamo anche del contributo oggi indispensabile dei combustibili fossili e dell’elettricità prodotta e generata dagli umani.


Se si chiedono degli esempi tratti dalla vita di tutti i giorni dell’affidamento che facciamo sui combustibili fossili, il pensiero degli abitanti delle regioni piú fredde dell’Europa e del Nord America corre subito al gas naturale impiegato per riscaldare le nostre case. Nel resto del mondo le persone indicheranno il processo di combustione dei carburanti liquidi che permette il funzionamento dei nostri mezzi di trasporto, ma il fattore piú importante – e relativo alla nostra stessa sopravvivenza – nel determinare la dipendenza del mondo contemporaneo dai combustibili fossili è l’utilizzo diretto e indiretto che ne facciamo nella produzione alimentare. L’uso diretto comprende il carburante usato per tutti i macchinari da campo (principalmente trattori, trebbiatrici e falciatrici), per il trasporto del raccolto dai campi ai siti di stoccaggio e lavorazione e per le pompe per l’irrigazione. Quello indiretto è molto piú ampio e comprende i carburanti e l’elettricità impiegati per fabbricare i macchinari agricoli, i fertilizzanti, i prodotti agrochimici (erbicidi, insetticidi, fungicidi) e altre componenti necessarie, che vanno dai pannelli di vetro o di plastica per le serre, ai dispositivi di posizionamento globale (Gps) su cui si basa l’agricoltura di precisione.


Il processo di conversione dell’energia fondamentale attraverso il quale viene prodotto il nostro cibo è rimasto lo stesso: come sempre, ci cibiamo, direttamente nel caso di quelli vegetali o indirettamente se sono animali, dei prodotti della fotosintesi – il piú importante processo di trasformazione dell’energia della biosfera, alimentato dalle radiazioni solari. A essere cambiata è l’entità dei nostri raccolti e del nostro bestiame: non sarebbe stato possibile ottenere una tale abbondanza, e in maniera cosí prevedibile, senza l’apporto, in continua crescita, di combustibili fossili ed elettricità. Senza questi contributi energetici di origine antropica, non avremmo potuto fornire un’alimentazione adeguata al 90 per cento dell’umanità e non avremmo potuto ridurre cosí tanto la fame nel mondo, riuscendo parallelamente a diminuire sempre di piú il tempo e l’area di terreno agricolo minimi necessari al nutrimento di una persona.


L’agricoltura – la coltivazione degli alimenti per le persone e del mangime per gli animali – necessita dell’energia fornita dalle radiazioni solari, nello specifico dalle parti blu e rosse dello spettro visibile5. Clorofille e carotenoidi, molecole sensibili alla luce presenti nelle cellule vegetali, assorbono la luce a queste lunghezze d’onda e la utilizzano per alimentare la fotosintesi, una complessa serie di reazioni chimiche che combina l’acqua e l’anidride carbonica contenuta nell’atmosfera – insieme a un piccolo quantitativo di elementi tra i quali, in particolare, azoto e fosforo – per produrre nuova materia vegetale per le piante di cereali, per le leguminose, per i tuberi e per le colture da olio e da zucchero. Parte del raccolto poi va a nutrire animali addomesticati per la produzione di carne, latte e uova, mentre altri cibi di origine animale provengono dai mammiferi che brucano l’erba e dalle specie acquatiche il cui sostentamento dipende in ultima analisi dal fitoplancton, la materia vegetale prodotta dalla fotosintesi acquatica6.


Cosí è come è sempre andata fin dagli inizi dell’agricoltura stanziale – ma due secoli fa l’introduzione di forme di energia non solare ha cominciato a influenzare la coltivazione e piú tardi anche la pesca e la raccolta dei frutti di mare. Inizialmente l’impatto fu marginale, divenendo significativo soltanto a partire dai primi decenni del XX secolo.


Per tracciare l’evoluzione di questa svolta epocale, guarderemo ora agli ultimi due secoli di produzione di grano negli Stati Uniti. Ma sarebbe stato ugualmente facile fare riferimento alla resa dei raccolti inglesi o francesi, o a quella delle piantagioni di riso in Giappone o in Cina; anche se i progressi compiuti in campo agricolo possono essere fatti risalire a periodi differenti a seconda che si guardi all’America del Nord, all’Europa occidentale o all’Asia orientale, non c’è niente di eccezionale in questa sequenza di riferimento basata sui dati degli Stati Uniti.


Tre valli, in due secoli.


Partiamo dalla Genesee Valley, nell’ovest dello Stato di New York, nel 1801. La giovane repubblica è al suo ventiseiesimo anno di vita, ma gli agricoltori americani continuano a coltivare il grano tenero non solo alla stessa maniera dei loro antenati prima che questi, qualche generazione prima, migrassero dall’Inghilterra al Nord America britannico, ma utilizzando metodi non troppo differenti da quelli praticati nell’antico Egitto oltre due millenni fa.


La sequenza si apre con l’immagine di due buoi che trainano un aratro in legno al quale è fissata una piastra in ferro utilizzata per solcare il terreno. I semi, ricavati dal raccolto dell’anno precedente, vengono sparsi a mano, e per coprirli si utilizza un erpice rudimentale formato da un tronco a cui è stato fissato un fascio di rami. La semina richiede circa 27 ore di lavoro umano per ettaro di terra7. E i passaggi piú impegnativi devono ancora arrivare. La mietitura viene realizzata con l’ausilio di falcetti; gli steli tagliati sono riuniti e legati tra loro a formare fasci, sempre manualmente, che vengono impilati in posizione verticale (a formare le biche) e lasciati a essiccare. I fasci vengono in seguito trasportati in un fienile, dove si procede alla trebbiatura, disponendoli su un pavimento duro e battendoli con uno strumento chiamato correggiato, dopodiché la paglia viene accatastata e si procede a separare i chicchi di grano dalla pula, questi sono poi pesati e trasferiti dentro a dei sacchi. Portare a termine la procedura di raccolta del grano fino a ottenere il prodotto finale richiede almeno 120 ore di lavoro umano per ettaro di terra coltivata.


Il ciclo di produzione completo richiede circa 150 ore di lavoro umano per ettaro di terra, oltre a 70 ore circa di lavoro svolto dai buoi. Il raccolto ammonta ad appena una tonnellata di chicchi grano per ettaro e almeno il 10 per cento del totale va messo da parte per essere usato come semente l’anno successivo. In totale, ci vogliono circa dieci minuti di lavoro umano per produrre un chilo di frumento, e da quest’ultimo si possono ricavare, utilizzando farina integrale, 1,6 chili (due pagnotte) di pane. È un tipo di agricoltura faticosa, lenta e con una resa modesta – ma non richiede alcun tipo di energia diverso da quella delle radiazioni emesse dal Sole: le colture forniscono cibo per le persone e mangime per gli animali; gli alberi la legna per cucinare e riscaldare e da cui si può ricavare anche il carbone di legna necessario per fondere i minerali ferrosi e produrre piccoli oggetti metallici come il vomere dell’aratro, falci, falcetti, coltelli e i cerchioni che rivestono le ruote di legno dei carri. Usando il lessico moderno, diremmo che questo tipo di agricoltura non richiede alcun apporto energetico da fonte non rinnovabile (ovvero dai combustibili fossili) e necessita soltanto di un contributo minimo di materie non rinnovabili (i componenti in ferro, la pietra di cui sono fatte le macine), e che la produzione sia delle piante che dei materiali utilizzati si basa solamente su energie rinnovabili impiegate attraverso gli sforzi dei muscoli umani e animali.


Un secolo piú tardi, nel 1901, la gran parte del frumento del Paese proviene dalle Grandi Pianure e per questo motivo ci spostiamo nella Red River Valley, nel Nord Dakota orientale. Le Grandi Pianure sono state colonizzate e l’industrializzazione ha fatto progressi enormi nell’arco delle ultime due generazioni – sebbene per la coltivazione del grano si fa ancora affidamento sugli animali da tiro, nelle grandi fattorie del Dakota il processo è altamente meccanizzato. Squadre di cavalli robusti trascinano (dividendosi lo sforzo) aratri ed erpici in acciaio, seminatrici meccaniche spargono i semi, falciatrici meccaniche tagliano e riuniscono in fasci gli steli, solamente le biche vengono composte a mano. I fasci sono dati in pasto alle trebbiatrici azionate da motori a vapore, dopodiché i chicchi di grano vengono trasportati nei granai. L’intero ciclo si prende meno di 22 ore di tempo per ettaro, circa 1/7 del tempo richiesto nel 18018. In questo tipo di agricoltura estensiva, l’ampiezza dell’area coltivata compensa la resa ridotta, che rimane intorno a 1 tonnellata di raccolto per ettaro di terra, ma l’investimento in termini di lavoro umano è soltanto di 1,5 minuti per chilo di grano (in confronto ai 10 del 1801), mentre l’uso che si fa degli animali da tiro ammonta a circa 37 ore di lavoro svolto dai cavalli per ettaro di terreno coltivato, equivalente a piú di due minuti di tempo per chilo di frumento.


È un nuovo tipo di agricoltura, in cui il contributo indispensabile del Sole viene accresciuto per mezzo di energia non rinnovabile e di origine antropica, ricavata in larghissima parte dal carbone. Questo nuovo sistema richiede piú lavoro animale che umano, e dato che i cavalli (e i muli in Sud America) impiegati necessitano di mangime a base di cereali – soprattutto avena – cosí come di erba fresca e fineo, il loro numero elevato comporta un fabbisogno che va a incidere significativamente sul prodotto alimentare del Paese: circa un quarto di tutti i terreni agricoli sono dedicati alla crescita del foraggio per gli animali da tiro9.


I raccolti molto produttivi sono resi possibili dal crescente apporto di energia fossile. Il carbone è usato per produrre il coke siderurgico che viene caricato all’interno degli altoforni, e la ghisa viene trasformata in acciaio all’interno di forni open-hearth (si veda il Terzo capitolo). L’acciaio è necessario per i macchinari agricoli, ma anche per realizzare motori a vapore, rotaie, vagoni, locomotive e navi. Il carbone serve anche ad azionare i macchinari a vapore e a generare il calore e l’elettricità necessari per la produzione di aratri, seminatrici, falciatrici (oltre alle prime trebbiatrici), vagoni e silos, e fa muovere i treni e le navi che distribuiscono i cereali ai consumatori finali. Fertilizzanti inorganici sono introdotti per la prima volta con le importazioni di nitrati dal Cile e con l’utilizzo dei fosfati provenienti dalle miniere della Florida.


Nel 2021 era il Kansas il principale produttore di grano degli Stati Uniti, perciò ci spostiamo nella vicina Arkansas River Valley. Qui, in quello che è il cuore della produzione americana di grano, le fattorie sono ormai normalmente tre o quattro volte piú grandi di quanto non fossero cento anni prima10 – e comunque la gran parte del lavoro nei campi viene eseguita da una o due persone che controllano grossi macchinari. Il Dipartimento dell’agricoltura degli Stati Uniti ha smesso di censire gli animali da tiro nel 1961 e il lavoro nei campi è oggigiorno dominato dall’impiego di potenti trattori – molti modelli hanno una potenza di oltre 400 cavalli e si muovono su otto gigantesche ruote – che trainano strumenti come aratri in acciaio (dotati di una dozzina o piú di vomeri), seminatrici e spandiconcime11.


I semi utilizzati appartengono a varietà la cui crescita è assicurata e le piante giovani ricevono quantitativi ottimali di fertilizzanti inorganici – soprattutto azoto in abbondanza, sotto forma di ammoniaca o urea – e una protezione mirata da insetti, funghi e piante infestanti. La mietitura, e la simultanea trebbiatura, vengono compiute da grandi mietitrebbiatrici che trasferiscono i chicchi direttamente nei camion che li trasporteranno ai silos per lo stoccaggio o nel resto del Paese per la vendita, o alle navi che li fanno arrivare in Asia o Africa. La produzione del grano richiede oggi meno di due ore di lavoro umano per ettaro (in confronto alle 150 del 1801) il che, con raccolti di circa 3,5 tonnellate per ettaro, significa meno di due secondi per chilo di frumento12.


Oggigiorno in molti lodano i progressi compiuti nelle prestazioni dei computer moderni («cosí tanti dati») e delle telecomunicazioni («cosí poco costose»), ma che dire dei raccolti agricoli? Nell’arco di due secoli, la quantità di lavoro umano necessario a produrre un chilogrammo di grano nordamericano è passata da dieci minuti a meno di due secondi. Cosí funziona davvero il mondo moderno. E come sopra menzionato, avrei potuto realizzare ricostruzioni altrettanto impressionanti del processo di riduzione del lavoro fisico richiesto, della crescente resa dei campi e della sempre maggiore produttività delle coltivazioni di riso cinesi o indiane. L’arco temporale sarebbe differente, ma si osserverebbero progressi relativi molto simili.


La gran parte delle apprezzate e indubbiamente importanti innovazioni tecnologiche responsabili della trasformazione vissuta dall’industria manifatturiera, dal settore dei trasporti, da quello delle comunicazioni e dalla vita quotidiana, sarebbero state impossibili se piú dell’80 per cento degli individui fosse dovuto rimanere in campagna per potersi procurare il pane quotidiano (la percentuale di abitanti degli Stati Uniti che facevano i contadini nel 1800 era dell’83 per cento) o la propria ciotola di riso giornaliera (in Giappone, nel 1800 quasi il 90 per cento delle persone viveva in villaggi). All’inizio della strada che ci ha portati alla contemporaneità troviamo aratri in ferro e fertilizzanti inorganici poco costosi, e uno sguardo piú ravvicinato per spiegare questi indispensabili contributi che ci hanno permesso di dare per scontata una società sazia diventa allora doveroso.


Quello che ci vuole.


Le forme di agricoltura preindustriale, che sfruttavano il lavoro umano e animale con l’ausilio di strumenti semplici in legno e in ferro, avevano come unica fonte di energia il Sole. Tuttora, come è sempre stato, non si potrebbe avere alcun raccolto senza il processo di fotosintesi alimentato dalla nostra stella, ma l’elevata resa delle coltivazioni ottenuta con un contributo minimo in termini di lavoro e perciò con costi mai cosí bassi sarebbe impossibile senza l’immissione diretta e indiretta di energia fossile nel sistema. Alcuni di questi apporti di energia di origine antropica sono forniti in forma di elettricità, che può essere generata ricorrendo al carbone, al gas naturale o a fonti rinnovabili, ma nella maggior parte dei casi si presentano come idrocarburi allo stadio liquido o gassoso in qualità di materie prime e carburanti per macchinari di vario tipo.


Questi ultimi consumano energia fossile in maniera diretta sotto forma di gasolio e benzina per eseguire operazioni nei campi come l’irrigazione, resa possibile dalle pompe che sollevano l’acqua dai pozzi, i processi di trattamento ed essiccazione dei raccolti, il trasporto di questi entro i confini nazionali per mezzo di camion, treni e chiatte, le esportazioni transoceaniche realizzate tramite enormi navi merci. L’utilizzo indiretto di energia nella loro costruzione è molto piú complesso, dato che i combustibili fossili e l’elettricità non sono impiegati solamente per produrre acciaio, gomma, plastica, vetro e componenti elettronici, ma anche per assemblare tra loro questi prodotti costruendo cosí trattori, attrezzi da lavoro, mietitrebbiatrici, camion, essiccatoi per cereali e silos13.


Ma l’energia richiesta per assemblare e azionare i macchinari agricoli non è niente in confronto ai requisiti energetici dei prodotti agrochimici. L’agricoltura moderna necessita di fungicidi e insetticidi al fine di minimizzare le perdite dei raccolti e di erbicidi per evitare la competizione delle piante infestanti nell’assorbimento delle sostanze nutritive e dell’acqua. Questi prodotti sono tutti ad alta intensità energetica ma vengono applicati in quantità relativamente ridotte (soltanto una frazione di chilogrammo per ettaro di terreno coltivato)14. Al contrario, i fertilizzanti che forniscono i tre macronutrienti essenziali alle piante – azoto, fosforo e potassio – richiedono un quantitativo minore di energia per unità di prodotto finale, ma vanno impiegati in quantità maggiori, per assicurare l’alto rendimento delle coltivazioni15.


Il potassio è l’elemento nutriente meno costoso da produrre, dato che tutto ciò che serve è il cloruro di potassio (KCl) rinvenuto in miniere a cielo aperto o sotterranee. Il processo di produzione dei fertilizzanti al fosforo inizia con l’estrazione dei fosfati, a cui segue un trattamento che permette di ottenere composti sintetici chiamati superfosfati. L’ammoniaca è il composto di partenza per la produzione di tutti i fertilizzanti azotati sintetici. Ogni coltura di grano e riso a resa elevata, cosí come di molti altri alimenti di origine vegetale, richiede l’apporto di oltre 100 (in alcuni casi persino 200) chili di azoto per ettaro di terra, un fabbisogno cosí elevato da fare della sintesi dei fertilizzanti azotati il contributo energetico piú importante per l’agricoltura moderna16.


L’azoto è necessario in quantità cosí grandi perché è presente in ogni cellula vivente: si trova nella clorofilla, la cui stimolazione alimenta il processo di fotosintesi; negli acidi nucleici del Dna e dell’Rna, che conservano e processano tutte le informazioni genetiche; e negli amminoacidi, che formano tutte le proteine necessarie per la crescita e il mantenimento dei tessuti biologici. È un elemento abbondante in natura – costituisce quasi l’80 per cento dell’atmosfera, gli organismi viventi vi sono immersi – e ciononostante è un fondamentale fattore limitante della produttività delle nostre coltivazioni, cosí come della crescita umana. Si tratta di uno dei grandi paradossi della biosfera, la spiegazione è semplice: l’azoto è presente nell’atmosfera in forma di molecola non reattiva (N2) e sono pochi i processi naturali capaci di rompere il legame tra i due atomi di azoto e rendere questo elemento disponibile per la formazione di composti molto piú reattivi17.


A farlo sono ad esempio i fulmini: producono ossidi d’azoto, che si sciolgono nella pioggia e formano i nitrati, cosí le foreste, i campi e le praterie ricevono fertilizzante dall’alto – ma ovviamente questo apporto naturale è troppo modesto per produrre raccolti capaci di sfamare i quasi otto miliardi di abitanti del pianeta. Quello che i fulmini riescono a fare a temperature e pressioni tremendamente elevate, un enzima (la nitrogenasi) può farlo in condizioni normali: viene prodotto dai batteri presenti sulle radici di alcune leguminose (quelle che sono coltivate per i loro semi commestibili, cosí come alcune specie di alberi) o sparsi nel terreno e su altre piante. I batteri che abitano le radici delle leguminose sono responsabili della maggior parte dei processi naturali di fissazione dell’azoto – ovvero della scissione della molecola N2 non reattiva e l’incorporazione dell’azoto nell’ammoniaca (NH3), un composto estremamente reattivo che può essere prontamente convertito in nitrati solubili e soddisfare il fabbisogno di azoto delle piante in cambio degli acidi organici sintetizzati da queste ultime.


Il risultato è che le colture di leguminose, tra cui i fagioli di soia, i fagioli comuni, i piselli, le lenticchie e le arachidi, sono in grado di provvedere da sole (fissandola) alla propria fornitura di azoto, cosí come è il caso delle leguminose di copertura come l’alfalfa, il trifoglio e la veccia. Ma nessun cereale di base, coltura da olio (fatta esclusione per i fagioli di soia e le arachidi) o tubero è in grado di fare lo stesso. L’unico modo per queste colture di trarre beneficio dalle capacità di azotofissazione delle leguminose è la loro rotazione con colture di alfalfa, trifoglio o veccia: coltivare cioè queste piante azotofissatrici per qualche mese, per poi interrarle attraverso l’aratura (pratica del sovescio) rifornendo in questo modo il suolo di azoto reattivo che può essere assorbito in seguito dal grano, dal riso o dalle patate18. Nell’agricoltura tradizionale, l’unica alternativa per arricchire di azoto il suolo consisteva nel raccogliere e spargere deiezioni umane o animali. Ma si tratta di un metodo inerentemente laborioso e inefficiente per la somministrazione di tale elemento nutriente. Gli escrementi hanno un contenuto di azoto molto basso e sono soggetti a perdite per evaporazione (la conversione dei liquidi in gas – del resto l’odore di ammoniaca emesso dal letame può essere soffocante).


In epoca preindustriale, il concime andava raccolto nei villaggi e nelle città, fatto fermentare in cumuli o all’interno di fosse e – a causa del suo basso contenuto di azoto – sparso sui campi in quantità enormi, in genere 10 tonnellate per ettaro, con picchi di 30 (una massa equivalente a quella di 25 o 30 automobili di piccole dimensioni), al fine di fornire l’azoto necessario. Non sorprende che questa fosse l’operazione che richiedeva la maggior quantità di tempo, reclamando almeno un quinto e a volte persino un terzo del lavoro totale (umano e animale) investito nei sistemi di coltivazione tradizionali. Il riciclo degli scarti organici è un tema che difficilmente viene affrontato dagli scrittori celebri, ma Émile Zola, realista fino alla fine, ne colse la rilevanza quando descrisse Claude, un giovane pittore parigino che «aveva una vera passione per il concime». Claude si offriva di gettare nella buca


le bucce di ortaggi, la melma delle Halles, il pattume caduto da quella mensa gigantesca, rimanevano vivi, ritornavano dove la verdura era cresciuta […] rispuntavano in forma di splendidi frutti, che tornavano a far bella mostra di sé al mercato. Parigi imputridiva tutta, restituiva tutto alla terra che, senza mai stancarsi, portava rimedio alla morte19.


Ma a quale prezzo in termini di lavoro e fatica umana! La grande barriera posta dall’azoto a una piú alta produttività delle coltivazioni mostrò le prime crepe soltanto nel XIX secolo, con l’estrazione e l’esportazione dei nitrati cileni, che costituivano il primo fertilizzante azotato inorganico. La barriera fu poi infranta con l’invenzione del processo di sintesi dell’ammoniaca da parte di Fritz Haber nel 1909 e con la rapida commercializzazione del composto (l’ammoniaca fu esportata per la prima volta nel 1913), ma nel periodo successivo la produzione crebbe lentamente e l’impiego di fertilizzanti azotati dovette attendere fino a dopo la Seconda guerra mondiale per diffondersi20. Le nuove varietà di grano e di riso ad alto rendimento introdotte negli anni Sessanta non avrebbero potuto esprimere il loro completo potenziale di produttività, senza il contributo dei fertilizzanti sintetici azotati. E la grande svolta conosciuta come Rivoluzione Verde non avrebbe potuto avere luogo senza la combinazione di migliori varietà di piante e di un maggiore apporto di azoto21.


Dagli anni Settanta del Novecento, la sintesi dei fertilizzanti azotati ha costituito senza dubbio il primus inter pares dei contributi energetici impiegati in agricoltura – ma la scala di tale dipendenza si svela a pieno soltanto guardando ai resoconti dettagliati dell’energia richiesta per la produzione di vari alimenti comuni. Ne ho scelti tre come esempio, selezionati per la loro importanza in campo nutrizionale. Il pane è stato per millenni l’alimento base della civiltà europea. Per via dei divieti religiosi al consumo di carne di maiale e di manzo, quella di pollo è l’unico tipo di carne universalmente apprezzato. E nessun’altra verdura (anche se da un punto di vista botanico si tratta di un frutto) supera la produzione annuale di pomodori, oggi coltivati non soltanto nei campi, ma sempre piú all’interno di serre con pareti in plastica o vetro.


Ciascuno di questi alimenti svolge un ruolo diverso dal punto di vista nutrizionale (il pane è consumato per i suoi carboidrati, il pollo per l’ottima qualità delle sue proteine, i pomodori per la vitamina C) ma nessuno di essi potrebbe essere prodotto in quantità cosí abbondanti, con una tale sicurezza e a costi cosí bassi, senza significativi apporti di combustibili fossili. Prima o poi, il nostro sistema di produzione alimentare dovrà cambiare, ma per ora, e per il prossimo futuro, non possiamo pensare di sfamare il pianeta senza ricorrere ai combustibili fossili.


Il costo in energia di pane, pollo e pomodori.


Data l’enorme varietà di forme in cui si può presentare, mi limiterò a trattare soltanto alcuni dei tipi di pane lievitato che fanno comunemente parte dei regimi alimentari dell’Occidente e che oggi possono essere trovati in una varietà di regioni che vanno dall’Africa occidentale (il dominio outre-mer della baguette francese) al Giappone (qualsiasi grande magazzino ha al suo interno un panificio in stile francese o tedesco). Si comincia dal frumento, e per nostra fortuna non mancano gli studi che abbiano tentato di quantificare gli investimenti necessari, in termini di combustibili ed elettricità, e di confrontarli in base all’area di terreno coltivato o alla resa delle differenti varietà di colture granicole22. La coltivazione dei cereali si trova alla base della piramide dei requisiti energetici, necessitando di apporti relativamente modesti se paragonati agli altri cibi dai noi favoriti, ma, come vedremo, necessita comunque di una quantità di energia sorprendentemente elevata.


Negli Stati Uniti, la produzione del frumento nei vasti appezzamenti delle Grandi Pianure, irrigati dalle piogge, è cosí efficiente che sono sufficienti 4 megajoule circa per chilo di cereale. Essendo una larga parte di questa energia fornita in forma di gasolio ottenuto tramite la raffinazione del petrolio greggio, il paragone potrebbe essere reso in termini piú concreti indicandone il quantitativo equivalente anziché l’unità di misura standard dell’energia (i joule)23. Non solo, esprimendo il fabbisogno di carburante diesel in termini di volume per unità di prodotto commestibile (sia questo pari a 1 chilogrammo, a una pagnotta o a un pasto) si rendono questi apporti energetici piú facili da visualizzare mentalmente.


Se il gasolio contiene 36,9 megajoule per litro, l’energia normalmente richiesta dalle coltivazioni di grano delle Grandi Pianure sarà quasi esattamente 100 millilitri (1 decilitro o 0,1 litri) di gasolio per chilogrammo – appena meno della metà di una «tazza» americana, un’unità di misura della capacità24. Di seguito userò il volume equivalente in gasolio per indicare l’energia investita nel processo di produzione di specifici alimenti.


Il pane prodotto con il lievito naturale è la tipologia di pane lievitato piú semplice, l’alimento di base della civiltà europea: contiene solo farina di grano tenero, acqua e sale, e il lievito è ricavato, ovviamente, da farina e acqua. Un chilo di questo pane è composto da circa 580 grammi di farina, 410 di acqua e 10 di sale25. La macinazione – il processo attraverso cui viene rimossa la crusca, lo strato esterno del chicco di grano – riduce la massa dei chicchi di circa il 25 per cento (un tasso di estrazione del 72-76 per cento)26. Ciò significa che per ottenere 580 grammi di farina di grano tenero bisogna partire da circa 800 grammi di farina integrale, la cui produzione richiede l’equivalente di 80 millilitri di gasolio.


La macinazione del cereale necessita quindi dell’equivalente di circa 50 millilitri di carburante per chilo (mL / kg) di farina di grano tenero tipo 00 prodotta, mentre secondo le statistiche disponibili i processi di cottura su larga scala da parte di imprese moderne ed efficienti – realizzati attraverso il consumo di gas naturale ed elettricità – richiedono l’equivalente di 100-200 mL / kg di carburante27. Crescere il frumento necessario, macinarlo e cuocere una pagnotta da 1 chilo utilizzando lievito naturale richiede pertanto un investimento in energia pari all’equivalente di almeno 250 millilitri di gasolio, un volume leggermente superiore a quello di una tazza. Per una baguette standard (250 grammi), l’energia incorporata equivale a circa 2 cucchiai di carburante diesel; per il Bauernbrot tedesco, di dimensioni maggiori (2 chili), l’energia richiesta è di circa due tazze di gasolio (quella necessaria per la produzione di una pagnotta integrale è inferiore).


Ma il costo reale è ancora piú alto, perché soltanto una piccola parte del pane in commercio viene cotta nello stesso luogo dove viene anche venduta. Persino in Francia, le boulangeries di quartiere stanno scomparendo e le baguettes sono distribuite in grandi panifici: il risparmio energetico dovuto all’efficienza della produzione su scala industriale è neutralizzato dai costi maggiori per il trasporto, e il consumo di energia totale (necessaria per tutto il processo, a partire dalla coltivazione e dalla macinazione passando per la cottura in un grande panificio e arrivando alla distribuzione del pane ai clienti piú lontani) può ammontare fino a 600 mL / kg!


Ma se per il pane il rapporto tipico (approssimativamente 5 a 1) tra la massa di prodotto commestibile e quella dell’energia incorporata (1 chilo di pane per circa 210 grammi di gasolio) sembra straordinariamente alto, ricordatevi che i cereali – anche dopo che sono stati trattati e trasformati nei nostri cibi preferiti – si trovano alla base della scala dei requisiti energetici per la produzione alimentare. Quali sarebbero le conseguenze se decidessimo di seguire raccomandazioni nutrizionali cosí discutibili come quelle, oggi promosse sotto il fuorviante ombrello di «dieta paleolitica», che ci invitano a evitare tutti i tipi di cereali e di passare invece a un regime alimentare esclusivamente a base di carne, pesce, verdura e frutta?


Piuttosto che calcolare i costi energetici associati alla produzione del manzo (un tipo di carne già assai vilipeso), quantificherò invece quelli della carne prodotta in maniera piú efficiente – quella degli esemplari di pollo comune che vengono cresciuti in grandi strutture all’interno dei cosiddetti sistemi Cafo (Concentrated Animal Feeding Operations, Operazioni di Alimentazione Concentrata del Bestiame). Nel caso dei polli, ciò significa allevare e dare da mangiare a decine di migliaia di volatili dentro lunghe strutture rettangolari dove sono ammassati in spazi male illuminati (come in una notte di luna piena) e nutriti per circa sette settimane, dopo le quali vengono portati al macello28. Il Dipartimento dell’agricoltura degli Stati Uniti pubblica statistiche sul rendimento annuale dell’alimentazione degli animali addomesticati e lungo il corso degli ultimi cinque decenni il rapporto tra unità di mangime calcolato in chicchi di grano e unità di peso vivo non ha mostrato alcun calo né per il manzo né per la carne di maiale, ma sono stati osservati dei progressi incredibili per quella di pollo29.


Nel 1950, servivano 3 unità di mangime per unità di peso vivo di pollo comune; oggi il valore è sceso a 1,82, circa un terzo del rapporto necessario per i suini e un settimo di quello per i bovini30. Ovviamente, non viene mangiato l’intero animale (con penne e ossa incluse), e la correzione per peso commestibile (circa il 60 per cento del peso vivo) ci restituisce un rapporto mangime / carne nel migliore dei casi di 3 a 1. Negli Stati Uniti per produrre un pollo (il cui peso commestibile medio oggi è pari quasi a 1 chilo esatto) servono 3 chili di mais31. Le colture di mais bagnate dalle piogge sono efficienti, con una resa elevata e un costo energetico modesto – equivalente a circa 50 millilitri di gasolio per chilo di cereale –, ma il granturco coltivato con sistemi di irrigazione artificiale può arrivare a richiedere il doppio dell’energia, e nel resto del mondo la resa tipica delle coltivazioni di mais e il tasso di conversione del mangime sono inferiori a quelli registrati negli Stati Uniti. Ne consegue che in alcuni casi il costo in termini di energia del mangime necessario per produrre 1 chilo di carne commestibile può essere anche solo di 150 millilitri di gasolio, ma in altri casi la spesa può raggiungere i 750 mL / kg.


Un ulteriore aumento della spesa energetica può essere causato dal commercio intercontinentale di mangime su larga scala: un settore in cui dominano le esportazioni di mais americano e di fagioli di soia americani e brasiliani. La coltivazione della soia in Brasile richiede l’equivalente di 100 millilitri di gasolio per chilo di fagioli, ma il trasporto su ruota dall’area di produzione ai porti e sulle navi dirette verso l’Europa raddoppia il quantitativo di energia necessaria32. Per allevare polli da carne fino al raggiungimento del peso ideale per la macellazione bisogna mettere in conto anche l’energia necessaria per il riscaldamento e l’aria condizionata, per mantenere in funzione il pollaio, per procurare l’acqua e la segatura, e per rimuovere le deiezioni animali e trasformarle in concime. L’energia richiesta varia di molto a seconda del luogo (a incidere sono soprattutto il condizionamento dell’aria in estate e il riscaldamento durante l’inverno), e quindi una volta sommata a quella necessaria per il trasporto del mangime si ottiene un ampio spettro di possibili quantitativi totali – da 50 a 300 millilitri di gasolio per chilo di carne commestibile33.


La stima piú contenuta possibile dell’energia richiesta per nutrire e crescere un pollo sarebbe quindi di circa 200 millilitri di gasolio per chilo di carne, ma questo valore può salire fino a 1 litro. Se ci aggiungiamo l’energia necessaria per la macellazione e per la lavorazione della carne (oggigiorno quella di pollo viene venduta nella maggior parte dei casi in pezzi e non in forma intera), per la vendita al dettaglio, per la sua conservazione nei magazzini e per la refrigerazione domestica, e infine per la cottura, la spesa totale di energia necessaria per far arrivare in tavola un chilo di pollo cotto al forno è di almeno 300-350 millilitri di petrolio greggio: quasi mezza bottiglia di vino (ma nel caso dei produttori meno efficienti, può superare un litro).


I valori minimi di 300 o 350 mL / kg indicano una prestazione particolarmente efficiente se paragonati ai 210-250 mL / kg che servono per il pane, e ciò si riflette nel prezzo altrettanto accessibile del pollo: nelle città degli Stati Uniti, il prezzo medio per un chilo di pane bianco è soltanto del 5 per cento inferiore a quello di un chilo di pollo intero (e il pane integrale costa il 35 per cento in piú!), mentre in Francia un chilo di pollo intero standard costa solamente il 25 per cento in piú del prezzo medio del pane34. Ciò ci aiuta a comprendere la rapida ascesa del pollo, la cui carne è divenuta quella dominante in tutti i Paesi occidentali (a livello globale, al primo posto si trova ancora il maiale, a causa dell’enorme domanda cinese).


Considerati gli elogi che i vegani fanno di una dieta esclusivamente vegetale, e tutto lo spazio dedicato dai media agli elevati costi ambientali associati alla produzione di carne, verrebbe da credere che i progressi compiuti in termini di costi energetici per la produzione del pollo siano stati superati da quelli compiuti nella coltivazione e vendita di frutta e verdura. Ma sarebbe un errore. È vero l’opposto, in realtà, e non c’è esempio migliore di questi costi inaspettatamente cosí elevati dei pomodori. Hanno tutto quello che si può desiderare – un colore attraente, un’ampia varietà di forme, una buccia liscia e un interno succulento. Dal punto di vista botanico, il pomodoro è il frutto del Lycopersicon esculentum, una pianta di piccole dimensioni nativa dell’America Centrale e del Sud, esportata nel resto del mondo all’epoca delle prime rotte transatlantiche percorse dalle navi europee, ma le ci vollero diverse generazioni per riuscire a conquistare i palati di tutto il globo35. Mangiato crudo, all’interno di zuppe, ripieno, cotto al forno, tagliato a pezzi, bollito, passato per fare salse e usato come ingrediente per innumerevoli tipi di insalate e pietanze differenti, è oggi uno degli alimenti prediletti in Paesi che vanno dal Messico al Perú, sue terre natie, fino alla Spagna, all’Italia, all’India e alla Cina (attualmente il maggior produttore).


I vademecum nutrizionali elogiano il suo alto contenuto di vitamina C: in effetti, un pomodoro di grandi dimensioni (200 grammi) può fornire due terzi della dose giornaliera consigliata per un adulto36. Ma, come è il caso per tutti i frutti freschi e succulenti, non viene mangiato per il suo contenuto energetico; è per lo piú un contenitore d’acqua dalla forma invitante, con il liquido che costituisce infatti il 95 per cento della sua massa totale. Per il resto, è formato in larga parte da carboidrati, qualche proteina e appena una traccia di grassi.


I pomodori possono essere coltivati dovunque siano assicurati almeno novanta giorni di clima caldo, può andare bene la veranda esterna di un cottage situato sulla riva del mare di Stoccolma come un orto delle praterie canadesi (in entrambi i casi, partendo da piante cresciute inizialmente in casa). Ma la coltivazione commerciale è una questione differente. Come con tutti i tipi di frutta e verdura, fatta esclusione per una piccola parte, consumati nella società contemporanea, la coltivazione dei pomodori è un affare altamente specializzato e la maggior parte delle varietà che è possibile trovare nei supermercati dell’America del Nord e dell’Europa provengono da un numero ristretto di luoghi. Negli Stati Uniti uno di essi è la California; in Europa sono l’Italia e la Spagna. Al fine di incrementare la resa e la qualità delle piantagioni, e di ridurre i requisiti in termini di energia, i pomodori vengono sempre piú spesso coltivati in strutture a forma di tunnel, singoli o multipli, ricoperti con teli di plastica o all’interno di serre, non solo in Canada e nei Paesi Bassi ma anche in Messico, Cina, Spagna e Italia.


Tutto ciò ci riporta ai combustibili fossili e all’elettricità. Le materie plastiche costituiscono un’alternativa meno costosa rispetto alla costruzione di serre multiple con pareti in vetro, e la coltivazione dei pomodori richiede inoltre l’impiego di legacci, picchetti e sistemi di scolo, in plastica. Nelle piantagioni all’aperto si effettua la pacciamatura, operazione che consiste nel coprire il terreno con teli di plastica cosí da ridurre l’evaporazione dell’acqua e prevenire la crescita di piante infestanti. Per la sintesi dei composti che costituiscono le materie plastiche si ricorre agli idrocarburi (petrolio greggio e gas naturale), sia come materie prime che come fonte di energia. Tra le materie prime sono inclusi l’etano e altri liquidi separati dal gas naturale, cosí come la nafta prodotta attraverso il processo di raffinazione del petrolio. Il gas naturale viene usato anche come carburante per il processo di produzione della plastica e costituisce (come abbiamo visto) la materia prima piú importante – essendo la fonte da cui si ricava l’idrogeno – per la sintesi dell’ammoniaca. Altri idrocarburi servono come materie prime per la produzione di composti finalizzati alla protezione delle piantagioni (insetticidi e fungicidi), dato che neanche le piante cresciute all’interno di serre in vetro o in plastica sono immuni da parassiti e malattie.


Per esprimere in termini monetari i costi operativi annuali della coltivazione del pomodoro basta sommare le spese necessarie per i germogli, i fertilizzanti, i prodotti agrochimici, l’acqua, il riscaldamento e il lavoro umano e calcolare in rapporto al tempo il costo di quelle strutture e componenti – supporti in metallo, teli di plastica, pareti di vetro, tubi, vasi, dispositivi per il riscaldamento – che possono essere utilizzati per un periodo superiore a un anno. Ma mettere insieme un conto comprensivo del consumo in energia non è cosí semplice. Gli apporti diretti di energia sono facili da quantificare, è sufficiente basarsi sulle bollette della luce e sulle spese per il carburante; ma per calcolare i flussi indiretti di energia spesa per la produzione dei materiali serve una rendicontazione molto dettagliata e in genere anche una buona dose di supposizioni.


Studi dettagliati hanno quantificato i materiali necessari, moltiplicandoli per quello che normalmente è il loro costo in energia: per esempio, il processo di sintesi, di preparazione della miscela finale e di imballaggio di 1 chilogrammo di fertilizzante azotato richiede l’equivalente di quasi 1,5 litri di gasolio. Non sorprende che questi studi mostrino un’ampia varietà di possibili costi complessivi, ma un’analisi in particolare – forse lo studio piú meticoloso che sia stato realizzato della coltivazione dei pomodori nelle serre-tunnel multiple impiegate ad Almería in Spagna – è giunta alla conclusione che il fabbisogno energetico totale è di oltre 500 millilitri di gasolio (piú di due tazze) per chilo di raccolto netto di pomodori nelle serre riscaldate e di 150 mL / kg in quelle non riscaldate37.


Costi energetici cosí elevati sono dovuti, in larga parte, al fatto che i pomodori cresciuti in serra sono tra le colture che ricevono la maggiore quantità fertilizzante: a parità di area di terreno coltivato, ricevono fino a 10 volte l’azoto (e anche il fosforo) impiegato per la produzione del mais, il cereale dominante negli Stati Uniti38. Sono impiegati pure zolfo, magnesio e altri micronutrienti, cosí come diversi prodotti chimici destinati alla protezione dagli insetti e dai funghi. Il sistema di riscaldamento rappresenta l’uso diretto di energia piú importante per la coltivazione in serra: estende la durata della stagione di crescita e migliora la qualità delle piante ma, inevitabilmente, nei climi freddi finisce per essere la principale fonte di consumo energetico.


Le serre in plastica collocate nella parte piú a sud della provincia di Almería formano la piú vasta area coperta di terreno coltivato a fini commerciali: circa 40 000 ettari (pensate a un quadrato di 20 x 20 km) facilmente riconoscibili dalle immagini satellitari – come potete verificare su Google Earth. Potete pure farvi un giro su Google Street View, che offre l’esperienza di fare una gita surreale tra queste basse strutture ricoperte da teli in plastica. Sotto lo strato di plastica, i contadini spagnoli e la manodopera locale o africana producono annualmente (con temperature che superano spesso i 40°C) quasi 3 milioni di tonnellate di ortaggi prematuri e fuori stagione (pomodori, peperoncini, fagiolini, zucchine, melanzane, meloni) e qualche frutto, l’80 per cento dei quali è esportato verso altri Paesi dell’Unione europea39. Un camion impiegato nel trasporto di 13 tonnellate di pomodori da Almería a Stoccolma percorre 3.745 chilometri e consuma circa 1.120 litri di gasolio40. Il che si traduce in quasi 90 millilitri di combustibile per chilo di pomodori, e il trasporto, lo stoccaggio nei centri locali di distribuzione e la consegna ai negozi per la vendita al dettaglio, fanno salire il costo a quasi 130 mL / kg.


Ciò significa che, quando vengono acquistati in un supermercato della Scandinavia, i pomodori provenienti dalle serre in plastica riscaldate di Almería incorporano un costo energetico di produzione e trasporto straordinariamente elevato. Il totale equivale a circa 650 mL / kg, ovvero piú di cinque cucchiai (ciascuno contenente 14,8 millilitri) di gasolio per ogni pomodoro di dimensioni medie (125 grammi)! È possibile rappresentare visivamente – con facilità e senza alcuno spreco – tale rapporto tagliando a spicchi un pomodoro di quella grandezza, impiattandolo e versandoci sopra cinque o sei cucchiai di olio scuro (quello di sesamo riproduce bene il colore del combustibile). Quando il carico di combustibili fossili che grava su questo alimento cosí semplice vi avrà fatto un’impressione sufficientemente forte, potrete trasferire il contenuto del piatto in una ciotola, aggiungerci altri due o tre pomodori, un goccio di salsa di soia, sale, pepe e semi di sesamo, e godervi una gustosa insalata di pomodori. Quanti vegani sono coscienti dell’impronta in combustibili fossili di una simile pietanza?


Il ruolo del gasolio nella pesca.


Gli alti livelli di produttività raggiunti dalle società moderne hanno reso la pratica della caccia sulla terraferma (l’attività stagionale di abbattimento con armi da fuoco di mammiferi e volatili selvatici) una fonte di nutrimento marginale per i Paesi ricchi. Il consumo di carne di animali selvatici, nella maggior parte dei casi cacciati illegalmente, resta piú comune nell’Africa subsahariana, ma in seguito alla rapida crescita demografica anche in quella regione ha smesso di costituire una delle fonti principali di proteine animali. Al contrario, la stessa attività svolta in mare, la pesca, non è mai stata cosí ampiamente e intensamente praticata come al giorno d’oggi, con vaste flotte di imbarcazioni – che vanno da grandi e moderne fabbriche galleggianti a barchini decrepiti – impegnate a solcare gli oceani del pianeta alla ricerca di pesci e crostacei selvatici41.


A quanto pare la cattura di quelli che gli italiani chiamano «frutti di mare» costituisce l’operazione di approvvigionamento alimentare piú dispendiosa dal punto di vista energetico. Certo, non tutti gli animali acquatici sono difficili da catturare, e la pesca di alcune specie ancora presenti in abbondanza nei nostri mari non richiede lunghe spedizioni nelle aree remote del Sud Pacifico. La pesca di specie pelagiche (che abitano nei pressi della superficie marina) come le alici, le sardine o gli sgombri può essere effettuata spendendo una quantità relativamente ridotta di energia, indiretta, attraverso la costruzione di imbarcazioni e di ampie reti per la pesca, e diretta, sotto forma del gasolio impiegato per alimentare i motori delle imbarcazioni in questione. I rendiconti migliori mostrano una spesa che può limitarsi a 100 mL / kg, l’equivalente di meno della metà di una tazza di gasolio42.


Se volete consumare il pesce selvatico con il minor impatto ambientale, restate sulle sardine. La media per la cattura di pesci e frutti di mare è straordinariamente alta – 700 mL / kg (quasi un’intera bottiglia di vino, ma piena di gasolio) – e i valori piú elevati, quelli per le aragoste o i gamberi selvatici per esempio, superano, incredibilmente, i 10 L / kg (chilo in cui è compresa una buona parte di esoscheletro non commestibile!)43 Ciò significa che soltanto due spiedini di gamberetti selvatici di dimensioni medie (per un peso totale di 100 grammi) possono richiedere 0,5-1 litri di gasolio, equivalenti a 3-4 tazze.


Ma qualcuno potrebbe obiettare che oggigiorno i gamberetti provengono in larga parte dall’acquacoltura, e questo tipo di operazione su scala industriale non ha forse goduto degli stessi vantaggi sfruttati con successo nell’allevamento del pollame? Purtroppo no, per via delle fondamentali differenze nel metabolismo dei diversi tipi di animali. Il pollo è erbivoro e se tenuto in gabbia l’energia che consuma nell’attività fisica è limitata. Perciò, se nutrito con le materie vegetali adatte – oggigiorno per lo piú una combinazione di mangimi a base di mais e soia – sperimenterà una crescita rapida. Sfortunatamente, le specie marine piú apprezzate in cucina (il salmone, la spigola, il tonno) sono carnivore, e per uno sviluppo appropriato hanno bisogno di consumare mangime ricco di proteine a base di pesce e olio di pesce provenienti dalla pesca di esemplari selvatici di acciughe, sardine, mallotti, aringhe e sgombri.


La diffusione della pratica dell’acquacoltura – il cui prodotto globale totale, da acqua dolce e da acqua salata, sta raggiungendo quello generato dalla pesca di esemplari selvatici (nel 2018 era di 82 milioni di tonnellate, contrapposte alle 96 milioni di tonnellate attribuite alla pesca) – ha allentato la pressione esercitata sugli stock ittici naturali di alcune delle specie carnivore piú popolari e soggette a pesca eccessiva, ma ha intensificato lo sfruttamento di organismi erbivori di minori dimensioni la cui cattura è necessaria in quantità sempre maggiori per poter alimentare gli allevamenti in espansione44. Il risultato è che i costi energetici di un allevamento di spigole all’interno di gabbie nel Mar Mediterraneo (la Grecia e la Turchia sono i principali produttori) sono normalmente equivalenti a 2-2,5 litri di gasolio per chilogrammo (un volume pari quasi a quello di tre bottiglie di vino) – ovvero nello stesso ordine di grandezza dei costi energetici per la cattura di altre specie selvatiche di simili dimensioni.


Come si poteva prevedere, solo l’acquacoltura di pesci erbivori che crescono bene cibandosi di mangime a base vegetale – in particolare le differenti specie di carpe allevate in Cina (la carpa testagrossa, la carpa argentata, la carpa nera e la carpa erbivora sono le piú comuni) – presenta un basso costo energetico, di norma meno di 300 mL / kg. Ma, a parte le tradizionali cene per la vigilia di Natale in Austria, Repubblica Ceca, Germania e Polonia, la carpa è una scelta culinaria abbastanza impopolare in Europa e viene mangiata molto raramente nell’America del Nord, mentre la domanda di tonno, di cui alcune varietà oggi vengono elencate tra le specie marine carnivore a maggiore rischio d’estinzione, continua a crescere grazie alla rapida diffusione del sushi a livello globale.


Dunque, l’evidenza è innegabile: l’approvvigionamento alimentare – si tratti di cereali di base, di pollame, delle nostre verdure preferite o dei pesci e frutti di mare tanto apprezzati per le loro qualità nutritive – è divenuto nel tempo sempre piú dipendente dai combustibili fossili. Un dato di realtà fondamentale comunemente ignorato da coloro che non tentano di comprendere come funziona realmente il nostro mondo e che oggi preannunciano un rapido processo di decarbonizzazione. Costoro rimarrebbero sconvolti dalla notizia che l’attuale situazione non può essere cambiata con facilità o rapidamente: come abbiamo visto nel capitolo precedente, l’ubiquità e la scala di questo rapporto di dipendenza sono ormai troppo pronunciate.


Cibo e carburanti.


Svariati studi hanno tracciato l’aumento del rapporto di dipendenza del sistema di produzione alimentare dalle moderne – e in larghissima parte fossili – fonti energetiche, dall’assenza di un loro contributo in questo campo agli inizi dell’Ottocento fino ai livelli raggiunti piú di recente (che vanno da 0,25 tonnellate di petrolio greggio per ettaro di terra coltivata a cereali a 10 volte tanto nel caso di coltivazioni all’interno di serre riscaldate)45. Forse il modo migliore per renderci pienamente conto dell’incremento e dell’entità di questa forma di dipendenza che caratterizza il mondo intero consiste nel confrontare l’incremento dei contributi con l’espansione del suolo coltivato e la crescita della popolazione mondiale. Tra il 1900 e il 2000, gli abitanti del pianeta sono poco meno che quadruplicati (cresciuti di 3,7 volte tanto, per essere precisi) mentre la terra impiegata per la produzione di cibo è cresciuta di circa il 40 per cento, ma secondo i miei calcoli gli apporti di origine antropica in agricoltura sono aumentati del 90 per cento, e al primo posto tra questi troviamo l’energia contenuta nei prodotti agrochimici e nei carburanti che alimentano i macchinari agricoli46.


Ho anche calcolato il peso relativo esercitato a livello globale da questo rapporto di dipendenza. I contributi di energia antropica forniti all’agricoltura moderna (inclusi quelli per il trasporto dei raccolti), alla pesca e all’acquacoltura arrivano complessivamente a costituire soltanto il 4 per cento circa del consumo annuale globale di energia. Può sembrare una percentuale sorprendentemente modesta, ma bisogna ricordare che sarà sempre il Sole a fare la gran parte del lavoro necessario per la crescita del cibo, e gli apporti esterni di energia si concentrano su quei segmenti dell’industria alimentare nei quali ci si aspetta che la riduzione o l’eliminazione dei limiti imposti dalla natura possa portare ai maggiori ritorni sugli investimenti – che ciò avvenga attraverso i fertilizzanti, l’irrigazione, la protezione delle colture dagli insetti e dai funghi e dalle piante infestanti, o raccogliendo i prodotti delle piantagioni appena questi siano maturi. Una quota cosí ridotta può anche essere considerata un esempio persuasivo di come contributi modesti possono avere risultati sproporzionatamente significativi, un fenomeno non inusuale nel funzionamento dei sistemi complessi: pensate alle vitamine e ai minerali, necessari in dosi giornaliere di qualche milligrammo (vitamina B6, rame) o microgrammo (vitamina D, vitamina B12) per mantenere in salute corpi che pesano decine di chili.


Ma l’energia richiesta per la produzione alimentare – per la coltivazione, l’allevamento e la pesca – costituisce solamente una parte del totale del carburante e dell’elettricità necessari al funzionamento dell’intera filiera, la cui stima complessiva dà come risultato una porzione della fornitura totale di energia molto maggiore. I dati migliori a nostra disposizione sono quelli relativi agli Stati Uniti, dove, grazie alla prevalenza di tecniche moderne e alla diffusione delle economie di scala, il consumo diretto di energia per la produzione di cibo si colloca intorno all’1 per cento dell’intera fornitura nazionale47. Ma sommando l’energia impiegata per la lavorazione, la promozione, l’imballaggio, il trasporto, la vendita al dettaglio e all’ingrosso, la conservazione domestica e la preparazione dei cibi, oltre che quella per il settore della ristorazione, il totale negli Stati Uniti si avvicinava al 16 per cento della fornitura nazionale di energia nel 2007 e al 20 per cento ai giorni nostri48. I fattori che guidano l’aumento di questi requisiti energetici vanno dalla crescente centralizzazione del processo produttivo – e quindi da una sempre maggiore necessità di trasporto dei prodotti – passando per una crescente dipendenza dalle importazioni, fino a un consumo maggiore di pasti mangiati fuori dalle mura domestiche e di cibi pronti acquistati altrove ma consumati a casa49.


Ci sono svariate ragioni per non perseverare in molte delle pratiche odierne di produzione alimentare. L’importante contributo del settore agricolo alle emissioni di gas serra è oggi l’argomento piú comune usato per giustificare un cambio di rotta radicale. Ma la coltivazione dei terreni, l’allevamento degli animali e la pratica dell’acquacoltura realizzati con tecniche moderne hanno molti altri effetti indesiderati sull’ambiente, dalla perdita di biodiversità alla creazione di zone morte nelle acque costiere (per saperne di piú si veda il Sesto capitolo) – e non ci sono buone ragioni per mantenere un cosí eccessivo livello di produzione, insieme allo spreco alimentare che lo accompagna. Cosí, molti cambiamenti ci appaiono desiderabili, ma a che velocità possono realmente essere attuati, quanto profondamente possiamo davvero modificare il nostro modo di vivere?


Possiamo tornare indietro?


Possiamo invertire almeno alcune di queste tendenze? Può un mondo di, ben presto, 8 miliardi di persone nutrire sé stesso – mantenendo allo stesso tempo una certa varietà di colture e di prodotti animali e la qualità dei regimi alimentari oggi predominanti – senza ricorrere a fertilizzanti sintetici e ad altri prodotti agrochimici? Potremmo tornare a un tipo di coltivazione puramente organica, che faccia affidamento sul riciclo dei rifiuti organici e su un tipo di controllo dei parassiti naturale? Potremmo fare a meno dei sistemi di irrigazione azionati da motori, cosí come dei macchinari agricoli, ricorrendo nuovamente agli animali da tiro? Sí che potremmo, ma un tipo di agricoltura puramente organica richiederebbe che la maggior parte di noi abbandonasse le città e si ristabilisse nei villaggi, lo smantellamento dell’alimentazione centralizzata del bestiame e il riportare gli animali nelle fattorie affinché siano usati come forza lavoro e fonte di concime.


Ogni giorno dovremmo dare da mangiare e da bere al bestiame, rimuovere le sue deiezioni, farle fermentare per poi spargerle come concime sui campi, badare alle mandrie e ai greggi al pascolo. Seguendo i ritmi del lavoro stagionale, gli uomini condurrebbero gli aratri trainati da gruppi di cavalli; le donne e i bambini spargerebbero i semi e sradicherebbero le malerbe dai terreni agricoli; e tutti darebbero il loro contributo nelle fasi di raccolta e macellazione, ammassando i fasci di grano, cavando dal terreno le patate, aiutando a trasformare in cibo maiali e anatre appena macellate. Non riesco a immaginare che i fautori dell’agricoltura green e biologica possano optare per un simile stile di vita, almeno non nel futuro prossimo. E anche se fossero disposti a svuotare le città e abbracciassero una pratica di vita veramente biologica, riuscirebbero comunque a produrre soltanto il cibo sufficiente a sostenere meno della metà della popolazione globale odierna.


I numeri a conferma di quello che ho appena affermato non sono difficili da maneggiare. Il declino della quantità di lavoro umano necessaria per produrre frumento negli Stati Uniti, descritto nelle pagine precedenti, è un esempio perfetto dell’impatto piú generale che il processo di meccanizzazione e l’introduzione dei prodotti agrochimici hanno avuto sul volume della forza lavoro impiegata in agricoltura nel Paese. Tra il 1800 e il 2020, abbiamo ridotto il lavoro richiesto per la produzione di un chilogrammo di chicchi di grano di oltre il 98 per cento – e abbiamo ridotto la quota della popolazione del Paese impiegata in agricoltura di un margine altrettanto ampio50. Il che ci dà un’idea precisa delle profonde trasformazioni economiche che avrebbero luogo in seguito a un qualsiasi processo di arretramento della meccanizzazione in agricoltura e di riduzione dell’uso dei prodotti agrochimici sintetici.


Maggiore la riduzione del ricorso ai combustibili fossili per questo tipo di attività, maggiore la forza lavoro che dovrebbe lasciare le città per produrre il cibo alla vecchia maniera. Quando il numero di cavalli e muli negli Stati Uniti raggiunse il proprio picco, prima degli anni Venti, un quarto dei terreni agricoli era dedicato alla coltivazione del mangime per oltre 25 milioni di cavalli e muli da tiro – e a quel tempo le fattorie degli Stati Uniti dovevano produrre il cibo necessario a sfamare soltanto 105 milioni di persone circa. Ovviamente, nutrire gli oltre 330 milioni di abitanti odierni impiegando «solo» 25 milioni di cavalli sarebbe impossibile. E senza l’aiuto dei fertilizzanti sintetici, la resa delle piantagioni destinate alla produzione di cibo e mangime, che farebbero un totale affidamento sul riciclo delle sostanze organiche, sarebbe una frazione di quella attuale. Il mais, la principale coltura americana, produceva meno di 2 tonnellate per ettaro nel 1920, e 11 tonnellate per ettaro nel 202051. Milioni di animali da tiro aggiuntivi sarebbero necessari per coltivare praticamente la totalità del suolo del Paese e sarebbe impossibile trovare abbastanza materia organica da riciclare (ed entusiasti spanditori di concime come era Claude) o crescere coltivazione da sovescio (ricorrendo cioè alla rotazione delle colture con l’alfalfa e il trifoglio) sufficientemente estese per eguagliare i nutrienti procurati oggi attraverso l’utilizzo di fertilizzanti sintetici.


Questa impossibilità è meglio illustrata da una serie di semplici accostamenti. Riciclare le sostanze organiche è qualcosa sempre altamente desiderabile, dato che migliora la struttura del suolo, ne aumenta la concentrazione di composti organici in esso contenuti, e fornisce energia alla miriade di microbi e organismi invertebrati che lo abitano. Ma il basso contenuto di azoto delle sostanze organiche implica che gli agricoltori debbano utilizzare enormi quantità di paglia e letame per fornire questo nutrimento essenziale per le piante in quantità sufficienti a produrre un rendimento elevato delle coltivazioni. Il contenuto di azoto della paglia ricavata dai cereali (il residuo delle colture piú abbondante) è sempre modesto, di solito tra lo 0,3 e lo 0,6 per cento; nelle deiezioni mischiate alla lettiera degli animali (in genere formata da paglia) la percentuale è solo fra lo 0,4 e lo 0,6; gli escrementi umani fermentati (il cosiddetto night soil usato in Cina) hanno un contenuto tra l’1 e il 3 per cento; e quello del concime che viene sparso sui campi raramente supera il 4 per cento.


L’urea, oggi il fertilizzante azotato predominante nel mondo, ha invece un contenuto d’azoto del 46 per cento, quello del nitrato d’ammonio è del 33 per cento, mentre quello delle miscele liquide piú utilizzate è del 28-32 per cento, una densità di almeno un ordine di grandezza superiore a quella degli escrementi riciclati52. Ciò significa che per fornire la stessa mole di nutrienti alle piante, un coltivatore dovrebbe utilizzare una massa di concime tra le 10 e le 40 volte maggiore – e in realtà, ne servirebbe ancora di piú, dato che una parte significativa dei composti azotati va perduta, per evaporazione o perché dissolta nell’acqua e trasportata al di sotto del livello delle radici, con una perdita aggregata di azoto associata alle sostanze organiche quasi sempre piú alta di quella dovuta ai prodotti sintetici liquidi o solidi.


Inoltre, la domanda di lavoro subirebbe un incremento ancora piú significativo, dato che maneggiare, trasportare e spargere il letame è un compito piú arduo rispetto a utilizzare piccoli granuli che possono essere sparsi da spandiconcime meccanici o (come si fa con l’urea in Asia nei campi di riso di dimensioni ridotte) semplicemente sotterrandoli a mano. E indipendentemente dagli sforzi che possono essere investiti nel riciclo dei materiali organici, la massa totale di questi ultimi è semplicemente insufficiente a fornire l’azoto necessario a produrre i raccolti odierni.


Una catalogazione a livello globale dell’azoto in forma reattiva ci mostra che sono sei le fonti piú importanti attraverso le quali l’elemento giunge ai terreni agricoli: i depositi atmosferici, l’acqua d’irrigazione, l’interramento tramite aratura dei residui delle colture, lo spargimento del letame di origine animale, l’azoto lasciato nel suolo dalle coltivazioni di leguminose, l’utilizzo di fertilizzanti sintetici53.


I depositi atmosferici – soprattutto in forma di pioggia o neve in cui sono sciolti i nitrati – e il riciclo dei residui delle colture (paglia e steli di piante che non sono rimossi dai campi per nutrire gli animali o bruciati sul posto) contribuiscono singolarmente a circa 20 megatonnellate di azoto all’anno. Il concime animale utilizzato nei campi, proveniente soprattutto da bovini, maiali e polli, contiene quasi 30 megatonnellate; una massa simile a quella dell’azoto fornito dalle leguminose (le cosiddette colture di copertura destinate al sovescio, cosí come la soia, i fagioli, i piselli e i ceci); e l’acqua d’irrigazione porta circa 5 megatonnellate: in totale, 105 megatonnellate di azoto in un anno. I fertilizzanti sintetici forniscono altre 110 megatonnellate all’anno, o poco piú della metà delle 210-220 megatonnellate totali. Ciò significa che almeno la metà dei raccolti odierni a livello globale si deve all’impiego di composti azotati sintetici, senza i quali sarebbe impossibile soddisfare le abitudini alimentari predominanti anche solo della metà dei quasi 8 miliardi di persone che oggi abitano il pianeta. Anche se potremmo effettivamente ridurre l’entità della nostra dipendenza dall’ammoniaca sintetica, mangiando meno carne e sprecando meno cibo, rimpiazzare l’apporto di circa 110 megatonnellate di azoto fornite oggi sotto forma di composti sintetici con quello ricavato da fonti naturali è un obiettivo raggiungibile solamente in teoria.


Diversi fattori limitano le possibilità di riciclo del letame prodotto dagli animali in ambienti confinati54. Negli allevamenti misti tradizionali le deiezioni di bovini, suini e pollame erano prodotte da un numero relativamente ristretto di esemplari e venivano riciclate direttamente nei terreni adiacenti. La produzione di carne e uova attraverso operazioni di alimentazione concentrata del bestiame ha ridotto la praticabilità di una simile opzione: queste imprese generano quantità tali di escrementi che il loro utilizzo nei campi vicini sovraccaricherebbe il suolo all’interno dell’area in cui converrebbe spargerli; la presenza di metalli pesanti e di residui di medicinali (provenienti dagli additivi contenuti nel mangime) costituisce un altro problema55. Limitazioni analoghe caratterizzano l’uso esteso dei fanghi (i biosolidi) ricavati dalle acque reflue urbane attraverso moderni impianti di trattamento delle acque. In questo caso gli agenti patogeni presenti nelle acque reflue devono essere eliminati attraverso un processo di fermentazione e di sterilizzazione ad alte temperature, ma questo tipo di trattamento non uccide tutti i batteri resistenti agli antibiotici e non rimuove tutti i metalli pesanti.


Gli animali lasciati allo stato brado producono tre volte tanto il letame prodotto dai mammiferi e dal pollame allevati in spazi confinati: la Fao (L’Organizzazione delle Nazioni Unite per l’Alimentazione e l’Agricoltura) stima che ogni anno depositano circa 90 megatonnellate di azoto in forma di escrementi – ma lo sfruttamento di questa risorsa disponibile in cosí grandi quantità non è per niente pratico56. Per questioni di accessibilità l’accumulo dell’urina e degli escrementi animali sarebbe limitato a una frazione delle centinaia di milioni di ettari di terra dove bovini, pecore e capre pascolano e lasciano le loro deiezioni. Il processo di raccolta avrebbe costi proibitivi, cosí come il trasporto fino ai centri di trattamento e poi quello fino ai terreni agricoli. Inoltre, le perdite di azoto che si verificherebbero prima che l’elemento nutriente possa raggiungere i campi ridurrebbero ulteriormente il contenuto già molto basso degli escrementi57.


Un’altra possibilità è quella di espandere la coltivazione delle piante leguminose in modo tale da riuscire a produrre tra le 50 e le 60 megatonnellate di azoto all’anno, invece che le 30 circa attuali – ma ciò avrebbe un costo. Piantare un piú ampio numero di leguminose di copertura come l’alfalfa e il trifoglio aumenterebbe la fornitura di azoto, ma allo stesso tempo ridurrebbe la capacità di utilizzare un solo campo per produrre due colture nello stesso anno, un’opzione vitale per le popolazioni ancora in espansione dei Paesi a basso reddito58. Coltivare un maggior numero di legumi (fagioli, lenticchie e piselli) ridurrebbe in generale l’energia alimentare prodotta, dato che hanno un rendimento inferiore a quello dei cereali il che, ovviamente, ridurrebbe il numero di persone che è possibile sostenere per unità di terra coltivata59. Inoltre, l’azoto lasciato nel suolo da una coltura di soia – in genere tra i 40 e i 50 chili di azoto per ettaro (N / ha) – sarebbe inferiore a quello fornito dai fertilizzanti azotati negli Stati Uniti, ovvero oggi circa 75 kg N / ha per le piantagioni di frumento e 150 kg N / ha per quelle di mais.


Un altro evidente svantaggio associato all’espansione della pratica della rotazione delle coltivazioni con le leguminose è il fatto che nei climi piú freddi, dove in un anno è possibile coltivare solamente una singola coltura, piantare l’alfalfa o trifoglio precluderebbe la semina annuale di una specie a uso alimentare, mentre nelle regioni piú calde, dove si effettua la doppia semina, si ridurrebbe la frequenza dei raccolti di colture a fini alimentari60. Anche se sarebbe realizzabile in Paesi dove la popolazione è ridotta e vaste estensioni di terra, restringerebbe inevitabilmente la capacità di produzione alimentare in tutti quei luoghi dove è comune la pratica della doppia coltura, incluse ampie aree dell’Europa e le pianure della Cina settentrionale, la regione da cui proviene circa la metà dell’intera produzione cinese di cereali.


La doppia coltura oggigiorno viene praticata su oltre un terzo della terra coltivata in Cina, e oltre un terzo di tutto il riso proviene da sistemi di doppia coltura realizzati nella Cina meridionale61. Di conseguenza, sarebbe impossibile per il Paese sfamare i suoi oltre 1,4 miliardi di abitanti senza ricorrere a questo tipo di agricoltura intensiva, che richiede tra l’altro l’impiego di livelli record di azoto. Persino nel caso dell’agricoltura cinese tradizionale, famosa per l’uso consistente di materia organica riciclata e per il complesso sistema di rotazione delle colture, gli agricoltori delle regioni piú intensamente coltivate non riuscivano a fornire piú di 120-150 kg N / ha – e per arrivare a questi livelli era necessario investire un a quantità di lavoro straordinariamente alta, di cui (come già sottolineato) il processo di raccolta del letame e della sua applicazione era la parte che richiedeva il maggior investimento di tempo.


Anche cosí, si trattava di un tipo di agricoltura capace di produrre solamente diete in larghissima parte vegetariane che riuscivano a sostenere dieci o undici persone per ettaro di terra al massimo. Una notevole differenza rispetto alle doppie colture cinesi piú efficienti, dove si utilizzano fertilizzanti azotati sintetici che forniscono in media oltre 400 kg N/ha e si arriva a produrre abbastanza cibo per venti o ventidue persone che rispettano un regime alimentare composto per il 40 per cento circa da proteine animali e per il 60 da proteine vegetali62. Un’agricoltura sostenuta a livello globale solamente attraverso la faticosa pratica del riciclo degli scarti organici e da un piú diffuso sistema di rotazione delle colture sarebbe immaginabile solamente se il pianeta fosse abitato soltanto da 3 miliardi di individui e se questi si nutrissero soprattutto di cibi a base vegetale, ma non nel caso di una popolazione di quasi 8 miliardi di persone con regimi alimentari piú vari: ricordatevi che i fertilizzanti sintetici forniscono al giorno d’oggi oltre il doppio dell’azoto totale derivato dal riciclo dei residui delle coltivazioni e dal letame (e considerate le perdite di azoto piú consistenti associate a queste fonti organiche, la differenza effettiva è piú vicina a un rapporto di 3 a 1!)


Fare con meno – e fare a meno.


Ma niente di tutto ciò implica che svolte significative nella nostra dipendenza dall’uso dei combustibili fossili nell’industria alimentare siano impossibili. È quasi ovvio dire che potremmo ridurre di molto la produzione di alimenti sia animali che vegetali – e i contributi energetici connessi – se sprecassimo meno cibo. In molti Paesi a basso reddito, una cattiva conservazione dei raccolti (che rende cereali e tuberi vulnerabili agli assalti dei roditori, degli insetti e dei funghi) unita all’assenza di refrigerazione (con la conseguente accelerazione del processo di alterazione di latticini, pesce e carne) sono responsabili di uno spreco eccessivo di cibo prima ancora che questo raggiunga il mercato. Mentre nei Paesi ricchi, dove la catena dell’approvvigionamento alimentare è piú lunga e complessa, le possibilità di perdite aumentano a ogni fase della filiera.


Ciononostante, le perdite di cibo a livello globale hanno raggiunto livelli estremamente elevati, soprattutto a causa di un’indifendibile differenza tra la quantità di cibo che viene prodotta e il bisogno effettivo: il fabbisogno giornaliero medio pro capite degli adulti in popolazioni in larga parte sedentarie e prospere non supera le 2.000-2.100 chilocalorie, ben al di sotto della fornitura effettivamente disponibile di 3.200-4.000 chilocalorie63. Secondo la Fao, nel mondo viene sprecata quasi la metà dei raccolti di tuberi e radici commestibili, della frutta e della verdura, e un terzo di tutto il pesce, il 30 per cento dei cereali e un quinto di tutti i semi da olio, della carne e dei latticini – in altre parole, un terzo del totale delle forniture alimentari64. E il Waste and Resources Action Programme del Regno Unito ha calcolato che i rifiuti domestici non commestibili provenienti dal cibo (che includono le bucce di frutti e verdure e le ossa degli animali) costituiscono soltanto il 30 per cento del totale, il che significa che il 70 per cento del cibo sprecato è perfettamente commestibile e non è stato consumato o perché lasciato andare a male o perché servito in quantità eccessive65. Ridurre lo spreco alimentare può sembrare un’impresa molto piú facile da realizzare di un progetto di riforma dei complessi sistemi di produzione degli alimenti, eppure finora si è rivelato estremamente difficile da compiere.


Eliminare gli sprechi che avvengono lungo il corso dell’estesa e complessa catena di produzione, lavorazione, distribuzione, vendita all’ingrosso, vendita al dettaglio e consumo (partendo dai campi e dalle stalle per arrivare ai piatti sulle nostre tavole) rappresenta un compito estremamente difficile. I bilanci alimentari negli Stati Uniti mostrano che la quota nazionale di cibo andato perso è rimasta stabile negli ultimi quarant’anni, nonostante i continui appelli a migliorare in qualche modo la situazione66. E mentre la Cina si lasciava alle spalle la fornitura alimentare precaria che aveva afflitto il Paese fino ai primi anni Ottanta del Novecento e raggiungeva livelli medi pro capite di disponibilità oggi superiori a quelli del Giappone aumentavano contestualmente gli sprechi67.


Prezzi piú elevati potrebbero portare a una riduzione degli sprechi, ma questa non è una soluzione desiderabile per i Paesi a basso reddito, dove per molte famiglie svantaggiate l’accesso al cibo rimane incerto e dove all’alimentazione si deve ancora una larga parte delle loro spese complessive, mentre nei Paesi ricchi, dove il cibo è relativamente poco costoso, sarebbero necessari rincari molto pronunciati, una misura che non trova sostenitori68.


Nelle società benestanti, un modo piú efficace per ridurre la dipendenza delle pratiche agricole dai combustibili fossili sarebbe promuovere alternative salutari e gustose agli odierni regimi alimentari, troppo sostanziosi e ricchi di carne – la soluzione piú facile consisterebbe in un consumo di carne moderato e nel favorire quei tipi di carne che possono essere prodotti con il minore impatto ambientale. Gli sforzi in direzione di un veganesimo di massa sono invece destinati a fallire. Il consumo di carne è una componente del nostro retaggio evolutivo significativa quanto lo sono il nostro cervello cosí grande (cresciuto di dimensioni in parte proprio grazie al consumo di carne), il bipedismo e il linguaggio simbolico69. Tutti i nostri antenati hominini erano onnivori, come lo sono entrambe le specie di scimpanzé (pan troglodytes e pan paniscus), gli hominini piú vicini a noi dal punto di vista genetico, che completano la loro dieta a base soprattutto vegetale con la caccia (e la condivisione) di piccole scimmie, facoceri e tartarughe70.


Perché il potenziale di crescita fisica degli umani possa esprimersi pienamente in tutta la popolazione, è necessario offrire durante l’infanzia e l’adolescenza un’alimentazione contenente una quantità sufficiente di proteine animali, prima attraverso il latte e poi in forma di altri latticini, uova e carne: l’incremento dell’altezza corporea media registrato dopo il 1950 tra gli abitanti di Giappone, Corea del Sud e Cina, in seguito all’aumento del consumo di prodotti animali, costituisce una testimonianza incontrovertibile di questo fatto71. E parallelamente, la maggior parte di coloro che diventano vegetariani o vegani non rimangono tali per il resto della loro vita. L’idea che miliardi di umani – in tutto il mondo, non solo tra gli abitanti delle ricche metropoli occidentali – si astengano dal consumo di qualsiasi prodotto di origine animale, o che governi che vogliano imporre una scelta simile possano trovare sostegno, è francamente ridicola.


Ma ciò non significa che non potremmo mangiare un quantitativo di carne molto inferiore a quello consumato in media nei Paesi ricchi nell’arco delle ultime due generazioni72. Espressa in termini di peso carcassa, la fornitura annuale di carne in molti Paesi ad alto reddito si avvicina, quando non la supera, a una media di 100 chili per abitante – ma dal punto di vista nutrizionale in un anno non abbiamo bisogno di mangiare piú dell’equivalente in carne della massa corporea di un adulto, per ottenere una quantità adeguata di proteine di alta qualità73.


Mentre il veganesimo rappresenta uno spreco di preziosa biomassa (soltanto i ruminanti – bovini e ovini – possono digerire i tessuti vegetali a base di cellulosa come quelli che compongono la paglia e gli steli), una dieta altamente carnivora non porta alcun beneficio provato per l’organismo: sicuramente non aggiunge alcun anno all’aspettativa di vita complessiva, e costituisce un’ulteriore fonte di stress per l’ambiente. Il consumo di carne pro capite in Giappone, il Paese piú longevo, nell’ultimo periodo si è attestato al di sotto dei 30 chili all’anno; e un dato preso in ancora minore considerazione è quello della Francia, un Paese in cui tradizionalmente si faceva un gran consumo di carne, e dove oggi si sono raggiunti livelli altrettanto ridotti. Nel 2013, quasi il 40 per cento degli adulti francesi erano petits consommateurs, ovvero mangiavano carne soltanto in quantità modeste che non superavano complessivamente i 39 kg all’anno, mentre i grandi consumatori, con un consumo di media di circa 80 kg, costituivano meno del 30 per cento della popolazione adulta74.


Ovviamente, se tutti i Paesi ad alto reddito dovessero prendere esempio dalla Francia, potrebbero ridurre l’entità dei loro raccolti, dato che la gran parte dei cereali coltivati non è destinata a nutrire direttamente le persone ma a fungere da mangime per animali75. Ma questa non è un’opzione universalmente applicabile. Anche se il consumo di carne ha sperimentato un declino in molti Paesi ricchi e potrebbe essere ulteriormente ridotto, è aumentato rapidamente in nazioni in via di modernizzazione come il Brasile, l’Indonesia (dove dal 1980 è piú che raddoppiato) e la Cina (dove rispetto al 1980 è quadruplicato)76. Inoltre, in Asia e in Africa ci sono miliardi di abitanti il cui consumo di carne resta minimo e la cui salute potrebbe beneficiare di una dieta che ne contenga una quantità maggiore.


Ulteriori opportunità per la riduzione della dipendenza dai fertilizzanti sintetici azotati possono essere individuate dal lato della produzione, per esempio migliorando il rendimento del processo di assorbimento dell’azoto da parte delle piante. Ma ripeto, sono possibilità circoscritte. Tra il 1961 e il 1980 c’è stato un declino significativo della quota di azoto impiegato effettivamente incorporato nelle piante coltivate, che è passato dal 68 al 45 per cento, per poi stabilizzarsi intorno al 47 per cento77. E in Cina, il piú grande utilizzatore di fertilizzanti azotati, soltanto un terzo dell’azoto utilizzato viene realmente sfruttato dalle piantagioni di riso: il resto va perduto nell’atmosfera, nel suolo e nei corsi d’acqua78. Considerato che ci aspettiamo di vedere comparire almeno altri 2 miliardi di persone entro il 2050, e che nei Paesi a basso reddito dell’Asia e dell’Africa oltre il doppio dovrebbe vedere ulteriori progressi – di quantità e di qualità – nell’approvvigionamento del cibo, non ci sono speranze che nel breve termine si osservi una riduzione significativa della dipendenza a livello globale dai fertilizzanti azotati sintetici.


Ci sono evidenti opportunità di poter impiegare macchinari agricoli che non richiedano l’utilizzo di combustibili fossili. La decarbonizzazione delle attività d’irrigazione potrebbe diffondersi grazie a sistemi di pompaggio azionati da elettricità prodotta dall’energia solare o eolica invece che da motori a combustione interna. Con batterie meno costose da produrre e dotate di una piú alta densità energetica sarebbe possibile convertire un numero maggiore di trattori e camion ai motori elettrici79. E nel prossimo capitolo illustrerò le possibili alternative al metodo dominante, basato sul gas naturale, per la sintesi dell’ammoniaca. Ma nessuna di queste alternative può essere implementata rapidamente o senza ricorrere a ulteriori (e spesso considerevoli) investimenti economici.


Questi progressi sono, allo stato presente, ancora molto lontani dal poter essere realizzati. La loro eventuale realizzazione è legata alla produzione di energia elettrica da fonti rinnovabili e a costi accessibili, sostenuta da adeguati sistemi di stoccaggio su larga scala non ancora disponibili sul mercato (e un’alternativa alle centrali idroelettriche con impianto ad accumulo deve essere ancora inventata: per saperne di piú si veda il Terzo capitolo). Una soluzione quasi perfetta sarebbe quella di sviluppare cereali o piante da olio che abbiano le stesse proprietà delle leguminose, ovvero l’ospitare sulle radici batteri capaci di convertire in nitrati l’azoto atmosferico inerte. Gli esperti di biologia vegetale sognano questa possibilità da decenni, ma nel futuro prossimo non sarà messa sul mercato alcuna varietà di grano o riso azotofissatrice80. Ed è anche improbabile che tutti i Paesi ricchi o quelli la cui economia si trova in una fase di piú avanzata modernizzazione adottino volontariamente politiche di larga scala per ridurre la quantità e la varietà del cibo della loro dieta, o che le risorse (combustibili, fertilizzanti e macchinari) che in questo modo verrebbero risparmiate siano trasferite ai Paesi africani per migliorare le condizioni ancora tragiche dell’alimentazione del continente.


Mezzo secolo fa, Howard Odum – nella sua analisi sistemica dell’energia in rapporto all’ambiente –faceva notare che le società moderne


non comprendono le leggi che governano l’energia e le vie attraverso cui l’energia che entra in un sistema complesso viene ritrasmessa indirettamente a tutti i punti della rete che compone il sistema […] l’uomo dell’epoca industriale non si ciba piú di patate formate dall’energia solare; oggi mangia patate formate dal petrolio81.


Neppure cinquant’anni piú tardi questo legame esistenziale è ancora sufficientemente compreso. Ma i lettori di questo libro sanno ormai che il nostro cibo è formato in parte non soltanto dal petrolio, ma anche dal carbone impiegato nella produzione del coke necessario a fondere il ferro che compone i macchinari agricoli e quelli per il trasporto e la lavorazione dei raccolti; dal gas naturale che serve sia da materia prima che da combustibile per la sintesi dei fertilizzanti azotati; e dall’elettricità prodotta attraverso la combustione di carburanti fossili, indispensabile per la lavorazione dei raccolti, per prendersi cura degli animali e per la conservazione e la preparazione del cibo e del mangime.


Se le rese elevate tipiche dell’agricoltura contemporanea si possono raggiungere con una frazione della forza lavoro che era richiesta anche solo poche generazioni fa, ciò non succede perché abbiamo migliorato l’efficienza della fotosintesi, ma perché abbiamo a disposizione migliori varietà di colture sottoposte a migliori condizioni di crescita perché gli forniamo acqua e nutrienti e riduciamo la minaccia rappresentata dalle piante infestanti che competono per gli stessi elementi e le proteggiamo dai parassiti. Allo stesso tempo, i significativi progressi compiuti nella cattura delle specie acquatiche selvatiche sono dovuti all’aumento del raggio di azione e dell’intensità delle attività di pesca, e la pratica dell’acquacoltura non avrebbe potuto imporsi senza poter disporre delle gabbie necessarie e di mangime di alta qualità.


Tutti questi interventi fondamentali necessitano di un contributo significativo, e sempre piú alto, in combustibili fossili; anche se provassimo a modificare il funzionamento della filiera alimentare globale il piú velocemente possibile, ciò che mangeremmo per i decenni a venire sarebbe comunque il risultato della trasformazione dei combustibili fossili, che si tratti di pane, di pesce o di altri alimenti.

3.


Comprendere il mondo materiale in cui viviamo

I quattro pilastri della civiltà moderna


Per ciò che conta davvero, è impossibile fare classifiche – o, almeno, sconsigliabile. Il cuore non è piú importante del cervello; la vitamina C non è meno indispensabile per la salute umana della vitamina D. Fornire cibo ed energia, le due necessità esistenziali trattate nei capitoli precedenti, non sarebbe possibile senza mobilitare su scala massiccia molti materiali prodotti dall’uomo – metalli, leghe, composti non metallici e sintetici – e lo stesso vale per tutti i nostri edifici, infrastrutture, mezzi di trasporto e metodi di comunicazione. Ma di sicuro non lo sapreste, se doveste giudicare l’importanza di questi materiali dall’attenzione che ricevono (o, piuttosto, che non ricevono), non soltanto da parte dei mass media ma anche da quelle analisi economiche e previsioni a cui si dà tanto credito.


Le pubblicazioni in questione si occupano in larghissima parte di fenomeni immateriali e intangibili, come il tasso di crescita annuale del Pil (ricordo ancora come gli economisti occidentali si entusiasmavano per i valori a doppia cifra della Cina!), la crescita del rapporto debito-Pil (di scarsa rilevanza nel mondo della teoria monetaria moderna, dove la liquidità è considerata illimitata), le somme record versate per le Ipo – le offerte pubbliche iniziali dei titoli finanziari – piú recenti (per invenzioni cruciali per la nostra esistenza come le app di videogiochi), i benefici derivanti da una connettività delle reti mobili senza precedenti (aspettando quelle 5G quasi fosse la seconda venuta del messia) o la promessa di un’imminente intelligenza artificiale che trasformerà le nostre vite (la pandemia è stata un’eccellente dimostrazione della totale vacuità delle dichiarazioni in merito).


Ma prima le cose importanti. È possibile avere una società appagata, sufficientemente opulenta e in grado di fornire cibo in abbondanza, comodità materiali e accesso all’educazione e al sistema sanitario ai suoi membri, anche senza l’aiuto di alcun semiconduttore, microchip o personal computer: ne avevamo una simile fino, rispettivamente, alla metà degli anni Cinquanta (periodo a cui risalgono i primi utilizzi commerciali dei transistor), i primi anni Settanta (il primo microprocessore firmato Intel), e i primi Ottanta (l’inizio dell’adozione su ampia scala di computer portatili)1. E fino agli anni Novanta siamo stati in grado di integrare differenti economie, mobilitare gli investimenti necessari, costruire le infrastrutture richieste e connettere il pianeta per mezzo di voli di linea su aerei a fusoliera larga senza ricorrere a smartphone, social media e app puerili. E nessuno di questi progressi nel campo dell’elettronica e di quello delle telecomunicazioni potrebbe avere avuto luogo senza una disponibilità sicura di energia e delle materie prime necessarie per incorporare tali invenzioni in una miriade di componenti, dispositivi, apparecchiature e sistemi di diverso tipo, da minuscoli microprocessori a giganteschi data center, tutti alimentati a elettricità.


Il silicio (Si) con cui vengono formati sottili wafer (il substrato alla base dei microchip) è il materiale piú rappresentativo dell’èra elettronica, ma miliardi di persone potrebbero vivere in prosperità anche senza di esso: non costituisce una condizione vincolante per l’esistenza della civiltà moderna. Produrre cristalli di silicio di grandi dimensioni ed estrema purezza (al 99,999999999 per cento) da dividere in wafer è un processo complesso, ripartito in diversi passaggi, che richiede molta energia: il costo energetico è di due ordini di grandezza superiore a quello del processo attraverso cui si ricava l’alluminio dalla bauxite, e di tre ordini di grandezza superiore a quello del processo di fusione del ferro e di produzione dell’acciaio2. Ma il materiale è straordinariamente abbondante (il silicio è il secondo elemento piú comune all’interno della crosta terrestre – ne costituisce quasi il 28 per cento – dopo l’ossigeno, 49 per cento) e la produzione annuale di silicio per l’elettronica è molto modesta se confrontata con quella di altri materiali indispensabili, nell’ordine delle 10 000 tonnellate di wafer3.


Certo, il consumo annuale di un dato materiale non rappresenta il migliore indicatore della sua imprescindibilità, ma in questo caso il verdetto finale è evidente: per quanto i progressi compiuti nel campo dell’elettronica dopo il 1950 siano stati utili e rivoluzionari, non sono loro a costituire le basi materiali fondamentali della civiltà moderna. E anche se non è possibile disporre le nostre necessità materiali secondo un ordine basato sulla loro supposta importanza, si può comunque tracciare una gerarchia ragionevole che consideri quanto queste sono indispensabili e onnipresenti e l’entità della loro domanda di mercato. Quattro materiali si posizionano in cima a questa classifica basata su piú parametri, e costituiscono quelli che ho chiamato i quattro pilastri della civiltà moderna: il cemento, l’acciaio, la plastica e l’ammoniaca4.


Da un punto di vista fisico e chimico, questi quattro materiali si distinguono tra loro per un’enormità di diverse proprietà e funzioni. Ma al di là dei differenti attributi e usi specifici, in comune non hanno solo il loro essere indispensabili per il funzionamento delle società moderne. Ne abbiamo bisogno in quantità superiori (e sempre crescenti) rispetto ad altre risorse essenziali. Nel 2019, il mondo ha consumato circa 4,5 miliardi di tonnellate di cemento, 1,8 miliardi di tonnellate di acciaio, 370 milioni di tonnellate di plastica e 150 milioni di tonnellate di ammoniaca, e sostituirli con materiali differenti non sarebbe affatto facile – di certo non in tempi stretti o su scala globale5.


Come ho fatto notare nel Secondo capitolo, solamente con un impossibile processo di riciclaggio perfetto di tutte le deiezioni prodotte dagli animali lasciati pascolare, insieme a quello quasi perfetto di tutte le altre fonti di azoto organico, sarebbe possibile procurare la quantità di azoto che annualmente viene fornita alle piantagioni sotto forma di fertilizzanti derivati dall’ammoniaca. Mentre non ci sono materiali che possono competere con la combinazione di malleabilità, durabilità e leggerezza rintracciabile in molti tipi di plastiche. Allo stesso modo, anche se potessimo produrre una massa equivalente di legna o pietre da costruzione, non potrebbe mai avere la stessa resistenza, versatilità e durabilità del calcestruzzo armato. Saremmo in grado di costruire piramidi e cattedrali, ma non le lunghe campate degli eleganti ponti ad arco, gigantesche dighe idroelettriche, strade a corsie multiple, o lunghe piste aeroportuali. E l’acciaio è diventato cosí onnipresente nella nostra società che il suo insostituibile impiego determina la nostra capacità di estrarre energia, produrre cibo, dare un tetto alle persone e assicurare la diffusione e la qualità di tutte le infrastrutture essenziali: nessun tipo di metallo potrebbe, neanche remotamente, sostituirlo.


Un’altra caratteristica cruciale che accomuna questi quattro materiali è particolarmente degna di nota mentre guardiamo a un futuro privo di carbonio fossile: la produzione di massa di tutti e quattro dipende pesantemente dalla combustione dei combustibili fossili, e alcuni di questi ultimi forniscono anche le materie prime per la sintesi dell’ammoniaca e la produzione delle plastiche6. La fusione dei minerali ferrosi negli altiforni necessita del coke ricavato dal carbone (e dal gas naturale); l’energia per la produzione del cemento viene in larga parte dalla cenere di carbone, dal coke petrolifero e da olio combustibile pesante. La grandissima parte delle molecole semplici che vengono unite a formare lunghe catene lineari o ramificate per produrre le plastiche sono ricavate dal greggio o dal gas naturale. E nel moderno processo di sintesi dell’ammoniaca, il gas naturale è allo stesso tempo la fonte di idrogeno e dell’energia che alimenta il processo.


Il risultato è che per la produzione globale di questi quattro indispensabili materiali viene impiegato il 17 per cento della fornitura di energia primaria del pianeta, e che essa è responsabile del 25 per cento di tutte le emissioni di CO2 dovute alla combustione di combustibili fossili – e attualmente non sono disponibili sul mercato alternative, quantomeno facilmente implementabili su larga scala, che possano sostituire questi processi ormai consolidati7. Sebbene non ci sia carenza di proposte e tecnologie sperimentali per produrre questi materiali senza doversi affidare al carbonio fossile – dall’impiego di nuovi elementi catalizzatori nella sintesi dell’ammoniaca a nuovi metodi di produzione dell’acciaio per mezzo dell’idrogeno – nessuna di queste diverse soluzioni è stata messa in commercio, e anche se venisse portata avanti una ricerca aggressiva di opzioni non basate sul carbonio, ci vorrebbero ovviamente decenni per sostituire le operazioni già in piedi, che raggiungono, a prezzi accessibili, livelli di produzione annuali che vanno da centinaia di milioni a miliardi di tonnellate8.


Per poter apprezzare davvero l’importanza di questi materiali, spiegherò le loro proprietà e funzioni di base, delineerò brevemente la storia dei progressi tecnici e delle invenzioni che hanno definito un’epoca e li hanno resi abbondantemente disponibili e accessibili, e descriverò l’enorme varietà dei loro utilizzi. Inizierò dall’ammoniaca – per via della sua imprescindibilità per l’alimentazione di una quota crescente della popolazione mondiale – per poi procedere, seguendo l’ordine della loro produzione annuale globale, con le plastiche, l’acciaio e il cemento.


Ammoniaca: il gas che sfama il mondo.


Delle quattro sostanze (e nonostante il mio sprezzo delle classifiche!), è l’ammoniaca a meritarsi il primo posto. Come spiegato nel capitolo precedente, senza il suo impiego nel ruolo di fertilizzante azotato predominante (direttamente o come materia prima per la sintesi di altri composti azotati), sarebbe impossibile nutrire almeno il 40 per cento se non addirittura il 50 per cento dei quasi 8 miliardi di abitanti attuali del pianeta. In altri termini: nel 2020, quasi 4 miliardi di persone non sarebbero in vita senza l’ammoniaca sintetica. Né alla plastica né all’acciaio, né al cemento necessario a produrre il calcestruzzo (tanto meno, come già osservato, al silicio) è associato un simile limite esistenziale.


L’ammoniaca è un composto organico semplice consistente in un atomo di azoto e tre di idrogeno (NH3), il che significa che l’azoto costituisce l’82 per cento della sua massa9. A condizioni di pressione pari a quella atmosferica è un gas invisibile con un caratteristico odore pungente di gabinetto sporco o di letame in decomposizione. Se inalata, a basse concentrazioni provoca mal di testa, nausea e vomito; a concentrazioni maggiori irrita gli occhi, il naso, la bocca, la gola e i polmoni; e a concentrazioni molto elevate può rivelarsi fatale. Al contrario, l’ammonio (NH4+, lo ione ammonio), formato dalla soluzione dell’ammoniaca nell’acqua, non è tossico e non penetra con facilità la membrana cellulare.


Riuscire a sintetizzare questa molecola cosí semplice è stata un’impresa sorprendentemente impegnativa. La storia delle invenzioni umane include celebri casi di scoperte accidentali; in questo nostro capitolo, sui materiali, la storia del teflon potrebbe costituirne l’esempio piú opportuno. Nel 1938, Roy Plunkett, un chimico impiegato presso la DuPont, e il suo assistente Jack Rebok, svilupparono una nuova sostanza refrigerante, il tetrafluoroetilene. Dopo averla conservata all’interno di cilindri refrigerati, scoprirono che il composto aveva subito un’inaspettata polimerizzazione, trasformandosi in politetrafluoroetilene, una polvere bianca e scivolosa che ricorda la cera. Dopo la Seconda guerra mondiale, il teflon divenne uno dei materiali sintetici piú conosciuti, e forse l’unico a essere entrato nel gergo politico (abbiamo avuto presidenti di teflon, ma nessun presidente di bachelite, sebbene ci sia stata una lady di ferro)10.


La sintesi dell’ammoniaca dai suoi elementi appartiene alla categoria opposta di scoperte – quelle che costituivano un obiettivo ben definito, inseguito da alcuni degli scienziati piú qualificati del tempo e alla fine raggiunto da un ricercatore particolarmente perseverante. La necessità di una svolta era evidente. Tra il 1850 e il 1900 la popolazione complessiva dei Paesi in corso di industrializzazione dell’Europa e dell’America del Nord crebbe da 300 a 500 milioni, e il rapido processo di urbanizzazione contribuí al processo di transizione da un’alimentazione a malapena adeguata e incentrata sui cereali ad apporti piú consistenti di energia alimentare composti in misura maggiore da prodotti di origine animale e zucchero11. Le rese delle coltivazioni restavano basse, ma la svolta alimentare era sostenuta da un’espansione senza precedenti della superficie dei terreni coltivabili: tra il 1850 e il 1900, circa 200 milioni di ettari delle praterie dell’America del Nord e del Sud, della Russia e dell’Australia, furono convertiti in campi di cereali12.


Per la scienza agronomica, che attraversava una fase di maturazione, era evidente che l’unico modo per assicurare una fornitura di cibo adeguata alle sempre crescenti popolazioni del XX secolo consisteva nell’aumentare il rendimento delle colture attraverso un incremento degli apporti di azoto e fosforo, due macronutrienti cruciali. L’estrazione dei fosfati (prima nella Carolina del Nord, poi in Florida) e la lavorazione di questi ultimi tramite l’applicazione di acidi spianò la strada per una fornitura stabile di fertilizzanti fosfatici13. Ma non c’era nessuna fonte di azoto altrettanto sicura. Le operazioni di estrazione del guano (formato dall’accumulazione di escrementi di uccelli e moderatamente ricco di azoto) dalle isole tropicali con climi secchi aveva portato rapidamente all’esaurimento dei depositi piú abbondanti, e le crescenti importazioni di nitrati cileni (il Paese vantava estesi strati di nitrato di sodio nelle sue aride regioni del Nord) erano insufficienti a soddisfare la futura domanda globale14.


La sfida era quella di assicurarsi che l’umanità potesse disporre di sufficiente azoto per sostenere il numero crescente di abitanti del pianeta. Una necessità illustrata nella maniera piú chiara possibile da William Crookes, chimico e fisico, alla British Association for the Advancement of Science, nel 1898, in un discorso che tenne in veste di presidente dell’associazione e dedicato al cosiddetto «problema del grano». Crookes sottolineava che «tutte le nazioni civilizzate si trovano di fronte alla minaccia mortale di non avere abbastanza di cui sfamarsi», ma individuava una via d’uscita: con il soccorso della scienza, si sarebbe potuto attingere alla massa praticamente illimitata di azoto presente nell’atmosfera (sotto forma di molecola non reattiva, N2) per convertirlo in composti assimilabili dalle piante. Concluse giustamente che questa impresa «differisce concretamente da altre scoperte compiute nel campo della chimica che sono, per cosí dire, nell’aria ma devono ancora maturare. La fissazione dell’azoto è vitale per il progresso dell’umanità civilizzata. Altre possibili scoperte tendono allo sviluppo del nostro benessere intellettuale, al lusso o alla convenienza; servono a rendere la vita piú facile, ad accelerare l’acquisizione di ricchezze, o a risparmiare tempo, salute e preoccupazioni. La fissazione dell’azoto è una questione del futuro prossimo»15.


La visione di Crooke fu realizzata appena dieci anni piú tardi. La sintesi dell’ammoniaca dai suoi elementi, l’azoto e l’idrogeno, fu perseguita da un gran numero di chimici altamente qualificati (tra cui Wilhelm Ostwald, vincitore del premio Nobel per la chimica nel 1909), ma nel 1908 fu Fritz Haber – al tempo docente di chimica fisica ed elettrochimica della Technische Hochschule in Karlsruhe – a portare a compimento l’impresa in collaborazione con il suo assistente, l’inglese Robert Le Rossignol, e con il supporto della BASF, la principale azienda chimica tedesca (e del mondo)16. La sua soluzione si basava sull’utilizzo di un catalizzatore (un composto che aumenta la velocità di una reazione chimica senza che esso stesso subisca un’alterazione) a base di ferro e sull’impiego di livelli di pressione senza precedenti.


Non era un compito facile quello di riprodurre il successo dell’esperimento di Haber a una scala necessaria per un’attività commerciale. Sotto la guida di Carl Bosch, un esperto di ingegneria chimica ma anche metallurgica che era entrato a far parte della BASF nel 1899, l’obiettivo fu raggiunto in soli quattro anni. La prima fabbrica al mondo per la sintesi dell’ammoniaca entrò in attività a Oppau nel settembre 1913 e l’espressione «processo Haber-Bosch» è tutt’ora in uso17.


Nel giro di un anno, la fabbrica di Oppau fu convertita alla produzione di nitrati da cui ricavare gli esplosivi per l’esercito tedesco. Una nuova e ben piú grande fabbrica di ammoniaca fu completata nel 1917 a Leuna, ma poté fare ben poco per prevenire la sconfitta della Germania. La diffusione nel periodo post-bellico del processo di sintesi dell’ammoniaca proseguí nonostante la crisi economica degli anni Trenta, senza interrompersi neanche durante la Seconda guerra mondiale, eppure nel 1950 l’impiego di ammoniaca sintetica era ancora molto meno comune di quello del letame di origine animale18.


Nei due decenni successivi si registrò un incremento della produzione di ammoniaca pari a otto volte, cosí da superare di poco i 30 milioni di tonnellate all’anno, e i fertilizzanti sintetici resero possibile la Rivoluzione verde (iniziata negli anni Sessanta), che consistette nell’adozione di nuove e superiori varietà di frumento e riso la cui resa, se sostenuta da quantitativi adeguati di azoto, non aveva precedenti. Le innovazioni principali dietro a questa svolta erano l’impiego di gas naturale come fonte di idrogeno e l’introduzione di efficienti compressori centrifughi e di catalizzatori migliori19.


Allora, come sarebbe accaduto con molti altri casi di innovazioni in campo industriale, la Cina post maoista si mise alla guida del processo di adozione della nuova tecnologia. Mao fu responsabile della carestia piú mortale della storia umana (1958-1961) e alla sua morte nel 1976 la fornitura alimentare pro capite del Paese era appena migliore di quando aveva annunciato la nascita dello Stato comunista, nel 194920. Il primo importante accordo commerciale della Cina stipulato in seguito alla visita del presidente Nixon a Pechino nel 1972 fu la commessa di 13 impianti dotati della tecnologia piú avanzata disponibile per la produzione di ammoniaca e urea, sviluppati dalla M.W. Kellogg texana21. Nel 1984 il Paese aveva abolito il razionamento del cibo nelle aree urbane, e nel 2000 la disponibilità giornaliera pro capite di cibo era in media superiore a quella giapponese22. L’unico modo perché ciò potesse accadere fu quello di infrangere la barriera dell’azoto e incrementare i raccolti di grano portandoli sopra ai 650 milioni di tonnellate all’anno.


I dati piú accurati sull’attuale utilizzo dell’azoto nell’agricoltura cinese mostrano che il 60 per cento circa di tale elemento nutriente deriva dall’ammoniaca sintetica: tre cinesi su cinque dipendono per il loro sostentamento dalla sintesi di questo composto23. La media globale è pressappoco del 50 per cento. Una dipendenza che fa sí che si possa considerare a buon diritto il processo Haber-Bosch di sintesi dell’ammoniaca la piú importante innovazione tecnica della storia. Altre invenzioni, come aveva giudicato correttamente William Crookes, riguardano il nostro benessere, la convenienza, il lusso, la ricchezza, o la produttività, e altre ancora salvano le nostre vite da una morte prematura o da una patologia cronica – ma senza la sintesi dell’ammoniaca, non potremmo assicurare la sopravvivenza stessa di grandi fette della popolazione odierna e di quella futura24.


Mi affretto ad aggiungere che il 50 per cento, ovviamente un’approssimazione, riferito alla quota di umanità che dipende dall’ammoniaca non rappresenta un valore immutabile. Dati i regimi alimentari e le pratiche agricole oggi prevalenti, l’azoto sintetico fornisce nutrimento a metà dell’umanità – in altri termini, a parità di condizioni, metà della popolazione mondiale non potrebbe sostenersi senza i fertilizzanti azotati sintetici. Ma questa percentuale sarebbe di molto inferiore se la parte di mondo piú ricca si convertisse a una dieta simile a quella indiana, a bassissimo contenuto di carne, e sarebbe invece maggiore se il mondo intero mangiasse quanto fanno i cinesi oggi, per non parlare di una eventuale diffusione universale della dieta americana25. Un altro modo per ridurre la nostra dipendenza dai fertilizzanti azotati sarebbe diminuire lo spreco di cibo (come abbiamo visto in precedenza) e un utilizzo piú efficiente dei fertilizzanti.


L’80 per cento circa dell’ammoniaca prodotta globalmente viene utilizzata per fertilizzare le colture; il resto serve a produrre acido nitrico, esplosivi, propellenti per razzi, tinture, fibre e detersivi per pavimenti e finestre26. Con l’equipaggiamento e le precauzioni giuste, l’ammoniaca può essere applicata ai campi in modo diretto27; ma il composto è usato in larga parte come ingrediente indispensabile per la produzione di fertilizzanti azotati solidi e liquidi. L’urea, il fertilizzante solido con il piú alto contenuto di azoto (il 46 per cento), è quello dominante28. Negli ultimi anni ha costituito il 55 per cento circa dell’azoto immesso nei campi di tutto il mondo, ed è utilizzata massicciamente in Asia per supportare le colture di riso e frumento della Cina e dell’India – le due nazioni piú popolose del mondo – e per garantire una buona resa delle coltivazioni in altri cinque Paesi asiatici con oltre 100 milioni di abitanti29.


Tra i fertilizzanti azotati meno rilevanti sono inclusi il nitrato d’ammonio, il solfato d’ammonio e il nitrato ammonico calcareo, cosí come diverse miscele liquide. Una volta che i fertilizzanti azotati vengono applicati ai campi, è quasi impossibile controllare le perdite naturali dovute all’evaporazione (dai composti a base di ammoniaca), alla lisciviazione (i nitrati si disciolgono facilmente nell’acqua) e alla denitrificazione (la conversione, tramite l’azione dei batteri, dei nitrati in molecole di azoto che tornano nell’aria)30.


Oggi abbiamo a disposizione solamente due soluzioni dirette ed efficaci per ridurre le perdite di azoto nei campi: l’utilizzo di costosi composti a rilascio lento; oppure, un’alternativa piú pragmatica, una svolta verso l’agricoltura di precisione e l’impiego dei fertilizzanti soltanto se ritenuto necessario in base alle analisi del suolo31. Come già osservato, misure indirette – tra cui prezzi del cibo piú alti e un consumo di carne ridotto – potrebbero rivelarsi efficaci, ma non sono, per ovvie ragioni, molto popolari. Dobbiamo concludere che è improbabile che una combinazione realistica di queste diverse soluzioni possa condurre a un mutamento radicale nel consumo globale di fertilizzanti azotati. Oggi sono sintetizzate annualmente circa 150 megatonnellate di ammoniaca, di cui pressappoco l’80 per cento è impiegato come fertilizzante. Quasi il 60 per cento di quest’ultimo viene utilizzato in Asia, circa un quarto in Europa e nell’America del Nord, e meno del 5 per cento in Africa32. La gran parte dei Paesi ricchi potrebbe certamente, e dovrebbe, ridurne il consumo (la loro fornitura alimentare pro capite è in media già troppo alta), e la Cina e l’India – due grandi utilizzatori – hanno molte opportunità per contenerne l’utilizzo eccessivo.


Ma l’Africa, il continente con la popolazione in piú rapida crescita, resta priva di questo nutriente e si ritrova a dover importare cibo in quantità significative. La speranza che possa raggiungere una maggiore autosufficienza alimentare si fonda su un incremento dell’utilizzo di azoto: dopo tutto, il consumo di ammoniaca del continente è stato inferiore, in questi ultimi anni, a un terzo della media europea33. La migliore (e da tempo perseguita) soluzione per aumentare la disponibilità di azoto consisterebbe nel conferire a piante non leguminose capacità azoto-fissatrici, una promessa che l’ingegneria genetica non è ancora riuscita a concretizzare, mentre un’alternativa meno radicale – l’inoculazione nei semi di un batterio azoto-fissatore – è un’innovazione piuttosto recente, il cui eventuale futuro commerciale è ancora poco chiaro.


Materie plastiche: diverse, utili, problematiche.


Le plastiche formano un’ampia categoria di materiali organici sintetici (o semisintetici) la cui qualità condivisa è quella di prestarsi a essere modellati. La sintesi delle materie plastiche ha inizio dai monomeri, molecole semplici che possono essere unite a formare lunghe catene o strutture ramificate che prendono il nome di polimeri. I due monomeri piú importanti, l’etilene e il propilene, sono prodotti attraverso la piroscissione a vapore (a una temperatura tra i 750 e i 950°C) degli idrocarburi e gli idrocarburi forniscono anche l’energia per i conseguenti processi di sintesi34. La malleabilità delle plastiche rende possibile dar loro una forma tramite l’iniezione in uno stampo, per compressione o per estrusione, cosí da creare oggetti che vanno da pellicole estremamente sottili a robuste tubature, da bottiglie leggere come una piuma a massicci e solidi bidoni della spazzatura.


La produzione globale è dominata dalle termoplastiche, polimeri che si ammorbidiscono facilmente con il calore e si irrigidiscono nuovamente una volta raffreddati. Il polietilene (Pe) a bassa o alta intensità costituisce a oggi oltre il 20 per cento dei polimeri plastici presenti sul pianeta, il polipropilene (Pp) circa il 15, e il polivinilcloruro (Pvc) oltre il 10 per cento35. Invece, le plastiche termoindurenti (che includono i poliuretani, le poliimmidi, le resine di melammina e quelle di urea-formaldeide) resistono all’ammorbidimento per calore.


Alcune termoplastiche uniscono una bassa gravità specifica (pesano poco) a una durezza e a una durevolezza piuttosto elevate. L’alluminio ha entrambe le caratteristiche e pesa soltanto un terzo dell’acciaio al carbonio, ma in confronto all’acciaio il Pvc ha una densità inferiore del 20 per cento e il Pp del 12 per cento; e mentre la resistenza alla trazione dell’acciaio strutturale (acciaio da costruzione) è pari a 400 megapascal, quella del polistirene è, a 100 megapascal, il doppio di quella del legno o del vetro e soltanto del 10 per cento inferiore a quella dell’alluminio36.


Questa combinazione di peso ridotto e resistenza elevata ha fatto delle termoplastiche la scelta piú popolare per la costruzione di tubature e flange, superfici antiscivolo e serbatoi per lo stoccaggio di prodotti chimici. I polimeri termoplastici hanno trovato un ampio e diffuso impiego negli interni e negli esterni delle automobili (paraurti in Pp, cruscotti e componenti in Pvc, lenti dei fanali in policarbonato); termoplastiche leggere resistenti alle alte temperature o non-infiammabili (policarbonato, Pvc / miscele acriliche) dominano gli interni dei moderni velivoli; e le plastiche rinforzate con fibre di carbonio (materiali compositi) sono oggi utilizzate per costruire la struttura di base degli aeroplani37.


Le prime materie plastiche – la piú nota delle quali è la celluloide, ottenuta dalla nitrocellulosa e dalla canfora (piú tardi il pilastro altamente infiammabile dell’industria cinematografica, sostituita soltanto negli anni Cinquanta) – furono prodotte, sebbene in quantità ridotte, negli ultimi tre decenni del XIX secolo, ma il primo materiale termoindurente (modellabile a una temperatura tra i 150 e i 160°C) fu prodotto nel 1907 da Leo Hendrik Baekeland, un chimico belga che lavorava a New York38. La sua General Bakelite Company, fondata nel 1910, fu il primo produttore industriale di plastica sotto varie forme, dagli isolanti elettrici ai telefoni a disco neri e, durante la Seconda guerra mondiale, persino componenti delle armi leggere. Nel frattempo, Jacques Brandenberger aveva inventato il cellofan nel 1908.


Nel periodo tra le due guerre fu introdotta la sintesi su larga scala del Pvc, che era già stato scoperto nel 1838 ma mai utilizzato al di fuori di un laboratorio, e la DuPont negli Stati Uniti, la Imperial Chemical Industries (Ici) nel Regno Uniti e la IG Farben in Germania finanziarono (con grande successo) la ricerca di nuove materie plastiche39. Il risultato fu che già prima dello scoppio della Seconda guerra mondiale aveva avuto inizio la produzione commerciale di acetato di cellulosa (oggi lo troviamo all’interno di panni e fazzoletti), neoprene (gomma sintetica), poliestere (per tessuti e tappezzeria), polimetilmetacrilato (altrimenti noto come plexiglas, oggi ancora piú comunemente utilizzato grazie al ritorno dovuto al CoViD-19 di divisori e scudi per il viso). Il nylon viene prodotto dal 1938 (le setole degli spazzolini da denti e le calze furono i primi prodotti commerciali; oggi viene utilizzato per articoli che vanno dalle reti da pesca ai paracaduti) e – come già osservato – lo stesso vale per il teflon, un rivestimento antiaderente oggi onnipresente. Anche la produzione a costi accessibili dello stirene ha avuto inizio negli anni Trenta, e oggi viene utilizzato soprattutto sotto forma di polistirene (Ps), o polistirolo, come materiale per l’imballaggio o per bicchieri e piatti usa e getta.


La IG Farben ha introdotto i poliuretani nel 1937 (schiume per l’isolamento termico o utilizzati per le imbottiture dei mobili); l’Ici invece applicò pressioni molto alte per sintetizzare il polietilene (utilizzato per imballaggi o come isolante) e iniziò a produrre metilmetacrilato (per adesivi, rivestimenti e vernici) nel 1933. Il polietilene tereftalato (Pet) – dagli anni Settanta in poi il flagello di questo pianeta sotto forma delle bottiglie di plastica che buttiamo – fu brevettato nel 1941 e la produzione di massa ebbe inizio nei primi anni Cinquanta (l’infernale bottiglia in Pet è stata brevettata nel 1973)40. Le innovazioni piú conosciute che risalgono al periodo successivo alla Seconda guerra mondiale includono i policarbonati (usati nelle lenti degli occhiali, nelle finestre e nei rivestimenti rigidi di diverso tipo), la poliimmide (per cannule e tubi per uso medico), i polimeri a cristalli liquidi (impiegati soprattutto nell’elettronica) e famosi marchi di fabbrica della DuPont come il Tyvek® (1955), la Lycra® (o spandex, 1959) e il Kevlar® (1971)41. Alla fine del XX secolo, cinquanta differenti tipi di plastiche erano accessibili sul mercato globale, e questa recente varietà – insieme a una crescente domanda di alcuni dei composti maggiormente utilizzati (Pe, Pp, Pvc e Pet) – ha portato una crescita esponenziale della domanda complessiva.


La produzione globale ha visto un aumento dalle sole 20 000 tonnellate del 1925 ai 2 milioni di tonnellate del 1950, ai 150 milioni di tonnellate all’anno nel 2000 a circa 370 milioni di tonnellate nel 201942. Il modo migliore per rendersi conto dell’ubiquità delle materie plastiche nelle nostre vite è quello di fare caso a quante volte al giorno le nostre mani toccano, i nostri occhi vedono, i nostri corpi si stendono sopra e i nostri piedi calpestano un qualche tipo di plastica: potreste rimanere sbalorditi dalla frequenza con cui ciò accade! Anche solo scrivendo queste righe, i tasti del mio computer portatile Dell e il mouse senza fili sotto al mio palmo destro sono composti da acrilonitrile-butadiene-stirene, siedo su una sedia da ufficio rivestita con un tessuto in poliestere e le sue ruote in nylon poggiano su un tappetino protettivo in policarbonato che copre un tappeto in poliestere…


Un’industria che all’inizio produceva componenti industriali di dimensioni ridotte (il primo uso fu quello nel 1916 per il pomello della leva del cambio di una Rolls-Royce) e vari oggetti per la casa ha ampiamente espanso quelle due nicchie commerciali originali (in particolar modo con l’elettronica di consumo, che ogni anno introduce miliardi di nuovi accessori che non possono fare a meno della plastica) e ha aggiunto applicazioni su vasta scala come le carrozzerie delle automobili, gli interni completi degli aeroplani e larghe tubature.


Ma la plastica ha trovato il suo ruolo piú indispensabile nella sanità in generale e nei trattamenti ospedalieri delle malattie infettive in particolare. La vita moderna oggigiorno inizia (in sala parto) e finisce (nelle unità di terapia intensiva) circondata dagli oggetti di plastica43. E coloro che in precedenza non si sono mai resi conto del ruolo svolto dalle plastiche nella sanità moderna oggi hanno imparato la lezione grazie al CoViD-19. La pandemia ce l’ha insegnato spesso in maniera drastica, quando i dottori e gli infermieri dell’America del Nord e dell’Europa esaurivano le scorte di dispositivi di protezione individuale (Dpi) – guanti usa e getta, maschere, scudi, guanti, camici e stivaletti – e i governi facevano a gara a chi sarebbe riuscito a fare l’offerta piú alta per farsi spedire per via aerea le limitate (e altamente sovrapprezzate) riserve dalla Cina, dove i produttori occidentali di Dpi, ossessionati dai tagli ai costi, avevano rilocalizzato la maggior parte delle loro produzioni, provocando carenze pericolose sebbene totalmente evitabili44.


Gli oggetti in plastica usati negli ospedali sono composti soprattutto da differenti forme di Pvc: tubi flessibili (impiegati per nutrire i pazienti, per trasferire l’ossigeno e per monitorare la pressione sanguigna), cateteri, contenitori per la somministrazione endovenosa, sacche per il sangue, imballaggi sterili, vari tipi di vassoi e bacinelle, «pappagalli» e sponde dei letti, coperte termiche e innumerevoli strumenti di laboratorio. Il Pvc è ormai il componente primario di oltre un quarto di tutti i prodotti sanitari, e negli ambienti domestici è presente nelle membrane che si trovano all’interno delle pareti e dei tetti, nelle cornici delle finestre, nelle tende, nelle manichette, nello strato di isolamento dei cavi elettrici, nei componenti elettronici, in una sempre crescente varietà di articoli per l’ufficio e nei giocattoli – e nelle carte di credito che utilizziamo per acquistare tutti questi oggetti45.


In anni recenti si è vista una crescente preoccupazione per l’inquinamento da plastica, sulla terraferma ma in particolar modo negli oceani, nelle acque costiere e sulle spiagge. Tornerò su questo punto nel capitolo sull’ambiente, ma lo sversamento irresponsabile delle plastiche nelle acque non può costituire un argomento contro l’uso adeguato di questi materiali sintetici molto vari e spesso indispensabili. Inoltre, per quanto riguarda le microfibre, è sbagliato presupporre, come molti fanno, che la loro presenza nelle acque oceaniche sia in gran parte dovuta all’usura e alla degradazione dei tessuti sintetici. Quei polimeri oggi incidono per due terzi della produzione globale di fibre, ma uno studio eseguito su campioni di acqua marina mostra che le fibre trovate negli oceani sono per lo piú (oltre il 90 per cento) di origine naturale46.


Acciaio: onnipresente e riciclabile.


Gli acciai (il plurale è piú accurato essendocene oltre 3.500 varietà) sono leghe la cui componente principale è il ferro (Fe)47. La ghisa greggia e quella di seconda fusione, il metallo incandescente prodotto dagli altiforni, normalmente sono composte per il 95-97 per cento da ferro, per l’1,8-4 per cento da carbonio e per lo 0,5-3 per cento da silicio, con mere tracce di pochi altri elementi48. Il suo elevato contenuto di carbonio la rende fragile, ha una scarsa duttilità (la capacità di deformarsi), e la sua resistenza meccanica (la resistenza alla rottura se sottoposta a uno sforzo di allungamento) è inferiore a quella del bronzo o dell’ottone. L’acciaio in età preindustriale veniva prodotto in Asia e in Europa attraverso una varietà di metodi artigianali – quindi faticosi e costosi – e perciò non è mai diventato di uso comune49.


Gli acciai moderni sono derivati dalla ghisa attraverso la riduzione del contenuto di carbonio di quest’ultima, in modo che arrivi a costituirne tra lo 0,08 e il 2,1 per cento del peso totale. Le proprietà fisiche dell’acciaio battono facilmente quelle delle pietre piú dure, cosí come quelle degli altri due metalli piú comuni. Il granito ha una resistenza a compressione (la capacità di resistere a carichi che provocano un accorciamento del materiale) simile ma una resistenza a trazione di un ordine di grandezza inferiore: colonne di granito possono sorreggere il loro stesso peso come l’acciaio, ma le travi in acciaio possono sopportare carichi 15-30 volte piú elevati50. Normalmente la resistenza a trazione dell’acciaio è circa sette volte quella dell’alluminio e quattro quella del rame; la sua durezza è, rispettivamente, quattro volte e otto volte piú elevata; ed è molto resistente al calore: l’alluminio fonde a 660°C, il rame a 1.085°C, l’acciaio soltanto a 1.425°C.


Gli acciai si suddividono in quattro grandi categorie51. Gli acciai al carbonio (il 90 per cento degli acciai sul mercato sono composti per lo 0,3-0,95 per cento da carbonio) si possono trovare ovunque, nei ponti come nei frigoriferi, negli ingranaggi o nelle cesoie per lamiere. Le leghe di acciaio includono una quota variabile di uno o piú elementi ulteriori (i piú comuni sono il manganese, il nichel, il silicio e il cromo, ma anche l’alluminio, il molibdeno, il titanio e il vanadio), che sono aggiunti per migliorarne le proprietà fisiche (durezza, resistenza, duttilità). L’acciaio inossidabile (al 10-20 per cento composto da cromo) è stato prodotto per la prima volta soltanto nel 1912 per l’impiego negli utensili da cucina, e oggi è ampiamente utilizzato negli strumenti chirurgici, nei motori, nelle componenti meccaniche e nell’edilizia52. Gli acciai per utensili hanno una resistenza a trazione tra le 2 e le 4 volte superiore a quella dei migliori acciai strutturali, sono impiegati per il taglio dell’acciaio stesso e di altri metalli, per formare matrici (per lo stampaggio e l’estrusione di metalli o plastiche), ma anche per martelli e strumenti da taglio manuali. Tutti gli acciai (fatta esclusione per alcune delle varietà inossidabili) sono magnetici e perciò adatti per costruire dispositivi elettronici.


L’acciaio determina l’aspetto della civiltà moderna e permette le sue attività fondamentali. È il metallo piú utilizzato e costituisce innumerevoli componenti cruciali per il mondo contemporaneo, visibili e invisibili. Inoltre, quasi tutti gli altri prodotti metallici o non metallici che adoperiamo sono stati estratti, lavorati, modellati, completati e distribuiti grazie all’impiego di strumenti e macchinari in acciaio, e nessuno degli odierni mezzi di trasporto di massa potrebbe funzionare senza di esso. L’acciaio è visibilmente onnipresente dentro e fuori le nostre case, in oggetti piccoli (posate, coltelli, pentole, padelle, altri accessori per la cucina, attrezzi per il giardinaggio) e grandi (elettrodomestici, tosaerba, biciclette, automobili).


Prima che i grandi edifici urbani siano eretti, si possono osservare enormi macchinari in acciaio battere pali di fondazione in acciaio o in calcestruzzo armato, anch’essi contenenti acciaio, nelle fondamenta e, successivamente, il sito edilizio sarà dominato per mesi da alte gru in acciaio. Nel 1954, il Socony-Mobil Building a New York fu il primo grattacielo del mondo con una facciata interamente rivestita in acciaio inossidabile, e piú di recente per il Burj Khalifa a Dubai, alto 828 metri, sono stati utilizzati pannelli di rinforzo orizzontali in acciaio inossidabile ruvido montati all’esterno e strutture verticali tubulari con una sezione a forma di pinna, anch’esse in acciaio53. L’acciaio è allo stesso tempo una componente strutturale fondamentale e un elemento di design di eleganti ponti a sbalzo e ponti sospesi54: quello del Golden Gate di San Francisco viene costantemente ripitturato di arancione55; la campata principale dell’Akashi Kaikyō è la piú lunga al mondo, coprendo quasi 2 chilometri, e le sue torri in acciaio supportano grosse funi di 1,12 metri di diametro formate da trefoli in acciaio56.


Lungo le strade delle città si susseguono a intervalli regolari lampioni in acciaio zincato a caldo e verniciato a polvere per renderlo resistente alla ruggine; l’acciaio laminato è impiegato per i segnali stradali posizionati ai lati della carreggiata e per la segnaletica sopraelevata; mentre l’acciaio ondulato forma i guardrail. Torri in acciaio supportano gli spessi cavi in acciaio delle funivie che sollevano milioni di sciatori rimasti a valle e trasportano le cabine piene di turisti fino alla cima delle montagne. Le torri di trasmissione radiotelevisiva (tralicci strallati) hanno collezionato diversi record di altezza tra le strutture costruite dall’uomo e i paesaggi moderni includono serie apparentemente infinite di elettrodotti ad alta tensione. Due novità recenti difficili da ignorare sono torri strallate incredibilmente alte (per la trasmissione del segnale telefonico) e gruppi di enormi turbine eoliche, installate sia sulla terraferma sia in mare; e le piú grandi costruzioni in acciaio situate nell’oceano sono le gigantesche piattaforme per l’estrazione di gas e petrolio57.


Dal punto di vista del peso, l’acciaio è quasi sempre l’elemento predominante nei mezzi di trasporto. Gli aerei di linea costituiscono l’eccezione principale (formati in larga misura da leghe di alluminio e materiali compositi con fibre di rinforzo) e l’acciaio incide comunque per il 10 per cento circa del loro peso, essendo impiegato nei motori e nel carrello d’atterraggio58. In media un’automobile contiene circa 900 chili di acciaio59. Con quasi 100 milioni di veicoli a motore fabbricati ogni anno arriviamo a 90 milioni di tonnellate di acciaio, il 60 per cento all’incirca del quale ad alta resistenza meccanica, il che rende le autovetture tra il 26 e il 40 per cento piú leggere rispetto all’acciaio convenzionale60. E sebbene i moderni treni ad alta velocità (con corpo in alluminio e interni in plastica) siano formati soltanto per il 15 per cento da acciaio (nelle ruote, negli assali, nei cuscinetti e nei motori), il loro funzionamento necessita di appositi binari formati da rotaie che utilizzano un acciaio piú pesante del normale61.


Gli scafi delle navi cisterna per il trasporto di petrolio o gas liquefatto e delle portarinfuse che trasportano minerali, cereali o cemento, sono costruiti piegando ampie placche in acciaio ad alta resistenza nelle forme desiderate e saldandole insieme. Ma la piú grande rivoluzione nel settore nautico nel periodo successivo alla guerra è stata l’introduzione delle navi portacontainer (per maggiori dettagli, consultare il Quarto capitolo), che trasportano il loro carico all’interno di contenitori in acciaio di dimensioni standard62. Queste scatole in acciaio misurano in altezza e larghezza circa 2,5 metri (la lunghezza varia) e sono impilate all’interno dello scafo o sul ponte delle navi. Ci sono buone probabilità che tutti i vostri capi di abbigliamento siano stati trasportati fino alla loro destinazione finale per la vendita al dettaglio all’interno di un container in acciaio che aveva iniziato il proprio viaggio in una fabbrica dell’Asia.


E come sono stati assemblati tutti questi strumenti e macchinari? Nella maggior parte dei casi, per mezzo di altre macchine e apparecchiature costituite in larga parte da acciaio e grazie alle quali è possibile realizzare le operazioni di colata, forgiatura, laminatura, trasformazione per sottrazione (tornitura, fresatura e alesatura), piegatura, saldatura, affilatura, e taglio – operazioni, queste ultime, rese possibili dall’acciaio per utensili, in grado di tagliare acciai al carbonio con la facilità con cui un coltello fende un panetto di burro morbido. E le macchine che fabbricano altre macchine sono alimentate in larga parte a elettricità, la cui produzione (e quindi anche l’intero universo dei prodotti elettronici, dei computer e delle telecomunicazioni) non sarebbe possibile senza l’acciaio: alti generatori di vapore riempiti di tubi d’acciaio e acqua pressurizzata; reattori nucleari posti all’interno di spessi recipienti in pressione; il vapore in espansione che fa ruotare grandi turbine i cui lunghi alberi, le assi che trasmettono il moto, sono ricavati da enormi forme di acciaio grezzo battuto.


L’acciaio che sta sotto al livello del suolo, fuori dal nostro campo visivo, include i sostegni fissi o mobili impiegati nelle miniere sotterranee, e milioni di chilometri di tubi di esplorazione, di rivestimento e di produzione che partono dai siti per l’estrazione di petrolio e gas naturale. Il settore del petrolio e quello del gas dipendono dall’acciaio anche per le condotte installate in prossimità della superficie (a 1 o 2 metri di profondità) per la raccolta, la trasmissione e la distribuzione delle risorse. Gli oleodotti che arrivano alle raffinerie utilizzano tubature con un diametro di oltre un metro, mentre quello dei gasdotti di distribuzione può misurare anche solo 5 centimetri63. Le raffinerie di petrolio greggio sono essenzialmente foreste di acciaio, con alte torri di frazionamento, reattori per il cracking catalitico, sterminate tubature e serbatoi di stoccaggio. In ultimo, non dobbiamo dimenticarci che l’acciaio salva vite all’interno degli ospedali (da quello presente nelle centrifughe da laboratorio a quello nelle apparecchiature diagnostiche, fino ai bisturi, alle pinze e ai divaricatori in acciaio inossidabile), e pone fine ad altre: eserciti e flotte navali con la loro vasta scelta di armamenti non sono nient’altro che enormi riserve di acciaio con finalità distruttive64.


Siamo in grado di assicurarci l’enorme disponibilità di acciaio necessaria a livello globale, e quanto incide la produzione di questo metallo? Disponiamo di adeguate riserve di minerali ferrosi per continuare a produrre acciaio per molte generazioni a venire? Possiamo produrne abbastanza per costruire infrastrutture moderne e migliorare gli standard di vita nei Paesi a basso reddito, dove il consumo pro capite di acciaio è piú basso di quello nei Paesi ricchi un secolo fa? La produzione di acciaio è rispettosa dell’ambiente o straordinariamente dannosa? Possiamo produrre questo metallo senza ricorrere ai combustibili fossili?


La risposta alla seconda domanda è inequivocabilmente positiva. Dal punto di vista della massa il ferro è l’elemento dominante del pianeta, essendo pesante (quasi 8 volte il peso dell’acqua) e costituendone il nucleo65. Ma è anche presente in abbondanza nella crosta terrestre: soltanto tre elementi (ossigeno, silicio e allumino) sono piú comuni; il ferro, al 6 per cento, si posiziona al quarto posto66. La produzione annuale di minerali ferrosi – un settore dominato da Australia, Brasile e Cina – si avvicina oggigiorno ai 2,5 miliardi di tonnellate; si stima che le riserve nei giacimenti mondiali superino gli 800 miliardi di tonnellate, di cui 250 miliardi sono di ferro. Ciò si traduce in un rapporto risorse / produzione di oltre 300 anni, che va quindi ben oltre qualsiasi concepibile orizzonte di pianificazione (il rapporto per il petrolio greggio è di appena 50 anni)67.


Inoltre, l’acciaio è facile da riciclare, basta fonderlo all’interno di un forno elettrico ad arco (Fea) – un enorme contenitore cilindrico resistente al calore composto da pesanti pannelli in acciaio (e uno strato di mattoni di magnesio disposti lungo le pareti), con un coperchio a cupola rimovibile raffreddato ad acqua, che permette il passaggio di tre grandi elettrodi in carbonio. Una volta caricatolo con i rottami di acciaio, vengono inseriti gli elettrodi e la corrente elettrica che li attraversa forma un arco la cui alta temperatura (1.800°C) fonde il metallo con facilità68. Però la quantità di energia richiesta per realizzare questo processo è enorme: anche un moderno Fea altamente efficiente necessita ogni giorno della stessa elettricità richiesta da una città americana di 150 000 abitanti69.


Prima di riciclare gli autoveicoli si deve effettuare lo scolo di tutti i liquidi contenuti, si rimuove la tappezzeria, le batterie, i servomotori, gli pneumatici, le radio e i motori funzionanti, oltre ai componenti in plastica, gomma, vetro e alluminio. Fatto ciò gli sfasciacarrozze comprimono le strutture dei veicoli spogliati di tutte le parti in eccesso, in vista della triturazione, l’ultima fase del processo di rottamazione. L’operazione di riciclaggio piú impegnativa è certamente la demolizione dei transatlantici dismessi, un’operazione realizzata nella maggior parte dei casi sulle spiagge del Pakistan (a Gadani, nord-ovest di Karachi), dell’India (ad Alang nel Gujarat) e del Bangladesh (nei pressi di Chittagong). Una volta spogliati del loro rivestimento esterno gli scafi formati da pesanti pannelli in acciaio devono essere tagliati per mezzo di bruciatori a gas o torce al plasma – un lavoro rischioso e inquinante eseguito troppo spesso da persone prive di adeguate protezioni70.


I Paesi ricchi riciclano ormai quasi tutti i loro rottami automobilistici, possono vantare una quota simile (piú del 90 per cento) di riutilizzo di travi e pannelli in acciaio strutturale e un tasso soltanto leggermente piú basso di riciclaggio degli elettrodomestici, e gli Stati Uniti negli anni recenti hanno recuperato oltre il 65 per cento delle barre di acciaio che formano il calcestruzzo armato, un valore simile a quello del riciclo di lattine in acciaio per bevande e cibo71. I rottami di acciaio sono divenuti una delle merci d’esportazione piú preziose, con i Paesi con una lunga tradizione di produzione dell’acciaio e abbondanza di rottami accumulati nel tempo che vendono il materiale a quelli la cui produzione è in espansione. L’Unione Europea è il primo esportatore, seguita da Giappone, Russia e Canada; e Cina, India e Turchia sono i primi acquirenti72. L’acciaio riciclato conta per quasi il 30 per cento della produzione totale annuale del metallo, con percentuali nazionali che vanno dal 100 per cento per molti piccoli produttori a quasi il 70 per cento per gli Usa, circa il 40 per l’Ue, e meno del 12 per cento per la Cina73.


Ciò significa che la produzione di acciaio primario domina ancora il settore, e la ghisa liquida prodotta è oltre il doppio dell’acciaio che viene riciclato ogni anno – quasi 1,3 miliardi di tonnellate nel 2019. Il procedimento inizia dagli altiforni (imponenti strutture in acciaio e ferro con materiali resistenti al calore a rivestimento delle pareti) che producono ghisa liquida (di prima o di seconda fusione) attraverso la fusione di minerali ferrosi, coke e calcare74. Il secondo passaggio – la riduzione dell’alto contenuto di carbonio della ghisa e la produzione dell’acciaio – avviene all’interno di un forno a ossigeno basico (l’aggettivo si riferisce alle proprietà chimiche delle scorie prodotte). Il processo è stato inventato negli anni Quaranta e fu velocemente commercializzato dopo la metà dei Cinquanta75. Oggi i forni a ossigeno basico sono grandi strutture periformi aperte sul lato superiore e possono caricare fino a 300 tonnellate di ghisa liquida, che è investita da ossigeno soffiato dall’alto e dal basso. La reazione cosí prodotta riduce il contenuto di carbonio del metallo (può scendere fino allo 0,04 per cento) in circa 30 minuti. La combinazione di un altoforno con un forno a ossigeno basico è alla base della moderna produzione di acciaio a ciclo integrale. I passaggi finali includono il trasferimento dell’acciaio caldo alle macchine per la colata continua per la produzione di bramme, billette (a sezione quadrata o rettangolare) e nastri che alla fine saranno trasformati nei prodotti finali.


La produzione di acciaio è un’attività ad alto consumo energetico e circa il 75 per cento del suo fabbisogno totale è dovuto agli altiforni. Al giorno d’oggi, utilizzando le migliori pratiche a nostra disposizione, la domanda combinata si colloca tra i 17 e i 20 gigajoule per tonnellata di prodotto finale; operazioni meno efficienti richiedono tra i 25 e i 30 GJ / t76. Ovviamente, il costo energetico dell’acciaio secondario prodotto all’interno dei Fea è molto inferiore a quello associato alla produzione a ciclo integrale: nei casi migliori supera appena i 2 GJ / t. A ciò vanno aggiunti i costi di laminazione del metallo (nella maggior parte dei casi tra 1,5 e 2 GJ / t), e quindi a livello globale il costo energetico complessivo potrebbe essere intorno a 25 GJ / t per la produzione a ciclo integrale e a 5 GJ / t per l’acciaio riciclato77. I requisiti energetici per la produzione globale di acciaio nel 2019 ammontavano a circa 34 exajoule, pari al 6 per cento circa della fornitura di energia primaria del pianeta.


Considerata la dipendenza del settore dal carbone siderurgico e dal gas naturale, l’industria dell’acciaio ha dato uno dei contributi principali alla generazione antropica di gas serra. La World Steel Association calcola come media globale 500 chilogrammi di carbonio per tonnellata, mentre nel periodo recente la produzione primaria di acciaio è stata responsabile dell’emissione di circa 900 megatonnellate di carbonio all’anno, ovvero tra il 7 e il 9 per cento delle emissioni dirette dovute alla combustione a livello globale di combustibili fossili78. L’acciaio non è però l’unico materiale responsabile per una fetta cosí significativa di emissioni di CO2: il cemento richiede molta meno energia, ma siccome ne viene prodotta una quantità pari quasi a tre volte quella dell’acciaio, è responsabile per una quota molto simile (pressappoco l’8 per cento) di emissioni di carbonio.


Calcestruzzo: un mondo creato dal cemento.


Il cemento è la componente indispensabile del calcestruzzo e viene prodotto cuocendo (ad almeno 1.450°C) calcare frantumato (fonte di calcio) insieme ad argilla, scisto o materiali di scarto (fonti di silicio, alluminio e ferro) all’interno di grandi forni kiln – lunghi (tra i 100 e i 220 metri) e inclinati cilindri metallici79. Questo processo, la sinterizzazione ad alte temperature, produce il clinker (il risultato della fusione di calcare e alluminosilicati) che viene macinato fino a ottenere la polvere fine che conosciamo come cemento.


Il calcestruzzo consiste in larga misura (tra il 65 e l’85 per cento) di materiali aggregati e acqua (tra il 15 e il 20 per cento)80. Gli aggregati piú fini, come ad esempio la sabbia, permettono di avere un calcestruzzo piú resistente, ma richiedono un maggiore apporto d’acqua rispetto agli aggregati composti da ghiaia di diverse dimensioni. La miscela è tenuta insieme dal cemento – che tipicamente costituisce tra il 10 e il 15 per cento della massa finale del calcestruzzo – la cui reazione a contatto con l’acqua innesca in prima battuta la fase di presa del composto e, in seguito, quella di indurimento.


Il frutto di tale procedimento è il materiale oggigiorno piú massicciamente utilizzato nella nostra società, duro, pesante e capace di resistere per decenni anche in condizioni difficili, in particolar modo se rinforzato con l’acciaio. Il calcestruzzo normale ha una resistenza a compressione abbastanza buona (e le migliori varietà moderne sono cinque volte piú resistenti di quelle di due generazioni fa), ma una scarsa resistenza a trazione81. L’acciaio strutturale può avere una resistenza a trazione fino a 100 volte piú elevata, e si è ricorso a differenti tipi di rinforzi o armature (reti o barre in acciaio, fibre in vetro o in acciaio, polipropilene) per colmare questo enorme divario.


Dal 2007, la gran parte dell’umanità ha vissuto in città che esistono grazie al calcestruzzo. Certo, ci sono molti altri materiali all’interno degli edifici urbani: i grattacieli hanno strutture in acciaio rivestite in vetro o metallo; le case dei sobborghi nordamericani sono fatte di legno (che forma i montanti, i pannelli in compensato o in truciolato) e cartongesso (e spesso sono rivestite da uno strato in mattoni o pietra); e oggi diversi tipi di materiali derivati dalla legna sono utilizzati per costruire edifici ad appartamenti di molti piani82. Ma i grattacieli e gli alti edifici residenziali si fondano su possenti piloni in calcestruzzo, e il calcestruzzo non va a costituire soltanto le fondamenta e gli scantinati ma anche molte pareti e soffitti, ed è onnipresente in tutte le infrastrutture urbane – da quelle sotterranee (le grandi tubature, i canali che racchiudono i cavi, la rete fognaria, le fondamenta della metropolitana, le gallerie) a quelle per il trasporto di superficie (marciapiedi, strade, ponti, moli, piste degli aeroporti). Le moderne città – da San Paolo del Brasile e Hong Kong (con i loro grattacieli residenziali di diversi piani) a Los Angeles e Pechino (con la loro estesa rete di superstrade) – sono letteralmente l’incarnazione del calcestruzzo.


Il cemento usato dai romani era un miscuglio di gesso, calce viva e cenere vulcanica, e si dimostrò essere un materiale durevole ed eccellente per le grandi strutture, le loro vaste cupole, per esempio. Il Pantheon di Roma, tuttora intatto dopo quasi due millenni (fu completato nel 126 d. C.), copre ancora un’area maggiore di quella di qualsiasi altra struttura costruita in calcestruzzo non armato83. Ma la ricetta del cemento moderno è stata brevettata soltanto nel 1824, da Joseph Aspdin, un muratore inglese. La sua malta idraulica era prodotta cuocendo calcare e argilla ad alte temperature: la calce, la silice e l’allumina presenti in questi materiali subiscono un processo di vetrificazione e la macinazione della sostanza vetrosa che se ne ricava produce il cosiddetto cemento Portland84. Aspdin scelse questo nome (tuttora in voga) perché una volta indurito, e in seguito alla reazione con l’acqua, il clinker vetroso ricavato aveva un colore simile a quello del calcare dell’isola di Portland nel Canale della Manica.


Come già osservato, il nuovo materiale aveva un’ottima resistenza alla compressione, e i migliori calcestruzzi moderni possono sopportare pressioni di oltre 100 megapascal, piú o meno il peso di un elefante africano maschio messo in equilibrio su una monetina85. Ma la trazione è una questione diversa: uno sforzo di trazione di appena 2 o 5 megapascal (meno di quanto sia necessario per lacerare la pelle umana) può fare a pezzi il calcestruzzo. Per questo motivo, l’adozione commerciale su ampia scala del calcestruzzo nel settore edile fu resa possibile soltanto dai graduali progressi compiuti nel campo delle armature in acciaio, che permisero il suo utilizzo in elementi strutturali soggetti a una forte tensione.


Durante gli anni Sessanta e Settanta dell’Ottocento, i primi brevetti relativi ad armature per il calcestruzzo furono concessi a François Coignet e Joseph Monier in Francia (Monier, un giardiniere, iniziò a usare reti in acciaio per rafforzare le sue fioriere), ma la vera svolta arrivò nel 1884 con Ernest Ransome e le sue barre di rinforzo in acciaio86. I primi modelli di forni rotanti kiln, dove i minerali sono vetrificati a temperature che arrivano fino ai 1.500°C, apparvero negli anni Novanta dell’Ottocento e resero possibile l’impiego di calcestruzzo economico nei grandi progetti. Nel 1903 con i suoi sedici piani, l’Ingalls Building a Cincinnati divenne il primo grattacielo al mondo in calcestruzzo armato87. Soltanto tre anni piú tardi, Thomas Edison si convinse che il calcestruzzo avrebbe dovuto sostituire il legname nella costruzione delle case indipendenti dei sobborghi americani, e cominciò a disegnare e a costruire, in New Jersey, case in calcestruzzo gettato in opera; nel 1911 tentò di resuscitare il progetto, ormai fallito, offrendo anche economici mobili in calcestruzzo, inclusi quelli per la camera da letto, e in calcestruzzo fabbricò anche un fonografo, una delle sue invenzioni predilette88.


Parallelamente, in contrasto con il fallimento di Edison, Robert Maillart, un ingegnere svizzero, fu tra i primi a sviluppare una tendenza tutt’ora molto in voga: quella dei ponti in calcestruzzo armato, iniziando con quello relativamente breve di Zuoz nel 1901 e con quello di Tavanasa nel 1906. Il suo progetto piú famoso, l’ambizioso ponte ad arco Salginatobel, che si estende su una gola alpina, fu portato a termine nel 1930 ed è oggi un’opera di ingegneria civile di interesse storico internazionale89. Tra i primi utilizzatori del materiale troviamo anche gli architetti Auguste Perret in Francia (che lo utilizzò per costruire eleganti appartamenti e il Théâtre des Champs-Élysées) e Frank Lloyd Wright negli Usa. Le opere in calcestruzzo di Wright piú famose realizzate nel periodo interbellico sono l’Imperial Hotel di Tokyo, terminato appena prima del terremoto del 1923 che rase al suolo la città e danneggiò il nuovo edificio, e la cosiddetta «Casa sulla cascata» in Pennsylvania, completata nel 1939. Il museo Guggenheim di New York è stata la sua ultima celebre opera in calcestruzzo, completata nel 195990.


La resistenza alla trazione delle armature in acciaio fu migliorata ulteriormente tramite il getto del calcestruzzo all’interno di stampi detti casseforme o casseri, che contenevano cavi o barre messi in tensione appena prima del getto del calcestruzzo (pre-tensione, l’acciaio viene teso tirandolo alle estremità ed è rilasciato una volta che il calcestruzzo si è legato al metallo) o in seguito (post-tensione, con cavi in acciaio fissati nella posizione giusta all’interno di guaine protettive), in entrambi i casi si parla di calcestruzzo precompresso. La prima opera importante a utilizzare il calcestruzzo armato precompresso, il ponte Plougastel disegnato da Eugène Freyssinet e situato nei pressi di Brest, fu portata a termine nel 193091. Con la sua figura coraggiosa, bianca, che rassomiglia a una vela, il Teatro dell’Opera di Sydney disegnato da Jørn Utzon (e costruito tra il 1959 e il 1973) è forse la struttura in cemento armato precompresso piú nota al mondo92. Oggi la precompressione è una tecnica comune, e i ponti in calcestruzzo armato piú lunghi non attraversano semplicemente fiumi o gole ma sono enormi viadotti ferroviari per treni ad alta velocità. Il record spetta ai 164,8 chilometri del viadotto Danyang-Kunshan in Cina (completato nel 2010), parte della linea ferroviaria ad alta velocità Pechino-Shanghai93.


Oggigiorno si può trovare il calcestruzzo armato in qualsiasi grande edificio moderno e in qualsiasi infrastruttura per il trasporto, dai moli dei porti ai prefabbricati ad anello posizionati in sito dai potenti macchinari per la creazione di gallerie (sotto lo stretto della Manica e nelle Alpi). La configurazione standard dell’Interstate Highway System, il sistema autostradale statunitense, prevede uno strato di circa 28 centimetri di calcestruzzo non armato posato sopra a uno strato spesso il doppio composto da aggregati naturali (pietre, ghiaia, sabbia) – e l’intero sistema autostradale comprende 50 milioni di tonnellate di cemento, 1,5 miliardi di tonnellate di aggregati, e soltanto circa 6 milioni di tonnellate di acciaio (per i supporti strutturali e per le cloache)94. Le piste per aeroplani (con un’estensione che può arrivare a 3,5 chilometri) poggiano su uno strato di calcestruzzo armato, che raggiunge la massima profondità (fino a 1,5 metri) nella zona di contatto, cosí da poter reggere ai ripetuti impatti di centinaia di migliaia di atterraggi eseguiti ogni anno da velivoli che possono arrivare a pesare intorno alle 380 tonnellate (come nel caso dell’airbus A380). Per esempio, la pista piú lunga del Canada (4,27 chilometri, a Calgary) ha richiesto oltre 85 000 metri cubi di calcestruzzo e 16 000 tonnellate di armatura in acciaio95.


Ma le opere architettoniche realizzate in calcestruzzo armato piú grandi sono sicuramente le colossali dighe collocate in diverse parti del mondo. L’èra di queste megastrutture ha avuto inizio negli anni Trenta, con la costruzione della diga di Hoover lungo il corso del fiume Colorado e la diga Grand Coulee sul fiume Columbia. La vertiginosa diga di Hoover, situata in una gola a sud-est di Las Vegas, ha richiesto circa 3,4 milioni di metri cubi di calcestruzzo e 20 000 tonnellate di armatura in acciaio, e una massa doppia di tubi e pannelli in acciaio, oltre a 8.000 tonnellate di acciaio strutturale96. Nel corso del XX secolo sono state costruite centinaia di queste enormi strutture e i 28 milioni di metri cubi di calcestruzzo che formano la diga piú grande al mondo – Sanxia, conosciuta come «delle Tre Gole» in Occidente, collocata sul fiume Azzurro, in Cina, dove genera elettricità dal 2011 – sono rinforzati con 256 500 tonnellate di acciaio97.


Il consumo annuale di cemento negli Stati Uniti è decuplicato tra il 1900 e il 1928, quando raggiunse i 30 milioni di tonnellate, tonnellate che grazie al boom edilizio seguito alla guerra – di cui hanno fatto parte la costruzione del sistema autostradale e l’espansione degli aeroporti del Paese – erano triplicate alla fine del secolo. Il picco fu raggiunto a circa 128 milioni di tonnellate nel 2005, mentre i valori piú recenti sono intorno ai 100 milioni di tonnellate all’anno98. Una massa pari soltanto a una frazione del fabbisogno annuo del principale consumatore mondiale, la Cina. Nel 1980, alla soglia della sua spinta modernizzatrice, produceva meno di 80 milioni di tonnellate di cemento. Nel 1985 aveva sorpassato gli Usa, diventandone il maggior produttore al mondo, e nel 2019 la sua produzione, di circa 2,2 miliardi di tonnellate, costituiva appena piú della metà di quella globale totale99.


Forse il risultato piú sbalorditivo di questa ascesa è il fatto che in soli due anni – 2018 e 2019 – la Cina ha prodotto quasi lo stesso quantitativo di cemento (circa 4,4 miliardi di tonnellate) prodotto dagli Stati Uniti lungo l’intero corso del XX secolo (4,56 miliardi di tonnellate). Non sorprende che oggi il Paese abbia il piú esteso sistema di superstrade, treni veloci e aeroporti del mondo, cosí come il maggior numero di centrali idroelettriche di dimensioni colossali e di città che ospitano diversi milioni di abitanti. Ma un altro dato sconvolgente è quello per cui oggigiorno il mondo consuma in un anno piú cemento di quanto ha fatto nella prima metà del XX secolo. E (per fortuna e per sfortuna) queste enormi masse di calcestruzzo moderno non dureranno tanto a lungo quanto la cupola a cassettoni del Pantheon romano.


Il calcestruzzo da costruzione ordinario non è un materiale molto durevole e può subire diversi attacchi da parte dell’ambiente100. Le superfici esposte sono aggredite dall’umidità, dal ghiaccio, dalla crescita di alghe e batteri (soprattutto nei tropici), dai depositi acidi e dalle vibrazioni. Le strutture in calcestruzzo sotterranee subiscono livelli di pressione tali da causarne la rottura, oltre ai danni provocati da composti reattivi che colano dall’alto. L’alta alcalinità del calcestruzzo (quando è fresco ha un pH di circa 12,5) costituisce una buona difesa per l’acciaio di rinforzo, ma le crepe e il distacco della matrice cementizia espongono il metallo al rischio di corrosione. I cloruri attaccano il calcestruzzo immerso nell’acqua salata e il calcestruzzo delle strade su cui viene gettato il sale per facilitare il disgelo nel periodo invernale.


Tra il 1990 e il 2020, nel corso del processo di cementificazione di massa del mondo contemporaneo sono state deposte quasi 700 miliardi di tonnellate di calcestruzzo, un materiale solido, ma in lenta disintegrazione. La durevolezza delle strutture in questo materiale può variare significativamente: è impossibile offrire un valore che indichi la longevità media, ma molte saranno profondamente deteriorate dopo due o tre decenni appena, mentre altre possono reggere bene per un tempo compreso tra i sessanta e i cento anni. Ciò significa che nel corso del XXI secolo dovremo fare i conti con le complicazioni senza precedenti che deriveranno dal processo di deterioramento del calcestruzzo e dalle operazioni di ristrutturazione e rimozione (un problema che, ovviamente, si farà sentire in particolar modo in Cina) una volta che le strutture andranno demolite – perché possano essere sostituite o eliminate del tutto – o saranno abbandonate. Le strutture in calcestruzzo possono essere smantellate, lentamente e in piú passaggi, l’armatura in acciaio può essere separata ed entrambi i materiali sono riciclabili: un’operazione che non costa poco, ma perfettamente fattibile. Dopo essere stato frantumato e setacciato, l’aggregato che ne risulta può essere integrato a nuovo calcestruzzo, e l’acciaio può essere riciclato101. Già oggi in tutto il mondo c’è necessità di calcestruzzo per riparare vecchie strutture o erigerne di nuove.


Nei Paesi ricchi con un basso tasso di crescita della popolazione, la necessità primaria è la riparazione delle infrastrutture ormai degradate. Negli Stati Uniti la piú recente valutazione della situazione assegna voti bassi o molto bassi a tutti i settori dove il calcestruzzo è predominante: le dighe, le strade e il settore dell’aviazione prendono tutti D, e la media in generale è soltanto D+102. Un giudizio che ci dà un’idea della situazione con cui la Cina potrebbe doversi confrontare (dal punto di vista dei costi economici e delle dimensioni del problema) nel 2050. All’opposto, i Paesi piú poveri hanno bisogno di infrastrutture essenziali e la necessità primaria in molte abitazioni è quella di sostituire i pavimenti in terra battuta con pavimenti in calcestruzzo al fine di migliorare l’igiene complessiva e ridurre dell’80 per cento circa l’incidenza delle patologie dovute ai parassiti103.


Con popolazioni che invecchiano e flussi migratori in direzione delle aree urbane, la globalizzazione economica e il declino delle economie regionali, in tutto il mondo un numero sempre maggiore di masse di calcestruzzo saranno semplicemente abbandonate. Le rovine delle fabbriche di automobili a Detroit, gli stabilimenti abbandonati nelle vecchie regioni industriali dell’Europa, e tutti gli impianti e i monumenti decrepiti voluti dai pianificatori centrali dell’Unione Sovietica che si possono incontrare nella pianura russa e in Siberia, sono solo i primi segnali di questa tendenza104. Altre reliquie di calcestruzzo piuttosto comuni sono le spesse pareti dei bunker bellici, come quelli situati in Normandia e sulla linea Maginot, e i massicci silos che un tempo ospitavano i missili a testate nucleari e oggi si ergono vuoti nelle Grandi Pianure americane.


Prospettive materiali: vecchie e nuove risorse.


Nel corso della prima metà del XXI secolo – con un rallentamento del ritmo di crescita della popolazione globale e una situazione di stagnazione demografica, se non di vero e proprio declino in molti Paesi ricchi – le economie mondiali non dovrebbero avere problemi a soddisfare la domanda di acciaio, cemento, ammoniaca e plastiche, soprattutto con l’intensificarsi del ricorso alla pratica del riciclo. Ma è improbabile che entro il 2050 questi settori riescano a eliminare il loro rapporto di dipendenza dai combustibili fossili e smettano di contribuire in maniera significativa alle emissioni globali di CO2. Ciò è particolarmente improbabile in quelli che oggi sono i Paesi a basso reddito in corso di modernizzazione, le cui enormi necessità infrastrutturali e di consumo richiederanno un incremento di ampia scala del consumo di tutti i materiali basilari.


Una replica in quei Paesi dell’esperienza cinese osservata a partire dal 1990 significherebbe produrre 15 volte l’acciaio attuale, 10 volte tanto il cemento, oltre il doppio dell’ammoniaca e oltre 30 volte tanto la plastica105. Ovviamente, anche se gli altri Paesi in fase di modernizzazione si fermassero soltanto a metà strada o anche a un quarto dei progressi materiali compiuti recentemente dalla Cina, vedrebbero comunque incrementi ingenti dei loro consumi. Il bisogno di carbonio fossile è stato – e continuerà a essere per i prossimi decenni – il prezzo che paghiamo per la moltitudine di benefici che derivano dall’affidamento che facciamo sull’acciaio, sul cemento, sull’ammoniaca e sulle materie plastiche. E via via che produciamo una quantità di energia da fonti rinnovabili sempre maggiore, sarà necessaria una massa sempre piú grande dei vecchi materiali e quantitativi inediti di materiali che un tempo servivano soltanto in volumi modesti106.


Due esempi particolarmente degni di nota illustrano questa nuova dipendenza dai materiali che si sta sviluppando. Nessuna struttura è un simbolo piú evidente della produzione «verde» di elettricità delle grandi turbine eoliche – ma questi giganteschi agglomerati di acciaio, cemento e plastiche sono anche espressione dei combustibili fossili107. Le loro fondamenta sono in calcestruzzo armato, le loro torri, le loro «gondole» e i loro rotori sono fabbricati in acciaio (la cui massa combinata è quasi di 200 tonnellate per ogni megawatt di potenza installata), e le loro imponenti pale sono composte da resine plastiche (circa 15 tonnellate per turbina di media grandezza) difficili da riciclare e la cui produzione richiede una spesa significativa in energia. Tutti questi giganteschi componenti devono essere trasportati sul sito di installazione da camion di enormi dimensioni e montati da grandi gru in acciaio, e le scatole del cambio che fanno parte delle turbine vanno lubrificate regolarmente. Moltiplicando tali fabbisogni per i milioni di turbine che sarebbero necessarie per eliminare il ricorso ai combustibili per la produzione di energia elettrica, ci rendiamo conto quanto sia ingannevole qualsiasi discorso sull’imminente processo di dematerializzazione associato alle economie verdi.


Le automobili con motore elettrico ci offrono forse l’esempio migliore dei nuovi e profondi rapporti di dipendenza dai materiali. Una comune batteria agli ioni di litio per automobile pesa circa 450 chili e contiene circa 11 chili di litio, quasi 14 chili di cobalto, 27 chili di nichel, oltre 40 chili di rame e 50 chili di grafite – oltre a circa 181 chili di acciaio, alluminio e plastica. Per procurare questi materiali nelle quantità necessarie per fabbricare un singolo veicolo è necessaria la lavorazione di circa 40 tonnellate di minerali, e considerata la bassa concentrazione di molti elementi nei minerali che li contengono è necessario estrarre e lavorare circa 225 tonnellate di minerali grezzi108. E infine dovremmo moltiplicare questa cifra per quasi 100 milioni di unità, equivalenti alla produzione annuale globale dei veicoli a combustione interna che andrebbero sostituiti da quelli con motore elettrico.


Sono grandi le incognite sul ritmo futuro del processo di adozione dei veicoli elettrici, ma una valutazione dettagliata del fabbisogno di materiali, basata su due possibili scenari (presupponendo che il 25 o il 50 per cento del parco automobilistico globale nel 2050 sarà composto da veicoli elettrici), è giunta alle seguenti conclusioni: tra il 2020 e il 2050 la domanda di litio crescerà di 18-20 volte, quella di cobalto di 17-19 volte, quella di nichel di 28-31 volte, e quella della maggior parte degli altri materiali di 15-20 volte109. Ovviamente, ciò non richiederebbe soltanto una drastica espansione delle attività di estrazione e lavorazione di litio, cobalto (una buona fetta del quale oggi proviene da profondi e pericolosi cunicoli scavati a mano nel Congo e grazie a un ampio ricorso alla manodopera minorile) e nichel, ma anche una ricerca accurata di nuovi giacimenti. E queste operazioni, a loro volta, non potrebbero essere realizzate senza ulteriori e considerevoli processi di conversione di combustibili fossili ed energia elettrica. Pubblicare previsioni ottimistiche sulla crescente diffusione delle automobili elettriche è una cosa; rispondere alla domanda sempre maggiore di tali materiali su larga scala, un’altra.


Le economie attuali saranno sempre legate a massicci flussi di materiali, siano questi fertilizzanti a base di ammoniaca, impiegati per poter nutrire la sempre crescente popolazione globale; le plastiche, l’acciaio e il cemento necessari alla costruzione di nuovi strumenti, macchinari, strutture e infrastrutture; o nuove materie prime necessarie per la produzione di pannelli solari, turbine eoliche, automobili elettriche e batterie ricaricabili. E fino a quando tutte le energie impiegate per l’estrazione e la lavorazione di questi materiali non deriveranno da fonti rinnovabili, la civiltà moderna resterà fondamentalmente dipendente dai combustibili fossili impiegati nella loro produzione. Nessuna intelligenza artificiale, nessuna app, e nessuna forma di messaggi elettronici potranno alterare questa verità.

4