Archivio

Posts Tagged ‘clima’

Sondaggi nei ghiacci (2 parte)

28 luglio 2010 26 commenti

Per determinare i cambi termici avuti durante le ultime glaciazioni in Antartide e Groenlandia, si analizza il frazionamento isotopico dell´ossigeno, dell´idrogeno e dell´azoto che le bolle di aria della neve che si deposita anno dopo anno conserva nelle varie cappe di ghiaccio al loro interno.
Ossigeno nel ghiaccio
Il frazionamento 18 O/ 16 O degli isotopi dell´ossigeno del ghiaccio e in rapporto con la temperatura atmosferica nella quale si é condensata e precipitata con la neve.
Le molecole di acqua pesante (H218O) tendono a evaporarsi dal mare con maggiore difficoltá, a condensarsi prima e a addentrarsi meno nei continenti rispetto alle molecole di acqua normale che sono piú leggere (H216O). Questa proprietá si acuisce con il freddo. Le anomalie del frazionamento del 18O/16O del ghiaccio (δ18O) si comparano con un campione di acqua oceanica. I valori di δ18O del ghiaccio sono sempre negativi, tanto nelle glaciazioni che nei periodi interglaciali giá che la parte 18O/16O dell´acqua di mare é sempre superiore a quella della neve precipiatata nella terraferma. Indicano più freddo quanto piú sono negativi.


Oggi possiamo provare che addentrandosi dalla costa verso l´interno della Groenlandia la temperatura diminuisce e il valore δ18O della neve superficiale anch´essa diminuisce. La diminuzione di δ18O é di un 1 ‰ per ogni por cada tratto in cui la teperatura si abbassa di 1,5°C. (In Antartide i rapporti sono un poco differenti). Usando queste relazioni come un paleotermometro, si puó calcolare teoricamente le temperature che c´erano quando si accumularono le successive cappe di ghiaccio. Le attuali relazioni tra cambio di temperatura e frazionamento isotopico non sono cambiati durante i vari cicli glaciali. Peró i calcoli rimangono un poco approssimati perché occorre tenere presente diversi aspetti climatologici. E cioé:

a) Il frazionamento isotopico della neve dipende piú della temperatura in altura, (lí si condensa il vapore acqueo) piuttosto della temperatura superficiale. Pertanto in caso di inversione termica, (frequenti in Antartide e Groenlandia, la temperatura al suolo sará stata molto piú fredda di quello che indica il valore di δ18O del ghiaccio.

b) Vi sono diverse temperature di condensazione se la neve cadeva in autunno e primavera rispetto a quella caduta in inverno. Ci possono essere stati delle modificazioni delle precipitazioni e per tanto l´evoluzione di δ18O possono non indicare correttamente l´evoluzione delle temperature medie annuali.
c) Ci possono essere stati variazioni nelle provenienza delle masse di aria che arrivarono ai manti ghiacciati e nella loro traiettoria che hanno seguito dal punto di evaporazione fino al punto della precipitazione e che puó avere una chiara influenza nel valore finale di δ18O.

In definitiva questo metodo dell´ossigeno ci indica la tendenza al riscaldamento o al raffreddamento ma é poco preciso per quanto riguarda le temperature.

Idrógeno del Ghiaccio
Come l´ossigeno nell´acqua puó essere pesante e leggera, anche l´idrogeno é al 99,99% di tipo leggero (H) peró vi é un 0,01% di idrogeno, chiamato DEUTERIO, (D) che pesa il doppio giá che contiene nel suo nucleo un protone e un neutrone.
Quando le molecole di ghiaccio contengono uno o due di quest idrogeni pesanti queste molecole sono piú pesanti rispetto alle molecole di ghiaccio che contengono idrogeno leggero.
Le variazioni di δ18O di δD non sono coincidenti. E precisamente le caractterístiche di queste differenze, che si chiama curva di eccesso del Deuterio, ci danno informazioni sulle variazioni termiche, sulla umiditá, e sulla superficie del mare da dive provengono tali molecole. (Vinneux, 1999).

L´ossigeno atmosferico intrappolato nel ghiaccio.
L´aria atmosferica e l´acqua di mare interscambiano i loro atomi di ossigeno in cicli che durano tra i 2000 e i 3000 anni attraverso i processi di fotosintesi e di respirazione del plancton. Durante questi cicli si finisce arricchendo di O18 l´ossigeno dell´atmosfera, cosí che il valore di δ18O dell´aria é superiore di un 23,5 ‰ al valore di δ18O dell´acqua oceanica. Quindi con un disfasamento temporale di alcuni millenni l´ossigeno atmosferico soffre un cambiamento nel suo frazionamento isotopico come quello sofferto nell´ossigeno del mare. Per questo, le variazioni di δ18O del carbonato cálcico dei foraminíferi marini, che dipendono dalla variazione di δ18O dell´acqua dell´oceano, si collegano positivamente con le variazioni di δ18O dell´atmosfera.

Allora, le variazioni di δ18O del carbonato di calcio dei foraminíferi marini dipendono dal contenuto isotopico di O18 dell´acqua marina (che a sua volta dipende dalla massa di ghiaccio accumulata nel continente e sottratta al mare) e anche dalla temperature delle acque in cui si formano le loro conchiglie. Grazie a queste analisi é possibile separare i cambi di temperatura dell´acqua di mare dai volumi di ghiaccio che si sono accumulati nei continenti dell´Antartide e della Groenlandia.

Isótopi di azoto
Un effetto dei cambi di temperatura nella colonna di ghiaccio é il frazionamento degli isotopi di azoto 15N/14N, e dell´ argon, 40Ar/36Ar, nell´aria. Dovuto ad un principio di diffusione termica possono identificarsi cambi rapidi di temperatura giá che i tali gas si distribuiscono in accordo con la loro massa quando esiste un gradiente di temperatura nella colonna in cui si trovano.Normalmente vi é un arricchimento del gas piú pesante nella parte piú fredda, e viceversa. Una deviazione dell´azoto pesante δ15N di 0,02‰ corrisponde a una diferenza di 1ºC .

Dagli studi recenti del frazionamento dell´azoto dell´aria intrappolato nei ghiacci della Groenlandia si é dedotto che i cambi di temperatura nei diversi periodi dell´ultima glaciazione furono molto piú rapidi di quanto si pensasse solo con le analisi degli isotopi dell´ossigeno nel ghiaccio. Con il metodo dell´azoto si evitano le distorsioni che si hanno col metodo dell´ossigeno dovute ai cambi dell´origene della fonte di umiditá e nella stagionalitá delle precipitazioni.

SAND-RIO

Annunci

GLI INVERNI DOPO GRANDI ERUZIONI VULCANICHE

15 giugno 2010 41 commenti

I soliti mass media catastrofistici stanno ipotizzando che l´eruzione del vulcano islandese (quello lí) possa causare un raffreddamento globale. Queste, a parte che mi sembra la scusa di chi giá vuole crearsi un alibi per il possibile raffreddamento globale dei prossimi anni, sono ipotesi prive di fondamento.
L´eruzione attuale é di piccole dimensioni e l´emissione di cenere é abbastanza limitata per poter causare un raffreddamento delle temperature se non forse in misura insignificante. Per capire qualcosa facciamo un poco di storia su quello che la scienza conosce oggi selle conseguenze che GRANDI eruzioni hanno avuto sul clima.
I raffreddamenti causati da grandi eruzioni si chiamano “inverni vulcanici” e sono causati dalla cenere e dalle goccioline di acido solforico che se riescono a salire nella stratosfera, oscurano il Sole aumentando l´albedo, cioé aumentano la riflessione della luce solare.
Diciamo innanzi tutto che il raffreddamento causato da queste grandi eruzioni durano al massimo circa 2/3 anni per poi regredire.
La prima e piú grande manifestazione storica di raffreddamento climatico si ebbe negli anni 535-536 D.C. e lo storico bizantino Procopio scrisse che il Sole aveva perso la sua luminositá ed era buio come durante una eclisse. Anche negli annali gaelici irlandesi é scritto della carestia per mancanza di pane del 536. In Cina si segnaló neve nel mese di agosto. Si sconosce quale vulcano abbia causato ció e si parla sia del Rabaul in Nuova Guinea che del Krakatoa che eruttó nel 416 secondo i libri giavanesi dei Re.
La grande carestia del 1315-1317 in Europa fu causata dall´eruzione del Kaharoa in Nuova Zelanda e che duró cinque anni.
Nel 1600 scoppió in Perú il Huaynaputina che causó la peggiore carestia in Russia (1601/1603), Svizzera Lettonia Estonia ebbero inverni freddissimi, la vendemmia ebbe un forte ritardo in Francia e Italia e il lago Suwa in Giappone congeló con mesi di anticipo.
Nel 1783 l´eruzione del Laki in Islanda fece sí che Benjamin Franklin scrivesse che quello fu l´estate piú fredda della storia americana, carestie si ebbero in Europa e in Islanda morì, a causa dei gas solfurici emessi, il 50% degli animali e un quarto della popolazione. La temperatura in Europa quell´anno diminuí di 1°C.
Nel 1815 l´eruzione del Tambora in Indonesia causó l´anno seguente una estate fredda a New Yrok e delle nevicate a giugno nel New England, a Terranova e in Labrador. Quello del 1816 fu conosciuto come “l´anno senza estate”.
Nel 1883 l´esplosione del Krakatoa causó 4 inverni particolarmente freddi e nel 1888 si ebbero nevicate record in tutto il mondo.
piú recentemnete l´esplosione nel 1991 del Pinatubo, uno stratovulcano delle Filippine, raffreddó le temperature globali per 2/3 anni.

Come vedete stiamo parlando di grandi eruzioni che si verificano di rado e non di normali eruzioni vulcaniche come ce ne sono a decine ogni anno.
Poi se dopo il vulcano (quello lí) si svegliasse il Katla o peggio ancora il Laki o un´altra caldera come ce ne sono nel mondo, allora sí che sí avrebbe un grande impatto climatologico di raffreddamento rapido su scala planetaria.

SAND-RIO

Ma é solo la C.d.G. che influenza le temperature miti nel nord atlantico ed Europa?

9 giugno 2010 38 commenti

Le correnti marine, ed in particolar modo la Corrente del Golfo, hanno un ruolo fondamentale nella distribuzione alle varie latitudini del calore. Molta parte del calore eccedente che il pianeta riceve tra i tropici, (maggiore entrata di radiazione solare e minore uscita di radiazione infrarossa) é trasportata verso le alte latitudini. L´aria secca e fredda che sale dal continente americano e che viene spinta dai venti occidentali, si carica di umiditá e assorbe calore dalla corrente del Golfo nel tragitto verso il nord atlantico e arriva temperata e umida nel continente nord europeo.

Nel 1991, un modello climatico di Manabe, che prevedeva un sistema accoppiato oceano-atmosfera, si concluse con una previsione che un cambio nella circolazione della C.d.G. nell´Atlantico Nord poteva provocare un raffreddamento dell´Europa:

http://en.wikipedia.org/wiki/Syukuro_Manabe

L´ipotesi iniziale, poi ripresa da altri ricercatori, era che, per un feedback negativo, consistente principalmente in una frenata della Corrente del Golfo, si produrrebbe un raffreddamento del continente europeo. Questo succederebbe per causa del riscaldamento provocato dall´effetto serra che risulterebbe in un aumento del trasporto di vapore acqueo dalle latitudini tropicali alle medie e alte latitudini. Cosí aumenterebbero le piogge e l´apporto di grandi quantitá di acqua dolce dei fiumi farebbe perdere salinitá all´acqua oceanica difficoltando lo sprofondamento delle acque superficiali che si verifica nei mari nordici. Infine si indebolirebbe il sistema della corrente termoalina, si indebolirebbe la Corrente del Golfo e ci sarebbero inverni molto freddi alle latitudini medio alte del continente euroasiatico.
N.B. la ipotesi primitiva di Manabe non considerava lo scioglimento dei ghiacci artici, della Groenlandia della Siberia e del nord Canadá… ció che poi fu immaginato dai suoi successori.

Nella figura vediamo il trasferimento di calore medio dal mare all´atmosfera nel mese di gennaio nel Nord Atlantico, valore espresso in W/m2.
Peró é molto difficile quantificare e comparare il calore trasportato dalla Corrente del Golfo con il calore trasportato con l´aria. Infatti, é vero che che il clima invernale europeo sarebbe piú freddo senza la corrente del Golfo, non bisogna esagerare il suo effetto come amano fare i serristi. Dico questo perché le correnti aeree che arrivano sulle coste europee arrivano in prevalenza da Sud-Ovest, attraversando l´Atlantico a latitudini piuttosto basse, e quindi rimarrebbero in ogni caso venti abbastanza caldi.
La direzione di questi venti che spirano da sud-ovest é dovuta all´onda che le Montagne Rocciose imprimono ai venti dell´ovest prima di attraversare l´Atlantico. Il Prof Richard Seager, della Universitá della Columbia, ha recentemente richiamato l´attenzione sopra l´importanza di questa curva prodotto dalle Montagne Rocciose sul clima europeo, e ha criticato l´esagerazione di considerare la Corrente del Golfo come l´unica responsabile del clima temperato del nordovest europeo comparandolo con il clima alla stassa latitudine dell´Alaska! (Seager, 2003)

http://wapedia.mobi/en/Gulf_Stream

Bisogna evidenziare anche l´importanza del vapore acqueo che arriva dalle regioni subtropicali atlantiche, che non solo é fonte di calore, ma va ad apportare acqua dolce nel nord atlantico abbassando la salinitá della superficie marina, aumentando l´impatto dell´affondamento delle acque nel Nord Atlantico. (Harry Bryden, 2001).
È ancora motivo di discussione e di incertezza la proporzione in cui si divide il calore che arriva sulle coste nord europee, tra calore diretto marini e calore dell´aria.
Secondo il Prof. Harry Bryden si dividerebbe cosí: un terzo arriva con la C.d.G., un terzo arriva coi venti di sud ovest che soffiano soprattutto nella parte orientale delle tempeste atlantiche, e un altro terzo sarebbe riferito al calore latente che libera il vapore acqueo condensandosi e che viene trasportato proprio da questi venti di Sud-ovest.
Per Wunsch l´oceano porta verso Nord attraversando le latitudini temperate solo un 10% del calore netto, ma anche cosí rappresenta un apporto di circa 9 W/m2 (Drijfhout, 2006).

SAND-RIO

POSSIAMO FARE A MENO DEL METODO SCIENTIFICO? (Ecco spiegato perchè sinora l’AGW è solo una fede)

30 marzo 2010 33 commenti

La scienza, da Galileo in poi (e forse anche prima), applica due metodi per ottenere quello che comunemente chiamiamo progresso scientifico. Il primo è il cosiddetto metodo induttivo. Il seguente schema, tratto da wikipedia, credo sia abbastanza chiaro anche senza commenti:

Metodo induttivo

Russell obiettò che la scienza, molto spesso, lavora per generalizzazioni sempre più ampie. In pratica, quando si scopre un caso (problema) che non si adatta alla teoria fino ad allora sviluppata, allora la teoria stessa viene riformulata per includere anche la nuova casistica, e in qualche caso viene rivisitata completamente. Di seguito, lo schema, anch’esso tratto da wikipedia, del metodo deduttivo, secondo la definizione di Russel:

Metodo deduttivo

Il metodo deduttivo ci dice che possiamo anche raffinare la teoria se troviamo un caso che la mette in discussione, ma poi dobbiamo di nuovo affrontare la fase sperimentale. Nessuno può dire: “l’esperimento non è riuscito, ma ho capito perchè, quindi la teoria, così migliorata, è validata”. La comunità scientifica risponderebbe: ” se hai capito perchè, allora migliora la teoria e pensa ad un altro esperimento”. Naturale, no?

Come si può notare, in ambedue i casi, un passo importante è il controllo sperimentale di una previsione ottenuta utilizzando la teoria. Se la previsione non si avvera, allora la teoria non è validata. In ogni caso, ci deve essere qualcuno che si ingegna per inventarsi un esperimento o per definire una qualche osservazione specifica di fenomeni, spiegabili con la nuova teoria, da riscontrare in natura.

Lo so che sembra banale, ma ho l’impressione che, per quanto riguarda la teoria dell’effetto serra, sovente si confondano le osservazioni che producono le ipotesi della teoria (primo passo del metodo induttivo) con le prove sperimentali che dovrebbero validare tali ipotesi. In sostanza, se mi accorgo di un fenomeno, e poi dico “ecco, questo è dovuto all’effetto serra”, dovrebbe essere ovvio che non ho effettuato una previsione successivamente riscontrata, come impongono sia il metodo induttivo, sia quello deduttivo, ed in generale ogni metodo scientifico, per la validazione di una teoria. Carotaggi, dati paleo climatici in genere, ricerca di isotopi, sono utilissimi per costruire l’ipotesi, ma non servono per validarla, a meno che non si preveda in anticipo il risultato qualitativo, e soprattutto quantitativo, della ricerca.

Inoltre, sempre più spesso si legge: “le cose non sono andate come ci aspettavamo (es.: ghiacci antartici in aumento anzichè in diminuzione), ma ho capito perchè (colpa del buco dell’ozono), e quindi la teoria è confermata”. Come visto sopra, Russell ci insegna che non funziona così. Perciò, dire che i modelli hanno sovrastimato le previsioni delle temperatura globali perchè, all’epoca, hanno usato parametri troppo elevati per la sensibilità climatica, significa dover effettuare un ulteriore periodo di prova. Non basta affermare che adesso si conoscono i parametri giusti e che se si sarebbero usati all’epoca la previsione sarebbe stata corretta. 

Infine, frequentemente per l’effetto serra viene sottolineato il “peggio di quanto pensavamo” per affermare che la teoria è a maggior validata (ghiacci marini artici, livelo degli oceani). Invece dovrebbe essere chiaro che anche in questo caso la teoria non è validata, al contrario, è messa in discussione.

Quali sono le previsioni effettuate dalla teoria del Global Warming di origine antropica (AGW)?

Il senso della teoria AGW, allo stato dell’arte, è che la sensitività del clima rispetto alla CO2, cioè di quanto aumentano le temperature globali a fronte di un raddoppio di concentrazione è (molto probabilmente) inclusa nel range 2.5-4° C. Di conseguenza la continua immissione di CO2 e altri gas serra ai ritmi attuali produce un riscaldamento globale insostenibile.

Da laboratorio, cioè dall’esperimento di Tyndall, sappiamo che in realtà questo valore è di circa 1°C. Il resto è ipotizzato essere dovuto a meccanismi di feed-back (positivi o negativi) presenti in atmosfera, che considerati nella loro complessità gistificherebbero la differenza rispetto a quanto osservato in via sperimentale.

In particolare, l’effetto dei gas serra sarebbe quello di aver avvolto l’atmosfera terrestre con una sorta di coperta virtuale. Per adottare il metodo scientifico bisogna pensare ad esperimenti/effetti che comprovino l’esistenza di questa “coperta”, non al fatto che aumentino le temperature o si sciolgano i ghiacci. L’aumento della temperatura può avvenire per vari motivi, il senso della teoria AGW è che avviene per i gas serra presenti in atmosfera. L’attenzione va posta, quindi, su quanto succede nella troposfera e nella stratosfera. A tal proposito, riporto tre previsioni effettuate dalla teoria dell’AGW in base a modelli o altre considerazioni.

Previsione: esistenza ai tropici di hot-spot (zone calde) posizionati a circa 10km sopra la superficie terrestre.

Riscontrata? No, le radiosonde dell’Hadley Centre non hanno riscontrato hotspot nella zona suddetta. Più in generale, l’andamento termico della media troposfera è ciclico.

Previsione: Raffreddamento della bassa stratosfera.

Riscontrata: No, dal ’94 (fine dell’effetto eruzione Pinatubo) la temperatura in bassa stratosfera è stata sostanzialmente costante, cioè non mostra alcun trend a parte la naturale variabilità.

Previsione: diminuzione dei tempi media di vita di alcuni gas nella stratosfera.

Riscontrata? No, in un articolo di Science Daily viene messo in evidenza che tale diminuzione non esiste ( http://www.sciencedaily.com/releases/2008/12/081215111305.htm  e se ne parla su climate monitor http://www.climatemonitor.it/?p=1007)

 Anche altre previsione dei modelli o di teorie correlate all’AGW si sono rivelate errate, ma si tratta di effetti generici ipotizzati in base all’aumento di temperatura (es.: gli uragani non sono aumentati negli ultimi due anni, le temperature medie sono sostanzialmente stabili nell’ultimo decennio), e quindi, poiché non sono collegate ai gas serra (cioè non si riferiscono alla “coperta”), non le ho considerate nell’elenco.

Non essendo né un ricercatore, né tanto meno uno scienziato, ma un semplice appassionato, ho trovato naturale domandarmi se esistano altre previsioni di questo tipo che viceversa confermino la teoria AGW e che io non conosca. Ho provato a richiederle in blog sostenitori della teoria. Purtroppo, spesso le risposte confondono osservazioni e previsioni. A volta la risposta è che per l’AGW non è possibile pensare a degli esperimenti. In altri casi, ho ricevuto degli insulti più o meno velati. Alla fine, ho lasciato perdere.

Data, l’importanza della posta in gioco, non credo possiamo fare a meno del metodo scientifico. Quindi vi chiedo: conoscete previsioni successivamente riscontrate, nel senso illustrato sopra, della teoria AGW?

Agrimensore g.

In Aprile 1970 le prime profezie dei climatologi: quando dicevano che oggi dovevamo essere tutti morti!

19 marzo 2010 68 commenti

La ricorrenza del giorno della Terra sará tra pochi giorni. Saranno 40 anni che i primi profeti dell´olocausto  cominciarono a minacciare l´esistenza dell´uomo su questo pianeta. Queste previsioni  catastrofiche sono state una cantilena, in tutti gli anni delle comemorazioni anteriori, ma in una commemorazione tanto speciale come questa che commemora i 40 anni ci saranno certamente altri scenari ancora piú catastrofici e non possiamo dimenticare quanto divinizzato e profetizzato in passato!

Paul Ehrlich, uno dei capi profeti, aveva delle visioni eloquenti nell´Aprile del 1970:

L´inquinamento dell´aria in questi ultimi cento anni é arrivata a tali livelli che entro 5 anni l´aria sará irrespirabile.

Lo stesso Ehrlich previde nel 1973 che 200.000 americani sarebbero morti ogni anno a causa dell´inquinamento e che nel 1980 la speranza di vita degli americani sarebbe stata di 42 anni!

Nella revista Life Magazine, di Gennaio 1970, ci sono altre previsioni profetiche:

Entro 10 anni i gas urbani inquinanti non faranno sopravvivere nessuno
(…)
Nel 1985 l´inquinamento dell´aria sará cosí intenso che i raggi solari che arriveranno a terra saranno la metá di quelli degli anni passati
(…)
Sicuramente il diossido di carbonio nell´atmosfera avrá effetti sulla temperatura della Terra, portandoci ad una nuova era glaciale.(ricordo che agli inizi degli anni 70 i cliamtologi pensavano che si sarebbe entrati in una era glaciale a causa della CO2…)https://daltonsminima.wordpress.com/2009/09/14/quando-il-mondo-andava-incontro-ad-una-nuova-era-glaciale/

Un altro ecologista, Kenneth Watt, andó ancora piú lontano:

Ad oggi i tassi di azoto sono talemte alti, che entro poco tempo filtreranno la luce solare e la rimanderanno verso l´alta atmosfera e la luce sará pochissima a livello della superficie terrestra.

40 anni dopo, la popolazione degli Stati Uniti é aumentata di piú del 50%,  la quantitá di miglia percorsa é aumentata del 160%, e il PIB é aumentato del 204%.

Ma come si puó vedere dal grafico qui sopra, la qualitá dell´aria é migliorata significativamente!  E il grafico non parte dal 1970 quando la realtá era ancora peggiore!

Come é possíbile che questi stregoni ancora gironzolano nei vari convegni solo per impaurirci? Ma non ho dubbi,  altre previsioni profetiche verranno tirate fuori, e da queste non scapperemo quest´anno , tra pochi giorni sapremo!

Infine una mia ricetta per porre fine una volta per tutte con il Riscaldamento Globale!…Basterebbe staccare l´elettricitá dai computers dell´IPCC.

SAND-RIO

Links di questo articolo:

Conferenza Allumiere 2010 con i Prof. Scafetta e Mazzarella tra i Relatori: Giove e Saturno, i burattinai del Sole…

4 marzo 2010 39 commenti

Premessa la personale  e sincera ammirazione che nutro per i tre scienziati intervenuti alla conferenza, vorrei riferirvi le impressioni ricevute durante la conferenza esaminando i tre interventi con lo stesso spirito con cui si parla al bar di un film o di una partita. E’ ovvio che il mio punto di vista è di  molto ristretto rispetto a quello di un ricercatore climatologo, tuttavia penso di poter ugualmente  commentare gli interventi dei relatori, così come, pur non avendo mai recitato in un set, e pur giocando a calcetto malissimo, non rinuncio a dare giudizi su film o partite di calcio.

Anche altri interventi sono stati interessanti, a cominciare da quelli del moderatore Ten.Col. Guidi, ma, per brevità, preferisco focalizzarmi sui tre relatori.

Prof. Adriano Mazzarella, direttore dell’Osservatorio Meteorologico dell’Università di Napoli

Il primo intervento è stato quello di Mazzarella, che ha esposto le correlazioni che ha trovato tra attività solare, lunghezza del giorno (LOD, length of day) e temperatura, ove come temperatura ha privilegiato quella degli oceani, secondo me correttamente, in quanto, come ha ricordato, l’oceano funziona bene da filtro passa-basso, cioè attenua la variabilità inter-annuale (rumore ad alta frequenza) delle temperature, fornendo così un trend già definito. Mazzarella ha definito il suo approccio olistico per differenziarlo da quello dei modelli, che tendono a indagare a partire dal singolo fenomeno e dal singolo elemento di globo terracqueo.

Le correlazioni illustrate da Mazzarella sono state molto convincenti, talora impressionanti, tuttavia va ricordato che, come si suol dire, “correlation is not causation”. A tal proposito, ricordo una nota regola di tipo metodologico. Se si trova una correlazione tra due grandezze A e B, può essere che:

1- A è causa di B

2- B è causa di C

3- esiste una terza grandezza C che è causa di A, B

4- è una combinazione delle tre precedenti possibilità (meccanismi di feedback)

5- è un caso

Ciò premesso, mi pare che quando Mazzarella ipotizza che variazioni di pochi millisecondi della LOD possano provocare cambiamenti climatici, faccia fatica a convincere l’uditorio.  Direi che la correlazione da lui trovata circa la LOD (grandezza A) con le temperature (grandezza B) possa essere giustificata da altri tipi di causa effetto. Ad esempio, secondo un’ipotesi credo propria dello stesso Mazzarella, se l’attività solare (grandezza C), tramite la variazione solar wind (o l’attività geomagnetica), fosse la causa della variazione dei millisecondi sulla LOD , potremmo supporre che:

– l’attività solare modula la LOD

– l’attività solare modula la temperatura

– LOD e temperatura sono in correlazione

Credo che questa, a mio modestissimo parere, sia l’ipotesi più probabile, cioè siamo nel caso (3) dei punti summenzionati, ma ognuno potrà formarsi la propria idea.

Quella che ho trovato più interessante, fra le varie correlazioni esposte da Mazzarella, è stata quella che includeva le orbite di Giove e Saturno. La sottolineo, perché qualche ora più tardi è stata ripresa dallo stesso Scafetta.

Dr. Carlo Cacciamanidirettore del Servizio Idro Meteorologico dell’ARPA Emilia Romagna

Il secondo intervento è stato quello di Cacciamani che si è soffermato lo stato dell’arte dei modelli GCM (global circulation models).

Così come il relatore che lo ha preceduto, anche Cacciamani ha dimostrato, oltre all’indiscussa competenza, quel misto di passione e simpatia che è indispensabile per coinvolgere il pubblico.  Tuttavia, la parte di relazione  volta a suffragare la bontà dei modelli si è basata su delle argomentazioni  che non condivido.  In particolare, cito due punti sostenuti da Cacciamani:

1.  I modelli funzionano in maniera non perfetta, ma già abbastanza accettabile, perché si sono sempre più evoluti fino a raggiungere un elevato grado di complessità, ed, in particolare, includono le principali equazioni della fisica dell’atmosfera.

Cacciamani ha anche illustrato le equazioni differenziali implementate sui modelli, forse nel tentativo di far comprendere quanto essi siano complicati. Premesso che basta essersi occupato un poco di fisica, ad esempio aver trattato le equazioni di Maxwell, per non impressionarsi più di tanto nel vedere operatori matematici quali rotore e divergenza, va detto che nessuno ha messo in dubbio la complessità dei modelli, nonché lo sforzo implementativo per farli funzionare sui calcolatori. Ma la complessità, da sola, non è una prova della correttezza. Al contrario, più un modello è complesso, più va verificato attentamente.

2. I modelli sono già attendibili per alcune zone di mondo, ad esempio il Mediterraneo, giacchè in tali zone i risultati di tutti i modelli convergono.

A me pare normale che i modelli tendano a convergere, dato che si basano all’incirca sulle stesse equazioni differenziali, le quali prevedono l’attività solare come costante, o quasi. In questo caso la convergenza dei modelli implica solo la sostanziale corrispondenza degli algoritmi adottati, non la loro correttezza.

Il problema che invece speravo  Cacciamani affrontasse, è la questione cui ho provato ad accennare negli articoli su NIA

https://daltonsminima.wordpress.com/2010/02/19/lo-scetticismo-sui-gcm-parte-ii/

https://daltonsminima.wordpress.com/2010/02/18/lo-scetticismo-sui-gcm-parte-i/

e che sintetizzo in un’unica domanda:

“Chi ci assicura che i GCM non siano affetti da problemi di over-fitting, cioè, che non abbiano così tanti parametri che con un tuning opportuno non si riesca ad ottenere il fit delle curve (dei trend) indipendentemente dalla bontà del modello?”

Dr. Nicola Scafetta, ricercatore della Duke University.

Nel pomeriggio, Scafetta ha presentato la sua chiara e brillante relazione che dividerei in tre  parti.

All’inizio ha messo in evidenza alcuni punti che vengono dati per scontati nella teoria AGW e che invece dovrebbero essere tema di approfondimento. Ad esempio, la climate sensitivity , cioè l’aumento della temperatura relativo ad un raddoppio di concentrazione di CO2, in laboratorio, è solo di un grado C. Vari studi, hanno fornito per il clima, includendo i feedback, valori da 0 a 9 gradi C, e l’IPCC ha assunto come statisticamente valido il range da 2,5 a 4 gradi C.

Poi, Scafetta ha ricordato la teoria dei Galactic Cosmic Rays (GCR) quali elementi che facilitano la formazioni di nubi basse, corredandola di  grafici e correlazioni. Di seguito, per chi non la conosce, provo a descrivere la teoria che, come ho avuto già modo di scrivere, reputo molto promettente, sotto forma di catena causa/effetto:

più attività solare -> più campo magnetico del sistema solare in grado di deviare i raggi cosmici -> meno GCR sulla Terra -> meno nubi basse  -> più temperature

Ovviamente, vale la stessa catena logica con segni invertiti.

Infine, Scafetta ha illustrato la sua teoria così come descritto anche nel relativo articolo di NIA (https://daltonsminima.wordpress.com/2009/10/26/).

In pratica, Scafetta ha messo in rilievo come esistono dei cicli nelle temperature che combaciano, quasi perfettamente, con i cicli orbitali dei maggiori pianeti del sistema solare. La metodologia di analisi statistica di Scafetta non cerca soltanto correlazioni su trend ricavati da grafici già smoothed, ma si basa sull’analisi spettrale. In pratica, un conto è correlare due grandezze rispetto a un trend, cioè una retta, un conto è far vedere in un arco di tempo che quando aumenta una, aumenta anche l’altra, e viceversa, verificando che i due andamenti abbiano la stessa frequenza. E’ stato davvero istruttivo vedere come Scafetta sia riuscito a scomporre un segnale (l’andamento della temperatura) nelle varie componenti, anche se aver enucleato anche l’aumento delle temperature a fronte di fenomeni intensi di El Nino può dar luogo a delle perplessità.

La conclusione dell’intervento è stata focalizzata sulla combinazione dell’orbita Giove-Saturno, della loro influenza sull’attività solare  e sul ciclo di sessanta anni che ne deriva. Scafetta, se ho ben compreso, giustifica tale influenza con forze gravitazionali. Secondo me, sarebbe stato ancora più convincente se avesse accennato all’interazione magnetica tra i tre maggiori corpi del sistema solare.

Il ciclo di sessanta anni è importante perchè una scala di tempo umana. Inoltre, mentre i GCM riescono a cogliere i trend di lungo periodo parametrizzando opportunamento il modello, un ciclo di qualche decina di anni viene difficilmente simulato se non è compreso nel modello stesso. In particolare, Scafetta ha mostrato come col suo metodo, che include tale ciclo, si riesca a ricostruire il clima molto più a lungo nel passato, e molto meglio, di quanto riescano a fare i GCM. L’importanza di questo lavoro risiede nel fatto che ha messo in risalto come sia impossibile riuscire a costruire un modello  predittivo sul clima trascurando la variabilità dell’attività solare. La successiva domanda di Cacciamani è stata in merito alla sostanziale incompletezza nella definizione fisica del fenomeno attraverso il quale i pianeti, soprattutto Giove/Saturno, possano influenzare il comportamento del Sole. Di conseguenza Cacciamani ha sottolineato l’impossibilità di considerarla in un modello GCM. Scafetta ha replicato che non è per questa carenza che si può pensare a definire un modello predittivo ignorando la questione. In sostanza, secondo Scafetta, postulare l’attività solare come una costante conduce inevitabilmente ad errori di previsione in merito al clima.

Alla fine, la mia impressione più forte è stata che, affrontando il problema da due prospettive diverse, quelle di Mazzarella e di Scafetta, si giunge ad ipotizzare  Giove e Saturno come i maggiori burattinai che sollecitano il Sole a darsi da fare o a riposare, con conseguenze evidenti per quanto riguarda il clima terrestre.

E i GCM, prima o poi, dovranno affrontare il tema…

Agrimensore

La temperatura

11 febbraio 2010 34 commenti

Se ci domandassimo….termometro

…cosa piu’ di frequente misuriamo, nella vita di tutti i giorni, la risposta sarebbe quasi sicuramente “il tempo” e, subito dopo, “la temperatura”…

Tutti abbiamo un orologio al polso e un termometro fuori dalla finestra, che guardiamo tutte le mattine. Per non parlare delle insegne luminose lampeggianti … Data e ora — temperatura .

Ma ci siamo mai domandati cosa rappresenti la temperatura?
Se pensiamo ad un metro, e’ subito chiaro cosa rappresenta. Idem se pensiamo ad un chilo, od ad un secondo…
Se metto su una bilancia due pesi da un chilo… ottengo due chili… Se prendo due righelli da un metro e li metto uno di seguito all’altro… ho due metri… Se prendo due termometri….

NO. Qualcosa non funziona….

La temperatura e’ una proprieta’ “puntuale” (si dice intensiva) dei corpi! non esiste alcun “grado kelvin campione” nel bureau delle misure di Parigi , accanto al metro ed al chilo standard…

E allora… come la mettiamo? Cosa e’ il caldo ed il freddo che sentiamo sulla pelle? Be.. innanzi tutto quelli non sono temperatura… Infatti, la sensazione che avvertiamo sulla pelle altro non è che una traduzione “nervosa” del flusso di calore che la sta attraversando… Provate a mettere la mano in acqua fredda oppure (senza toccare le pareti) nel freezer domestico: la sensazione di “freddo” sarà maggiore nel primo caso. Perchè l’acqua, pur essendo più’ calda, sottrae calore più rapidamente.

Potremmo dire.. La temperatura è ciò che si misura con il termometro. Ma cosa è un termometro? Normalmente abbiamo sotto mano dei termometri a mercurio o ad alcool (quelli da esterno). In quel caso misuriamo delle variazioni di volume. Nei moderni termometri clinici (quelli elettronici) misuriamo una variazione di resistenza elettrica oppure la tensione di una termocoppia. Una telecamera termica misura l’emissione di infrarossi.

Insomma… la temperatura e’ sempre una misura “derivata”. Si misurano le caratteristiche di qualcosa che varia al variare della temperatura (il volume di un liquido, la resistenza di un conduttore…). E da questa affermazione si deve capire subito una cosa : quello che noi misuriamo, di cui siamo certi, è la temperatura del termometro. Non dell’oggetto che ci interessa. Del termometro.

In realta’ e’ possibile dare una definizione precisa della temperatura, sfruttando i principi della termodinamica e, indagando un po’ piu’ a fondo si capisce che essa e’ strettamente correlata con l’energia che viene immagazzinata in un corpo.

Le “stranezze” non finiscono qui. Unica tra le grandezze della fisica classica ha un limite inferiore. Piu’ bassi di “zero Kelvin” (lo zero assoluto, -273.15°C) non si puo’ andare: a quella temperatura tutta l’energia del corpo e’ stata estratta e non è piu’ possibile scendere.

Analogamente non ha senso salire oltre un certo limite… Pensiamo ad un pezzo di ferro. Comincio a fornire energia. Lui si scalda, diventa incandescente, verso i 1500° C fonde… poi a 3000°C comincia a bollire e diventa gas…. Ma continuiamo a scaldarlo. Gli atomi di questo gas diventano sempre piu’ agitati e, ad un certo punto, cominciano a perdere gli elettroni.

.. Il Ferro e’ diventato plasma…

E a questo punto un fisico non se la sente piu’ di parlare di temperatura. Parla di energia. Piu’ precisamente di elettronvolt : e’ l’energia che assume un elettrone accelerato da un potenziale di un Volt.
Infatti esiste una relazione che, in un gas monoatomico, lega la temperatura con l’energia delle singole particelle che lo compongono : E=3/2KT dove K e’ nota come “costante di Boltzman” ed e’ un numero molto piccolo.

Ma torniamo alla vita di tutti i giorni… Un’altra cosa che spesso sfugge e’ che corpi alla stessa temperatura possono immagazzinare energia diversa. Si parla infatti di capacita’ termica, che misura la quantita’ di energia che un corpo immagazzina aumentando di un grado la sua temperatura. Guardando su apposite tabelle si trova che il calore specifico (capacita’ termina di un chilo di materiale) va dai 0.1 KJoule per chilo e per grado [KJ/(°K*Kg)] dello Zinco agli oltre 4 dell’acqua. Con l’aria siamo a 0.7.
Avete capito dove voglio arrivare? Per sottrarre l’energia corrispondente ad un grado ad un chilo di acqua occorre riscaldare di un grado una quantita’ di aria circa sei volte maggiore. In peso. Ma l’aria e’ un gas: in volume, mentre un chilo di acqua occupa un decimetro cubo, sette chili di aria occupano circa sei metri cubi.

E ora vi domando… Dovendo misurare la temperatura della Terra… dove mettereste il vostro termometro?
Lo chiedo ad un medico…. Simon… dove si misura la febbre? sotto l’ascella, giusto? Non e’ che al paziente si sventola il termometro a un centimetro dalla fronte….

E questo potrebbe essere l’argomento di un prossimo intervento… Le “onde termiche” e come trovare la “vera” temperatura di quello che ci circonda…

Ciao

Luca