Home > Cambiamenti Climatici > Lo scetticismo sui GCM – parte I

Lo scetticismo sui GCM – parte I

18 febbraio 2010

I Global Circulation Model (GCM) sono quei modelli attraverso i quali i climatologi, in special modo i sostenitori dell’AGW, cercano di prevedere il clima della Terra anche a parechie decine di anni di distanza dal presente.

Vorrei spiegarvi alcuno dei motivi del mio scetticismo in merito.

Innanzi tutto, perdonatemi una premessa di tipo matematico, che segue il discorso iniziato nel post sulla interpolazione lineare ( https://daltonsminima.wordpress.com/2010/01/19/la-rubrica-di-nia-alcune-basi-statistiche-per-studiare-un-clima/#comments )

Riporto, l’estratto da wikipedia sull’interpolazione polinomiale

L’interpolazione polinomiale costituisce un’alternativa dell’interpolazione lineare: mentre per questo metodo si usa una sequenza di funzioni lineari si tratta ora di servirsi di un polinomio di un opportuno grado più alto.

Di una funzione f che in altra sede è nota si supponga di conoscere alcuni valori; in particolare si considerino i seguenti valori tabulati

 Diagramma dei punti dati.

x  f(x)
0 0
1 0.8415
2 0.9093
3 0.1411
4 −0.7568
5 −0.9589
6 −0.2794

Ci si chiede, per esempio: quanto vale la funzione in x = 2.5? L’interpolazione risolve problemi come questo.

Il seguente polinomio di sesto grado passa attraverso tutti i sette punti dati:

f(x) = – 0.0001521x6 – 0.003130x5 + 0.07321x4 – 0.3577x3 + 0.2255x2 + 0.9038x.

Sostituendo x = 2.5, troviamo che f(2.5) = 0.5965.

  

In generale, se abbiamo n punti dati, esiste esattamente un polinomio di grado n−1 che passa attraverso tutti i punti dati.

Fin qui l’estratto da wikipedia.

I lettori con qualche conoscenza di matematica avranno già riconosciuto che c’è un’altra funzione, che, più elegantemente, include i punti del diagramma, ed è la sinusoide, sen(x), un grafico che ha la forma di un’onda.

La f(x) e la sinusoide si assomigliano molto SOLTANTO nell’insieme considerato, cioè per x compreso tra 0 e 6 (quasi 6,28, un ciclo intero di 2π). In effetti, l’esempio di wikipedia ci fa vedere come fa (o potrebbero fare) una macchinetta calcolatrice a calcolare con buona approssimazione i valori di una funzione trigonometrica, o comunque periodica. Però fuori dall’insieme considerato, la f(x) e la sinusoide divergono completamente. Più ci si allontana dall’insieme considerato per l’interpolazione, più aumentano le probabilità che le due funzioni differiscano. Ad esempio per x= 9,42 (cioè 3π) abbiamo che:

sen(9,42) = 0                          f(9,42) = -32,452

In sostanza, se l’interpolazione funziona, non è detto che funzioni anche l’estrapolazione.

Immaginiamo ora che il diagramma dei punti si riferisca a dati sperimentali di due grandezze fisiche, X e Y, cioè nella colonna a destra abbiamo i dati sperimentali dei valori assunti dalla grandezza Y al variare di X.

Utilizzando l’interpolazione, potremmo ipotizzare che la polinomiale f(x) sia la legge che interpreta il fenomeno fisico che lega le due grandezze, cioè Y=f(x). Tuttavia, senza un fase sperimentale a posteriori (cioè fuori dal range utilizzato per costruire l’ipotesi) non potremmo validare tale ipotesi. Magari la legge corretta, cioè quella più efficace nel prevedere i valori di Y, è Y=sen(x). In tal caso solo un’ulteriore verifica sperimentale, fuori dal range, ci farà capire che il modello Y=f(x) è sbagliato.

Conclusa la premessa, affrontiamo il tema dei modelli di tipo GCM utilizzati per prevedere l’evoluzione del clima.

Da quanto ho avuto modo di apprendere, tale modelli sono estremamente complessi e si basano sul tentativo di prevedere l’evoluzione del clima in base a leggi fisiche che determinano le principali grandezze climatiche (temperatura, umidità,ecc.) da un punto di vista statistico, su un periodo venti/trentennale. Naturalmente tutto è suddiviso per la varie zone del pianeta. Sono implementati, e di volta in volta raffinati, tenendo presente i dati climatologici disponibili, a partire grosso modo dal 1900, oltre ai dati paleoclimatici ottenuti con varie tecniche. In genere, propongono diversi scenari, a secondo dei valori assunti da varabili esogene.

L’idea di fondo è:

beh, se sono riuscito ad implementare un modello che si correla bene, o abbastanza bene, con un intero secolo, allora saprò farlo evolvere in maniera abbastanza corretta per prevedere statisticamente il futuro climatico.

Non sembra una cattiva idea, no?

Ora dimentichiamo per un attimo climategate, problema coi dati proxy, ipotesi di cherry-picking e via dicendo. Mettiamoci nell’ottica che coloro i quali hanno costruito i modelli siano programmatori, statistici, ricercatori in gamba e in buona fede.

Perché la cosa non dovrebbe funzionare?

Per rispondere, vediamo intanto come vengono raffinati i modelli. Laddove si nota uno scostamento tra quanto dice il modello e la realtà, quello che si fa, in genere, è cercare di capirne le cause, verificando se sia il caso di introdurre nel modello un nuovo fenomeno fisico-atmosferico se sia il caso di variare qualche parametro. Pare ragionevole. Se una volta inserito il nuovo fenomeno, il modello combacia meglio con il set di dati noto al ricercatore, verrebbe da dire che il modello è stato migliorato.

Ora, vediamo che significa fare questa operazione andando per analogia (sottolineo che è un’analogia non un confronto) con l’interpolazione polinomiale. Diciamo che la sinusoide è la legge fisica reale che lega le grandezze e la f(x) in un certo senso è il modello (è ovviamente un’iper-semplificazione, i modelli GCM sono effettivamente molto complicati). Immaginiamo che aumentando di poco il range di osservazione, mi sia accorto di uno scostamento tra la realtà e la f(x). Allora, cerco di capire il valore della realtà e prendo in considerazione un altro paio di punti ottenuti per via sperimentale, il 7 e l’8. Ricalcolo la f(x) ed ottengo una polinomiale di grado più alto (pari ad 8), cioè ho inserito nuovi parametri. A questo punto la mia f(x) assomiglia ancora di più alla realtà che conosco per certo, giacchè ho esteso il range da O-6 a O-8. Ma è migliorata da un punto di visto predittivo, cioè, è efficace nel prevedere i valori molto fuori dal range?

No, la funzione (il modello) continua a divergere completamente dalla realtà (la sinusoide) fuori dal range O-8, in particolare se si va molto fuori.

In sostanza, aumentare il numero di parametri per far aderire meglio il modello al set di dati noto al ricercatore non può servire per validare il modello stesso, nel senso che continuiamo a non conoscere la sua reale efficacia. Detto in altri termini, per validare qualsiasi legge fisica, o modello, serve la fase sperimentale. Mi rendo conto che può sembrare una banalità, eppure è utile ribadirlo.

Se un modello riesce a descrivere in maniera soddisfacente la realtà per il secolo passato, dove mai potrebbe essere l’errore?

Ad esempio, se non considerasse tutti i principali fenomeni fisici che influenzano il clima. In questo caso la correlazione con le grandezze prognostiche sarebbe ottenuta forzando i parametri che costituiscono i modelli per ottenere la correlazione cercata. A questo punto, il modello funziona solo se il fenomeno fisico ignorato rimane costante durante il periodo che viene considerato per la fase predittiva. Però, il modello non è più predittivo, cioè non risponde più alla domanda “COSA SUCCEDERA’?“, ma alla domanda “SE TUTTO CIO’ CHE IGNORO VA AVANTI COSI’, COSA SUCCEDERA’?”. In sostanza, il modello può essere utilizzato solo per fare proiezioni (projections), da non confondere con le previsioni (predictions).

Applichiamo queste considerazioni nella realtà dei GCM. Ipotizziamo che il clima dipenda dall’attività geomagnetica (come effettivamente credo) e che il modello non prenda in considerazione tale fenomeno, allora il modello potrà funzionare solo se il trend dell’indice si mantiene costante. Ma se l’indice cambia trend, ad esempio anziché continuare ad aumentare prende a diminuire velocemente, il modello, com’è ovvio, non funziona più. Il fatto che esso abbia prodotto risultati aderenti alla realtà già riscontrata in passato, non è una prova che abbia considerato tutti i fenomeni, specialmente se vi sono inclusi parecchi parametri sottoposti a tuning.

Tutto ciò, non è nemmeno una prova che i GCM non funzionino (forse prendono davvero in considerazione tutti i principali fenomeni che determinano il clima). E’ solo un ragionamento che giustifica un certo scetticismo su tali modelli.

Ma allora cosa si può fare per validare un modello?

La cosa più semplice sarebbe confrontarlo con la realtà successiva rispetto alla definizione del modello. Purtroppo, nei casi dei modelli GCM non si può fare, per lo meno breve. Il modello GCM si propone di individuare grandezze statistiche nell’arco di un trentennio (circa). Quindi, bisogno aspettare (almeno) trent’anni per potere verificare la bontà del modello. Tra l’altro, un periodo di trenta anni come tempo necessario per la verifica dei risultati, rende breve persino un periodo si cento anni come base per il modello.

In sostanza, al GCM, quali che siano i risusltati non si potrà mai dire:

“Guarda che negli ultimi dieci anni non ci hai azzeccato…”

Perché la risposta sarà

“E no! Devi aspettare trent’anni per giudicare”

A parte al fatto che durante i trent’anni il modello viene ulteriormente rivisto, è chiaro che nessuno ha tanto tempo da aspettare per validare il modello.

Ebbene, è evidente che se una teoria o un modello è costruito in maniera tale che, quale che siano i risultati, non si possa metterla in discussione, qualche problema c’è.

Su questo punto, però, lascio la parola agli epistemologi.

Agrimensore g.

Advertisements
Categorie:Cambiamenti Climatici Tag:
  1. Andrew
    18 febbraio 2010 alle 13:40

    adesso spiegatemi dove le vedono 49 macchie quelli del noaa scusate l’ot

  2. ice2020
    18 febbraio 2010 alle 13:57

    le hanno viste ieri quando secodo loro c’erano ancora 3 regioni cn macchie…

    scandalosi cmq, quelli del noaa li aspetto al varco tra qualche mese…

  3. Nintendo
    18 febbraio 2010 alle 14:04

    2 commenti sull’articolo:
    1 – sulla polinomiale ho poche conoscenze, ma una volta trovata l’equazione se vogliamo avere un’approssimazione di infinitesimi di ordine superiore non basta fare un polinomio di taylor?
    2 – i dati passati sono stati ricavata dai modelli stessi, in pratica i modelli sono stati fatti girare con i dati degli ultimi 40-50 anni e in base alle poche conoscenze del passato gli si è fatto prevedere come sarebbe potuto essere stato il passato.
    cioè, la serie NOAA che parte dal 1870-80, fino alla prima guerra mondiale il 95% dei dati è calcolato dai modelli, mentre dalla 1° fino alla 2° guerra mondiale direi un 40%, dopo penso siano dati delle centraline.
    prima del 1900 esistevano in tutto il mondo si e no 90-100 osservatori che rilevavano le temperature in tutto il mondo.
    per cui se è sbagliato il modello sono sbagliati anche tutti i dati prima del 1915 e quelli tra il 1915 e il 1950 circa hanno dei buchi.

  4. ice2020
    18 febbraio 2010 alle 14:05

    Lasciatemi per favore fare i miei complimenti ad Agrimensore per il sontuoso articolo che ha fatto!

    Davvero ben articolato, ci spiega per bene quali siano le difficoltà ed i limiti che i modelli compiterizzati hanno nel predire ciò che avverrà….

    Questa frase dovrebbe essere stampata nella testa di tuttii sostenitori agw:

    “Però, il modello non è più predittivo, cioè non risponde più alla domanda “COSA SUCCEDERA’?“, ma alla domanda “SE TUTTO CIO’ CHE IGNORO VA AVANTI COSI’, COSA SUCCEDERA’?”. In sostanza, il modello può essere utilizzato solo per fare proiezioni (projections), da non confondere con le previsioni (predictions).”

    Ottimo lavoro!

    Simon

  5. Michele
    18 febbraio 2010 alle 14:42

    Breve OT

    Ragazzi dopo 15/20 giorni…
    è di nuovo ONLINE !!
    Il sito Russo segnalatoci da ALE sulle dinamiche solari!!

    Sembra gente “tosta” quella la dentro…..

    http://bdm.iszf.irk.ru/

  6. nitopi
    18 febbraio 2010 alle 15:07

    Bravo Agrimensore…
    Ma… sono cosi’ fessi da modellare con i polinomi??? il polinomio, per quanto finemente lo accordi, andra’ sempre a divergere, dopo un po’….

    Ai miei tempi (…..), se mettevi su un modello, trovate le equazioni approssimate che lo descrivono, cercavi di fittare quelle…. Con tante belle barre di errore per i dati incerti…. E poi c’era il fantomatico test del chi quadro per vedere se il modello era “plausibile”….

    L’altro approccio era quello di simulare il sistema date le condizioni iniziali, ma quello va bene per la meteorologia, non per la climatologia (equazioni instabili… a lungo termine perdi completamente ogni affidabilita’).

    Mha….

    Ciao
    Luca

  7. giorgio
    18 febbraio 2010 alle 15:23

    Agrimensore almeno il diritto di essere scettici sull”AGW e comprensibile?.Pare proprio di no.I media continuano a parlare di cambiamenti climatici come verita assoluta.Se c”e un frana e colpa del GW, se piove troppo e colpa del GW,se nel mediterraneo l”inverno e stato mite e ancora colpa del GW.Se c”e l”acqua alta a Venezia e colpa del GW.Ormai sembra preso dall”informazione gia come un dato di fatto.Su questo argomento mi sono fatto un piccolo sondaggio che poi volevo passarlo a Simon,poi visti i risultati ho preferito abbandonare il lavoro,anche perche la maggior parte delle persone non sanno nemmeno cos”e un ciclo solare,quindi ho ritenuto inutile proseguire.Credimi una vera tristezza.Tra ignoranza(intesa come non conoscenza della attivita solare) e mala informazione o disinformazione totale sull”andamento climatico globale siamo lontani anni luce da un cambiamento di direzione dell”opinione pubblica.Per questo continuano a fare breccia i dati della NASA manipolati ad arte.La gente li legge e basta non si interessa di verificarne la veridicita.Ciao

  8. agrimensore g
    18 febbraio 2010 alle 15:30

    No, un momento, forse mi sono spiegato male nell’articolo: io ho fatto solo un esempio per arrivare a dire che il fatto di riuscire a fare il fit di una curva non significa aver un buon modello predittivo. Poi ci vuole la fase sperimantale. Nei modelli GCM dov’è la fase sperimentale? Questo è il problema

  9. agrimensore g
    18 febbraio 2010 alle 15:31

    Grazie a te e atuuti per i complimenti

  10. Anonimo
    18 febbraio 2010 alle 15:34

    Complimenti per l’articolo.
    Suggerisco a chi volesse approfondire i temi epistemologici delle problematiche correlate all’indagine scientifica di leggersi “Congetture e confutazioni” di Popper, testo che qualsiasi scienziato con pretese di teorizzazione e spiegazione di fenomeni naturali dovrebbe leggersi…
    Proprio per non cadere nella non falsificabilità di una teoria inconfutabile sperimentalmente…

  11. agrimensore g
    18 febbraio 2010 alle 15:40

    Certo, anche Taylor va bene. Però non vorrei essere stato dispersivo nell’articolo, nel senso che i modelli sono ovviamente molto più complicati di una semplice curva ed hanno vari parametri. La mia tesi di fondo è che aver fatto il tuning dei parametri ed eventualmente averli aumentati man mano che si hanno nuovi dati a disposizione, non migliora la capacità predittiva, bisogna “capire” la legge fisica.

  12. Andreabont
    18 febbraio 2010 alle 15:43

    Veramente un bell’articolo, complimenti!!

    E aggiungerei una cosa più “sconcertante”. Il modello F(x) non combacerà mai alla legge fisica φ(x) a causa del principio di indeterminazione di Heisemberg (fisica quantistica) e quindi sempre troveremo che un modello si discosta, almeno un pò, dalla realtà.

    Quindi il “modello” prende un diverso significato, non più descrizione delle leggi della natura, ma “approssimazione” di essa entro un certo limite.

    Ne faccio un esempio.

    La meccanica classica descrive perfettamente le leggi della natura per velocità inferiori di molto a C (velocità della luce) e infatti la fisica classica funziona! Tutte le cose che insegnano a scuola non sono da buttare via! Se un treno viaggia a 100 Km/h arriverà a destinazione ad un certo orario e così via…

    Ma cosa succede se questo treno viaggia a 300.000 Km/sec ??? (C), bene la fisica classica perde completamente di significato, abbiamo superato il range di descrizione, le previsioni fatte con le leggi che tutti studiano NON FUNZIONANO.

    E perchè non funzionano? Perchè la legge F(x) della meccanica classica non coincide con le leggi della natura, ma le approssima in un piccolo range.

    Se vogliamo sapere cosa succede al treno a quelle velocità dobbiamo chiamare in campo un simpatico vecchietti: Einstein. Che ha avuto la brillante idea di scrivere un altro modello che descrivesse quello che la meccanica classica non può descrivere.

    Ed ecco a voi la meccanica relativistica!

  13. 18 febbraio 2010 alle 15:57

    Sono un ignorante in materia, ma ti faccio grandi complimenti.
    Ho capito la linea generale dell´articolo e la mia matematica sono solo ricordi di gioventú.

    X simon: l´art. é pronto nelle bozze.

  14. nitopi
    18 febbraio 2010 alle 16:31

    Ho capito, dalla risposta che hai dato a Nintendo….

    Certo.. la curva deve uscire dalla teoria… e deve essere confermata dai dati sperimentali….

  15. nitopi
    18 febbraio 2010 alle 16:33

    se fa freddo , e’ colpa del GW….
    Quando i ghiacciai ricominceranno ad avanzare… sara’ sempre colpa del GW…

    Il fatto e’ che i media.. non sanno di cosa stanno parlando…..

    Ciao
    Luca

  16. andrea b
    18 febbraio 2010 alle 16:38

    Il senso dell’articolo è bello in effetti mi sembra di capire che siano come delle navi i in balia della corrente.
    Correggono in continuazione la direzione per far combaciare dati ai modelli che comunque nel tempo divergono sempre.

  17. Nintendo
    18 febbraio 2010 alle 20:39

    resto dell’idea che Taylor sarebbe un’ottima approssimazione, oviamente servirebbero dei calcolatori per arrivare almeno fino al 30° ordine

  18. giorgio
    18 febbraio 2010 alle 21:19

    Tra trecento anni forse la teoria sara convalidata.Ricordiamoci di Galilei.Ogni cosa va lasciata ai posteri..come chi pianta i datteri.Complimenti per l”articolo Agrimensore.Bellissimo.quando si tenta di fare qualcosa di grande..lo si fa per l”umanita,non per se stessi.Una persona e”GRANDE se dopo la sua morte verra ricordada per sempre e se ogniuno di noi lasciera questo piccolo mondo un pochino migliore di come lo ha trovato quando e arrivato la vita prendera un senso,altrimenti sara stata semplicemente inutile.

  19. Karlo
    19 febbraio 2010 alle 01:00

    Ti posso rispondere solo per quanto riguarda il primo punto. Si, Taylor va bene se conosci l’equazione; il problema è che non la conosci, la puoi solo supporre. In altre parole, sei partito da dei dati, che ti hanno dato delle correlazioni e sulla base di questi dati cerchi di costruire un’equazione che funzioni: magari ci prendi, e l’equazione che tiri fuori è quella che realmente descrive il sistema: oppure non ci prendi per niente oppure ci vai vicino ma non esattamente.
    A me pare che il sistema statistico di Scafetta, in queso caso, sia il più attendibile. Il sistema statistico ignora deliberatamente il meccanismo del clima e questo mi rende nervoso, a me piace sapere come funziona il giocattolo però per adesso mi pare funzioni meglio dei GCM.
    Scafetta ha reso un’interessante intervista a http://www.meteogiornale.it

  20. Karlo
    19 febbraio 2010 alle 01:04

    Mi ero dimenticato una cosa fondamentale: i miei complimenti a Agrimensore. L’articolo mi è piaciuto moltissimo.

  21. Picapere
    19 febbraio 2010 alle 08:43

    Complimenti vivissimi ad Agrimensore, una spiegazione chiarissima e semplice, anche x chi, come me, in fatto di matematica si è fermato alla tabellina del 7…
    Scherzi a parte, questi sono problemi che noi geologi conosciamo molto bene; quando si tratta di studiare in modo analitico e matematico i fenomeni di Madre Natura sono volatili per diabetici (per citare il famoso prof. Banfi), come ben sanno i nostri storici “rivali” ingegneri quando provano a modellizzare frane, piene torrentizie e simili: fatemi un modello matematico della frana di Maierato dell’altro giorno, se ci riuscite….
    Non a caso, nel campo delle Scienze della Terra si è sempre preferito puntare su metodi di indagine e di analisi di tipo statistico, che cmq hanno anch’essi i loro bei limiti…

    Just my 2 cents

    PS Ho ripreso il nick xkè ho visto che c’è un altro Dario, non vorrei venisse incolpato lui di mie eventuali declamazioni poco ponderate…

  22. Davide
    21 febbraio 2010 alle 02:36

    Oltre al già citato Popper e la questione della falsificabilità, porrei l’attenzione anche ai fenomeni di overfitting che si creano quando si hanno molti parametri.
    Con un buon numero di questi si può riuscire a fittare un po’ quello che si vuole.
    In ambito finanziario-macroeconomico, ad esempio, è pieno zeppo di modelli che spiegano cosa è successo fino a ieri, ma che non sono in grado di prevedere alcunchè.
    Qui è un po’ la stessa cosa, solo che non sono smentiti dal mercato domani, ma pretendono di aspettare un secolo. Nel frattempo, “per non rischiare”, bisogna fare come dicono loro.
    E’ un cortocircuito logico.

  1. No trackbacks yet.
I commenti sono chiusi.
%d blogger hanno fatto clic su Mi Piace per questo: