Archivio

Archive for novembre 2009

Quanto il Minimo di Eddy assomiglia al Minimo di Maunder!

30 novembre 2009 54 commenti

Ci sono molti paralleli tra la transizione Ciclo23-Ciclo24 che fanno perfettamente il paio con l’ingresso in un Minimo Profondo: “The MAUNDER’S MINIMUM!”.
Voglio aprire così il mio POST per chiarire subito che prima di scriverlo ho voluto leggere i Lavori originali dei Professori Makarov e Taltov; i due illustri Astrofisici della prestigiosa scuola Russa già dal 2007, analizzando il profondo sbilanciamento dell’attività di picco dei due emisferi solari scrissero in un loro Articolo “Deep Solar Minimum Approach”, questa frase mi è ronzata in testa per molto tempo da quando nel tardo 2008 iniziavo a leggere il Blog NIA e rispolveravo un vecchio amore: L’astrofisica!!!
I Prof. in questione, pensate, non sono nemmeno stati invitati al Convegno SOHO-23 sul Solar Minimum, non voglio dire che sia stato fatto in cattiva fede ma la realtà è questa!
Fortunatamente il Prof. Svalgaard non si è dimenticato del loro lavoro e li ha prontamente citati in una delle sue Slide, proprio in quelle in cui si è paragonato il Minimo di Eddy con il Maunder!!!

Prontamente l’argomento è stato ripreso dal Prof. David Archibald e postato sul Blog di Watt ha fatto un’altro bel botto! Dopo l’argomento della scorsa volta, in cui abbiamo analizzato come la Corona solare proprio non ne vuol sapere di assumere un’orientazione favorevole al Cycle24, dopo i prestigiosi Lavori di Livingston e Penn che dicono “Entro il 2015 il nostro Sole non sarà più in grado di generare macchie solari” ecco che si aggiunge un’altro tassello importante che ci aiuta a capire come e perché il Sole probabilmente si sta veramente preparando a un Minimo Profondo.
Nella presentazione ufficiale del Prof. Svalgaard il 22 Settembre 2009 al SOHO-23 sul Solar Minimum (scaricabile a questo indirizzo: http://www.leif.org/research/Predicting%20the%20Solar%20Cycle.ppt ) viene proposto un interessante diagramma Butterfly-Like che permette di stimare le tempistiche dei cicli solari.

Il diagramma, originariamente dal Prof. Altrock commentato con le frecce verdi e rosse dal Prof. Svalgaard stesso. Quello che ne emerge ed è particolarmente significante dal punto di vista della predizione dell’attività solare è la distanza tra le frecce verdi che contraddistinguono i cicli 23 e 24, la distanza temporale tra le due frecce è di 15 anni!!! Ora, essendo assodato che il SolarMax per il ciclo 23 è stato segnato nel Marzo 2000, l’estrapolazione delle frecce suggerisce un Solar Max per il ciclo 24 nel 2015!!!
Ora qui occorre fare un piccolo inciso: il Solar Cycle 24 penso sarà sempre ricordato come “la Pecora Nera” dei cicli moderni, ha messo in luce l’estrema inadeguatezza dei metodi deterministici per la previsione dell’attività solare (Metodo del Prof. Hathaway), con questo tipo di approccio infatti si prevedeva originariamente un SC24 fortissimo (SSN maggiore di 190) con Solar-MAX nei primi mesi del 2010; altri metodi come quello del Prof. Dikpati che utilizzano parametri fisici misurabili (velocità del nastro trasportatore solare) e sono pseudo-deterministici prevedevano anch’essi un ciclo fortissimo (SSN anche 200) ma il Solar Max spostato avanti di 10-12 mesi, dunque inizialmente lo prevedevano per la fine del 2010 o i primi del 2011.
Le cose poi sono andate un po diversamente dalle previsioni fatte dai più blasonati Ricercatori.
Veniamo ora alla FIgura-2 pubblicata dai Professori Makarov e Taltov nel 2000 mette in evidenza come la concentrazione del radioisotopo C-14 negli anelli dei pini (vale l’equazione “SOLE DEBOLE = Maggiore C-14”) permetta di dire che l’attuale concentrazione è COMPLETAMENTE SOVRAPPONIBILE  a quella riscontrata prima dell’inizio del Maunder’s Minimum!!!

In particolare si vede come il 2010 sia stato ricavato per estrapolazione e presenti COMPLETA ANALOGIA con il 1653!!!!
E ora mi permetto di ricordarVi il mio POST NIA sulle “Risonanze Orbitali” dei Supergiganti Gassosi ( https://daltonsminima.wordpress.com/2009/06/29/risonanze-orbitali-la-parola-alleclittica-super-minimum-in-arrivo/ ) per farVi vedere come la situazione sull’eclittica sia proprio analoga con quella del 1653, dunque sembrerebbe esserci completo matching tra il valore “risonanza orbitale” e la concentrazione del C-14 negli anelli degli alberi!!!
Tornando al grafico di FIG-2 e comparandolo con il grafico di ingresso nel Maunder si vede come il 2015 sia estrapolato come MINIMO RELATIVO della concentrazione del C-14 dunque massimo relativo nell’attività solare!
Questo dato sarebbe quindi “consistente” con quanto ipotizzato dal Prof. Svalgaard studiando la “Brillanza Verde Fe-XIV” della corona Solare (FIG-1)!
Vogliamo poi focalizzare un’altro fenomeno: Il Maunder’s non fu totalmente privo di SunSPot! Per dimostrare questo prendiamo i dati di archivio SIDC e andiamo a vedere come la fase di più profonda quiescenza della nostra stella fu tra io 1660 e il 1670 con addirittura 10 anni senza nemmeno un anno con SSN maggiore di 0!

Il periodo 1653-1660 invece fu “una festa” di anni con SSN confinati al di sotto di 5, mi chiedo ora che SSN riuscirebbe a prendere il Minimo di Eddy se invece dei potenti mezzi tecnologici (magnetogrammi che dicono dove puntare i telescopi, STEREO A & B, SOHO & Co.) e sfruttando tutte le 24 ore al giorno di osservazione disponibili oggi fosse catapultato nel 1653!!!
Ultimo diagramma che voglio proporVi è l’ Heliospheric Current Sheet, questa “misurabile” permette di ottenere per estrapolazione la fine di un ciclo solare  e la partenza convinta del ciclo successivo, più è perpendicolare all’asse delle X (Asse degli Anni) più il cambio ciclo risulta veloce e il ciclo nascente forte.

Si può vedere come il ciclo23 abbia stentato ad abbandonare la fotosfera solare e resiste oramai da 13.5 anni, con questo ultimo dato Vi lascio riflettere sull’ultima affermazione scritta sul Blog di Watt:

“Activity and timing of the current minimum, as well as the timing of the Solar Cycle 24 maximum in 2015, is paralleling the start of the Maunder Minimum.  There is no data to date which diverges from the pattern of the start of the Maunder Minimum.”

Sottolineo “non ci sono dati che divergono dalle condizioni di inizio del Maunder Minimum”!!!
Ora è bene anche sottolineare che il Maunder durò 70 anni, come sempre scrissi negli altri POST “Sarà la Storia a dire quanto sarà profondo e longevo il Minimo di Eddy!”.

Fonte di spunto = http://wattsupwiththat.com/2009/11/12/another-parallel-with-the-maunder-minimum/

ALE

Annunci

Ancora Spotless! Domani l’articolo di Ale…da non perdere!!!!

29 novembre 2009 19 commenti

E guardate un pò la polarità di alcune regioni nell’emisfero nord?

Incredibile!

Simon

Categorie:Uncategorized

La Rubrica Di NIA: la pausa climatica delle massime ad inizio primavera

29 novembre 2009 7 commenti

Come ben sappiamo il nostro clima presente due sostanziali stagioni, l’Estate e l’Inverno, ma adesso non parleremo di loro.
In queste due stagioni si presenta un chiaro fenomeno che aiuta anche a capire perché la Primavera e l’Autunno in realtà sono delle finte stagioni, infatti esse rappresentano solo la media di tutti i possibili casi di avvicinamento (che sono avvenuti) ad una delle 2 stagioni portanti del nostro clima, questo fenomeno è la stasi delle temperature.
Per stasi ovviamente non parlo di blocco costante, anche Estate ed Inverno presentano fluttuazioni notevoli, ma nell’insieme la medie di tutte queste fluttuazioni risulta approssimativamente costante all’interno dei 3 mesi che rappresentano l’arco di vita delle stagioni in questione.
Da sempre si dice che le mezze stagioni non esistono più, semplicemente perché esse non sono mai esistite, il passaggio dall’inverno all’estate non è lento e lineare, ma può variare e passare dell’essere rapido e brusco, a “gradoni” o per esempio con diversi sali-scendi (soprattutto l’Autunno).
Ripeto quindi che per prima di iniziare a parlare di questo fenomeno bisogna rimarcare il fatto che le temperature medie primaverili e autunnali sono solo numeri messi li perché da qualche parte devono andare (ma questo non significa che non vadano presi in considerazione).

Il fenomeno che quindi voglio mostrarvi è quello della stasi delle massime nel periodo 2° decade di Marzo – 2° decade di Aprile, un periodo quindi superiore ad un mese dove le temperature massime tendono ad approssimarsi ad un valore simile tra di loro.
Questo fenomeno colpisce solo le massime e non le minime che invece presentano un andamento del tutto simile a quello della media Clino, un fenomeno analogo che colpisce le minime avviene con mio stupore dall’altra parte della curva, ovvero in Autunno (ma non so se affronterò questo fenomeno, che è molto più complicato e variabile di quanto sembri).
Prendiamo come base due stazioni delle mia zona, una che risente del clima marittimo e una del clima continentale, così da poter prendere più variabili possibili, ecco quindi le medie Clino del periodi prima citato (ovviamente stiamo parlando di massime):
1° stazione: +13.5/+15.7/+17.3/+17.5, con un delta T di +4°C e un aumento medio di 1°C a decade
2° stazione: +12.1/+14.3/+15.8/+16.2, con un delta T di +4.1°C e un aumento medio di +1.03°C a decade

Come si può vedere le prima due decadi di Aprile mostrano un andamento simile, come se il fenomeno avesse dei precedenti anche in passato, ma in maniera molto più blanda e ristretta, e probabilmente negli anni 2000 si è avuta un’estremizzazione di questo che ha portato alla creazione di una piccola “vera” Primavera con connotati simili alle due stagioni che fanno da cardine al clima globale, ma mostriamo quindi i dati del periodo 2000-08:
1° stazione: +15.7/+15.6/+16.5/+17.6, con un delta T di +1.9°C e un aumento medio di +0.48°C a decade
2° stazione: +15.7/+15.8/+16.8/+17.9, con un delta T di +2.2°C e un aumento medio di +0.55°C a decade

Tralasciando le anomalie dalla media che non ci interessano notiamo come l’aumento medio a decade sia praticamente dimezzato, diventando solo di +0.5°C, che è numericamente simbolico, ma che nella realtà non trova alcune differenza, ci troviamo di fronte ad un periodo dove in quasi un mese e mezzo le temperature massime raggiunte restano relativamente costanti.
Ma lo cosa sorprendente è che tutti gli anni tranne il 2007 si sono comportati nin un modo del tutto simile.
Analizziamo ora le minime, ma il loro valore in se non ci interessa, come detto esse seguono un altro tipo di andamento, la domanda è spontanea quindi: perché nonostante le minime salgano le massime si approssima ad un valore simile?
Prendiamo la differenza tra massime e minime e confrontiamo come si evolve tra media Clino e media 2000-08:
Media Clino:
1° stazione: +10.3/+10.7/+10.5/+10.9
2° stazione: +8.8/+9.1/+8.9/+9.3

Si nota subito la maggiore continentalità della prima stazione presa in esame, e si vede come la differenza tra massime e minime resti costante nell’arco delle 4 decadi confrontate, ora passiamo al periodo che a noi interessa:
Media 2000-08:
1° stazione: +13.4/+11.8/+12.1/+11.1
2° stazione: +11.6/+10.0/+10.4/+9.7

La prima cosa che salta all’occhio è l’aumento della continentalità di entrambe le stazioni, cosa che però va diminuendosi lungo le 4 decadi, l’ultima infatti presenta una differenza tra massime e minime praticamente identica a quella della media Clino.
Questo fenomeno è di difficile spiegazione, e potrebbe avere anche molteplici cause, ma andiamo ad analizzare la cosa che più significativamente è andata modificandosi nel periodo preso in esame, ovvero la maggiore presenza di inversioni provocate da anticicloni.
Una cosa che poi potrebbe essere definitiva nel risolvere il dilemma è che non avendo potuto fare un confronto con altre zone non so se questo fenomeno trova riscontri anche in altre zona d’Italia, so per certo che è fenomeno tipico del centro nord, comprese Toscana e Marche.
Per zone come il sud, di cui non conosco bene il clima non saprei dire, ma spero che gli utenti possano dare un contributo da questo punto di vista.

Purtroppo non riesco a postarvi delle reanalisi perché non permettono di fare confronti decadali tra medie, ma solo anno per anno, e farlo 9 volte non avrebbe senso, anche perché dovrei postare 4 carte per anno, visto che il periodo presenta si una stabilità, ma solo da punto di vista delle massime e le decadi si sono modificate tra loro per poter ottenere tale fenomeno, cioè le decadi non hanno avuto tutte la stessa trasformazione, ma ben si 4 modificazioni diverse che hanno fatto in modo che si verificasse questo fenomeno.

FABIO

La prossima settimana parleremo di medie, indici di variabilità et simili…….

Categorie:Rubrica NIA Tag:

Qualcuno ha mai considerato l’ipotesi che il ciclo 24 sia abortito?

28 novembre 2009 35 commenti

Proprio come accadde prima del minimo di Dalton???

http://solarcycle24com.proboards.com/index.cgi?board=general&action=display&thread=920

Simon

Categorie:Uncategorized

Come funzionano i modelli climatici ? (seconda parte)

28 novembre 2009 10 commenti

Incertezze nei modelli climatici

Le equazioni che compaiono nel modello sono solo approssimazioni dei processi fisici che avvengono nell’atmosfera. Mentre alcune di queste approssimazioni sono altamente precise, altre sono alquanto grezze. Questo è dovuto al fatto che i processi reali che avvengono sono o troppo complessi per essere inclusi nel modello (il supercomputer non riesce ad eseguirli) o perché la nostra comprensione di questi processi è ancora troppo scarsa. Quest’ultima è particolarmente vera per la formazione e la dissipazione delle nuvole. Si sta ancora cercando di implementare nei modelli l’influenza climatica delle differenti varietà di nuvole che compaiono nelle diverse regioni del pianeta e nelle varie stagioni. La modellazione del comportamento delle nuvole è molto difficile ed è qualcosa che ancora non è stato realizzato nei modelli climatici globali.
Tutti i modelli climatici IPCC assegnano un feedback positivo alla riduzione delle nubi medio basse e questo è il motivo principale delle differenze nel riscaldamento fornito dai diversi modelli climatici (Trenberth e Fasullo, 2009). Prevedo che questo modello di comportamento (delle nubi) si dimostrerà essere non corretto. E anche se gli autori sono restii ad ammetterlo c’è già qualche elemento di prova nella letteratura scientifica (Spencer et al., 2007; Caldwell e Bretherton, 2009). Credo che i modellisti hanno erroneamente interpretato il fatto che il riscaldamento provochi una diminuzione delle nuvole, mentre in realtà è stata la diminuzione delle nuvole che ha causato la maggior parte del riscaldamento del pianeta. Questo è fondamentalmente un problema di nesso di causalità: una direzione del nesso di causalità è stato ignorata quando si cerca di valutare il nesso di causalità nella direzione opposta (Spencer e Braswell, 2008).
Il problema fondamentale del nesso di causalità nella modellazione del clima non si limita solo alle nuvole. Mentre il riscaldamento provoca, in media, un aumento del vapore acqueo alle basse quote, tutto il sistema di precipitazioni controlla il vapore acqueo contenuto nella parte restante dell’atmosfera. Quindi da un parte l’evaporazione contribuisce ad incrementare l’effetto serra immettendo vapore acqueo in atmosfera, dall’altra le precipitazioni lo riducono. Ma mentre il fenomeno fisico dell’evaporazione è stato capito molto bene, lo stesso non si può dire dei processi fisici di conversione di vapore acqueo in nubi e in precipitazioni, che rimangono piuttosto complessi e misteriosi. E’ l’equilibrio tra questi due processi – l’evaporazione e le precipitazioni – che determina l’umidità atmosferica.
Anche nei modelli fatti ad hoc per studiare il comportamento e l’accrescimento delle nuvole (modelli che presentano molti calcoli complessi) il momento in cui inizia una precipitazione non viene calcolato ma bisogna fornirglielo. Questo fatto è una fonte di enorme incertezza e non viene sufficientemente considerato dagli scienziati. Alla fine, molte delle approssimazioni nei modelli climatici probabilmente non sono così importanti per la previsione dei cambiamenti climatici, ma basta un solo processo critico per portare le proiezioni del modello in una direzione completamente sbagliata. L’IPCC ammette che la loro principale fonte di incertezza è il feedback delle basse nuvole, cioè come la bassa copertura nuvolosa cambierà con il riscaldamento.

La causa del riscaldamento globale: l’uomo o la natura?

L’aggiunta di più di anidride carbonica in atmosfera deve avere qualche effetto sul bilancio energetico del pianeta, ma quanto è grande in confronto allo squilibrio energetico che il sistema climatico impone su se stesso?
Il risultato è stato che questi modellisti considerano il sistema climatico molto sensibile alle nostre emissioni di gas serra e che in primo luogo esso è in uno stato di equilibrio energetico.Vi è una pervasiva e non scientifica convinzione che la natura è in una situazione precaria di equilibrio. Sia che si tratti di ecosistemi o del sistema climatico, si sentono scienziati che sostengono la presunta fragilità della natura. Ma questo è un concetto soggettivo, non scientifico. Proprio perché la natura tende verso un equilibrio non significa che l’equilibrio sia in qualche modo ‘fragile’. E che cosa significa ‘fragile’, quando la natura sembra sconvolgere questo equilibrio comunque?
Perché questo è così importante per la modellazione del clima? Perché se questi scienziati ignorano la variabilità naturale indotta del clima, e la maggior parte dei cambiamenti climatici sono dovuti alle attività dell’uomo, allora inevitabilmente si arriva alla conclusione che il sistema climatico è fragile. Se il riscaldamento osservato nel corso del 20 ° secolo è stato causato dall’uomo, ne consegue che il sistema climatico è abbastanza sensibili (feedback positivo). Ma se il riscaldamento è stato in gran parte causato da una variazione naturale della copertura nuvolosa, allora il sistema climatico è più probabilmente insensibile (feedback negativo). E non c’è modo di sapere se sono avvenuti cambiamenti naturali nella copertura delle nubi semplicemente perché le nostre osservazioni sul secolo scorso sono molto poco accurate.
Così, i modellisti climatologi partono dal fatto che non vi sono cambiamenti a lungo termine delle nubi, del vapore acqueo, ecc, e programmano i loro modelli climatici in modo da essere abbastanza sensibili nel produrre il riscaldamento del pianeta nel corso degli ultimi 50 anni con l’aumento delle concentrazioni di biossido di carbonio. Il presupposto è sempre quello: esso partono dal fatto che la Terra fosse in uno stato di equilibrio energetico, prima che l’uomo cominciasse ad usare i combustibili fossili. Ma, come è dimostrato dalla seguente ricostruzione della temperatura degli ultimi 2.000 anni (dal Loehle, 2007), vi sono state continue variazioni di temperatura che implicano necessariamente continui cambiamenti nel bilancio energetico della Terra.

1fonte: http://www.drroyspencer.com/wp-content/uploads/2000-years-of-global-temperatures-small.gif

E mentre i cambiamenti dell’attività solare sono una possibile spiegazione per questi eventi, è anche possibile che ci siano a lungo termine, internamente al sistema, delle fluttuazioni nel bilancio energetico globale, determinate dalla variabilità naturale delle nubi e del vapore acqueo.

Conclusioni

Non c’è dubbio che molti sforzi sono stati fatti per migliorare i modelli climatici. Ma ciò non significa che tali modelli possono necessariamente prevedere il clima tra 20, 50 o 100 anni da adesso. In ultima analisi, il modellista (e quindi il politico) deve prendere come una questione di fede il fatto che oggi i modelli climatici computerizzati contengono tutti i processi importanti necessari a prevedere il riscaldamento globale.
Questo è il motivo per cui convalidare le previsioni di una teoria è così importante per il progresso della scienza. Purtroppo, non abbiamo un buon sistema per testare rigorosamente modelli climatici nel contesto della teoria che il riscaldamento globale è antropico. Gli scienziati affermano che i loro modelli possono spiegare i cambiamenti di temperatura avvenuti nel 20 ° secolo. Ciò è vero solo in parte, infatti: primo, non è improbabile che la loro è l’unica spiegazione e secondo, loro forniscono una spiegazione conoscendo già la risposta. Il punto è che, mentre i modelli climatici attualmente offrono una possibile spiegazione per il cambiamento climatico (umanità emissioni di gas serra), non è affatto l’unica possibile. E ogni modellista che sostiene di aver trovato l’unica possibile causa del riscaldamento globale è in malafede. Anche l’IPCC (2007) ammette c’è un 10% di probabilità che si sbagli sul fatto che il riscaldamento degli ultimi 50 anni sia di origine antropica.

FINE

Fonti: http://www.drroyspencer.com/2009/07/how-do-climate-models-work/

ANGELO

Mamma mia leggete l’ultima parte, il nostro angelo (che vi saluta tutti) è come sei ci avesse visto lungo 3 mesi fa quando scrisse questo pezzo… sara mica lui la famosa talpa del CRU???

Prossimamente su NIA un articolo….

27 novembre 2009 17 commenti

…che farà impallidire tutti coloro che con critiche, minacce ed altro hanno cercato di inquinare il lavoro di New Ice Age…

Ringrazio Agrimensore del lavoro svolto…

la prossima settimana sarà la svolta che in tanti stiamo aspettando sul conteggio delle macchie solari…prego il Dr. Stefano Di Battista di essere collegato e dire la sua…

Il L&N’s count avrà sempre più importanza nella scienza del conteggio delle macchie solari…

Un ringraziamento particolare a Luca Nitopi e Geoff Sharp

Soon su NIA…

Categorie:Uncategorized

Continua la quiete solare!

27 novembre 2009 29 commenti

Con oggi i giorni spotless di fila sono 5, e non si intravvedono regioni degne di nota nè nel lato visibile nè in quello Behind:

Si riaffaccia la possibilità che anche novembre possa chiudere sotto i 5 per il Sidc, per quanto mi concerne davvero inaspettata questa mini (per ora) pausa solare!

Inoltre sempre per il sidc con oggi siamo a 250 giorni spotless totali nel corso del 2009, a meno 15 dal raggiungimento dei 265 giorni senza macchie del 2008:

https://daltonsminima.wordpress.com/dati-sole-in-diretta/

Lasciatemi dire che io non mi aspetto niente di importante per il proseguo di questa serie spotless, rimango convinto che il sole si sia riacceso anche se in modo molto blando, ma in generale nessuna illusione da parte mia che la serie possa continuare e divenire qualcosa di eclatante!

Certo, dovesse risuperare i 10 giorni spotless ancora una volta o addirittura i 20, come già scrissi giorni fa, il sottoscritto rimarrebbe sempre più sorpreso!

Non ci resta che viverla giorno per giorno…ed attaccarci al nostro talismano Apuano 70

Stay tuned, Simon