In pubblicazione il 20 GEN 2023

La Storia della Meteorologia

Dai Greci ad oggi


Fonte Immagine: Meteogiuliacci

Con le prime grandi civiltà orientali l’osservazione del cielo e degli astri diviene quasi un culto. E così non sfugge la stretta correlazione esistente tra la ricorrenza dei cicli celesti e le variazioni cicliche stagionali, tanto che negli astrologi dell’epoca matura la convinzione che le alterne vicende atmosferiche dipendano solo dal moto delle stelle e dei pianeti e, in particolar modo, dai cicli del Sole e della Luna. Tale interpretazione astrologica del tempo resisterà tenacemente per millenni fino al Rinascimento.


La più antica testimonianza sui primi tentativi di prevedere il tempo

Con la civiltà greca, accanto all’interpretazione mitologica e astrologica dei fenomeni atmosferici, si afferma gradualmente un atteggiamento più razionale, fondato sull’esperienza delle osservazioni. Questo nuovo tipo di approccio è documentato da numerosi passi di Omero, da Le opere e i giorni di Esiodo, dai Parapegmi (specie di calendari esposti nelle pubbliche piazze), dal Libro dei sogni di Teofrasto, da I fenomeni di Arato e dall’Almagesto di Tolomeo. Ma la testimonianza più importante è senza dubbio la Meteorologica di Aristotele, un trattato composto di 4 libri divisi in 42 capitoli, di cui quindici dedicati esclusivamente agli elementi meteorologici. I principi esposti in tale opera, a parte alcune corrette intuizioni, hanno in genere scarso fondamento scientifico; tuttavia, hanno costituito la base indiscussa delle conoscenze atmosferiche per quasi 2000 anni.


L’interesse per i fenomeni del tempo si ritrova anche nella civiltà romana

Interessi documentati da Seneca e da Plinio, senza però nulla aggiungere a quanto i Greci sapevano o credevano di sapere. Nel Medioevo, era nella quale impera incontrastata l’astrologia, la meteorologia subisce una profonda involuzione poiché, anche sotto l’influenza della civiltà araba, si rafforza la credenza nell’influsso degli astri sul tempo, un modo di vedere di cui oggi troviamo ancora traccia negli almanacchi popolari. Tra il ’400 e il ’500, con l’invenzione e la diffusione di nuove tecniche di stampa, trovano successo opuscoli tascabili sui quali, oltre a informazioni su maree, eventi astronomici e feste religiose, venivano pubblicate previsioni del tempo per tutto l’anno, elaborate alla luce delle classiche regole dell’astrologia.

Nel Rinascimento finalmente atteggiamento razionale verso l’Atmosfera  

Vengono inventati e costruiti i primi strumenti meteorologici: l’anemometro e l’igrometro (Leonardo), il pluviometro (Castelli), il termometro (Galilei), il barometro (Torricelli). Intorno al 1650 Ferdinando II, Duca di Toscana, fa realizzare addirittura la prima rete di osservazione del tempo.

Tuttavia, la rozza strumentazione, le ancora approssimate conoscenze scientifiche, il carattere isolato degli studi, e, soprattutto, l’assenza di una visione d’insieme delle vicende del tempo, non fanno progredire più di tanto la conoscenza dell’atmosfera. Nel frattempo, però la frenetica attività marinara dell’epoca dà un significativo contributo. Infatti, la ricerca delle rotte per le Indie da parte dei primi grandi esploratori (Colombo, De Gama, Magellano) e poi i successivi viaggi di navigatori come Halley e Cook, consentono di acquisire una prima approssimativa visione sulla distribuzione geografica dei venti e sulle condizioni meteorologiche prevalenti su gran parte del pianeta.

Però solo agli inizi dell’800 negli studiosi si fa strada la convinzione che il tempo, più che dalle condizioni atmosferiche locali, dipenda dallo spostamento di perturbazioni aventi dimensioni di qualche migliaio di chilometri. E in tal modo si intuisce che per la comprensione dei fenomeni meteorologici occorre la rappresentazione sinottica – come dire simultanea – di tutte le osservazioni del tempo relative a un’area la più vasta possibile. Erano questi gli albori della meteorologia sinottica, che segnerà profondamente la scienza del tempo fino ai giorni nostri.

Agli inizi del 1800 le prime mappe meteorologiche, tracciate sulla base di osservazioni sinottiche raccolte per posta, consentono di intuire la stretta relazione tra vento e pressione, formulata poi in forma rigorosa da Buys-Ballot. Bisogna tuttavia attendere l’invenzione del telegrafo (1835) perché l’analisi sinottica del tempo possa essere eseguita in tempo reale, così da assumere un effettivo interesse pratico.

Fu tuttavia un tragico evento a dare la spinta decisiva alla realizzazione della prima vera rete di osservazione sinottica: nel 1854 una furiosa tempesta sul Mar Nero, durante la guerra di Crimea, fece affondare numerose navi della flotta anglo-francese impegnata contro la Russia. L’indagine condotta dall’Ammiragliato inglese arrivò alla sorprendente conclusione che la catastrofe si sarebbe potuta evitare mediante una rete di osservazioni sinottiche che avrebbe consentito di prevedere con sufficiente anticipo l’arrivo della tempesta. Nacquero così i primi servizi meteorologici in Inghilterra (1861), Francia (1863) e Italia (1866). Dall’analisi di routine delle mappe del campo barico si scoprì in tal modo che lo spostamento del maltempo è sempre accompagnato da estesi centri di bassa pressione, caratterizzati da isobare concentriche e chiuse (i cicloni o depressioni mobili). L’evidente forte correlazione tra i fenomeni atmosferici osservati e i cicloni mobili fece ritenere, con troppo ottimismo, che per la previsione del tempo su una data area fosse sufficiente determinare due aspetti: la posizione futura del ciclone, estrapolando il suo spostamento sulla base di più mappe cronologicamente ordinate, e la distribuzione delle nubi e delle precipitazioni all’interno del ciclone. Fu dell’ammiraglio Abercromby (1887) il primo schema della struttura di un ciclone. Ma il modello proposto non portò i risultati sperati e i primi insuccessi gettarono molta acqua sui primi facili entusiasmi, tanto che agli inizi del 1900 le mappe del tempo erano ormai finite nel dimenticatoio.

Tra il 1700 e il 1800  le basi della moderna Meteorologia

Nel contempo tra il 1700 e il 1800 le leggi della dinamica scoperte in quel periodo vengono applicate con successo anche all’atmosfera: nel 1783 Eulero riscrive le equazioni del moto dei corpi celesti, elaborate da Newton, in una forma idonea a descrivere anche i moti atmosferici. Nel 1859 W. Ferrel realizza una formulazione matematica dei moti atmosferici nella quale viene evidenziato, per la prima volta, come la rotazione della Terra abbia l’effetto di deviare il movimento delle masse d’aria verso destra nell’emisfero nord e verso sinistra in quello sud.

Ma a gettare le basi della moderna meteorologia sono soprattutto i lavori elaborati tra il 1900 e il 1930 da tre grandi studiosi.

Nel 1922 L.F. Richardson si rende conto che le equazioni del moto applicate all’atmosfera, pur contenendo in sé la descrizione dell’evoluzione futura del movimento delle masse d’aria e della pressione, sono in realtà troppo complesse cosicché è impossibile ricavarne la soluzione analitica “esatta”, così come si fa, ad esempio, con un’equazione di 2° grado. Per aggirare l’ostacolo, Richardson escogita, per primo, un tentativo di risoluzione approssimata mediante i metodi tipici dell’analisi numerica, ossia trasformando le complesse operazioni presenti nelle equazioni (derivate e integrali) in semplici operazioni aritmetiche tra numeri. I risultati della prima “previsione numerica” nella storia della meteorologia sono in realtà disastrosi, in parte per alcuni errori di carattere fisico-matematico,  in parte per l’enorme mole di calcoli da eseguire a mano e in parte per la scarsità dei dati di osservazione necessari per descrivere adeguatamente lo “stato iniziale” dell’atmosfera (per prevedere il “tempo che farà” è infatti indispensabile conoscere innanzitutto il “tempo che c’è”). Tuttavia il tentativo di Richardson resta degno di nota perché negli anni ’50, con l’avvento dei primi computer, aprirà la strada ai modelli-fisico matematici.

Nel 1922 H. Jeffreys, elaborando le equazioni del moto sotto diverse condizioni spaziali e temporali, realizza una classificazione dei venti in tre tipi idonei a descrivere le circolazioni realmente osservate nell’atmosfera, dal ciclone tropicale, al ciclone mobile extra-tropicale delle nostre latitudini e alle brezze locali. È merito ancora di Jeffreys l’avere scoperto la presenza in seno alle correnti occidentali delle medie latitudini, di oscillazioni lungo i meridiani – con lunghezze d’onda dell’ordine di 3000-10.000 km – responsabili dello scambio di calore tra i poli e l’Equatore. Qualche anno più tardi Rossby dà una giustificazione teorica a tali ondulazioni (da qui il nome di onde di Rossby). La regolarità con cui le ondulazioni si muovono lungo i paralleli ne rende abbastanza agevole la stima dello spostamento tanto che le onde di Rossby rivestono oggi fondamentale importanza nelle previsioni a media scadenza (3-10 giorni) poiché costituiscono i sistemi portanti dei cicloni mobili delle medie latitudini.

Comunque i pregevoli lavori di Richardson e Jeffreys passano quasi inosservati di fronte agli sviluppi e ai successi di nuove proficue idee nel campo della meteorologia sinottica. Infatti nel 1918 il meteorologo norvegese B. Bjerknes, sulla base di accurate osservazioni sinottiche ottenute da una densa rete di stazioni installate nel Sud della Norvegia, formula un nuovo soddisfacente modello delle depressioni mobili delle medie latitudini (la teoria dei fronti), tuttora in uso. In particolare, la genesi e il ciclo di vita dei cicloni extratropicali vengono collegati alle piccole ondulazioni (lunghezza d’onda intorno a 1000-3000 km), che intorno a 55-65 gradi di latitudine tendono a generarsi sulla ideale linea di demarcazione (“fronte”) lungo la quale al suolo si fronteggiano permanentemente masse d’aria fredda polare e masse d’aria calda subtropicale. In pratica il meteorologo riportava a mano, sull’area continentale di interesse, le osservazioni sinottiche rilevate al suolo e, sempre a mano, tracciava le isobare. Dalla ragnatela di linee che così prendeva forma sulla mappa geografica, era possibile evidenziare le aree dove la pressione era più bassa (cicloni) o più alta (anticicloni) rispetto alle aree adiacenti. Su un’altra mappa venivano invece tracciate le linee congiungenti i punti con medesima temperatura (isoterme), onde individuare la posizione delle masse d’aria calde o fredde. In quelle ristrette fasce geografiche dove le isoterme sono molto fitte è evidente che si “fronteggiano”, gomito a gomito, una massa d’aria fredda con una massa d’aria calda e, come due eserciti nemici in guerra, lì possono verificarsi reciproci sconfinamenti di aria fredda verso le aree occupate dall’aria calda (fronte freddo) o viceversa (fronte caldo). A questo punto, dalla sequenza cronologicamente ordinata di più mappe, era possibile prevedere, attraverso l’estrapolazione dello spostamento, la posizione che assumerebbero nel futuro i cicloni, gli anticicloni e i fronti.

La tecnica di estrapolare nel futuro la traiettoria dei sistemi atmosferici osservata nelle precedenti 12-24 ore è nota come metodo sinottico.

Il metodo sinottico, alquanto empirico e legato molto all’esperienza soggettiva del meteorologo, dava risultati soddisfacenti soltanto per proiezioni fino a 24-36 ore ed è stato impiegato nei centri meteorologici fino agli anni ’70. Il metodo trova ancor oggi applicazioni nel campo delle previsioni a brevissima scadenza (1-6 ore) note, in gergo tecnico, come nowcasting. Il nowcasting consiste infatti nell’estrapolare nel futuro la traiettoria dei sistemi nuvolosi osservata attraverso i satelliti e i radar meteorologici.

La scoperta delle onde radio permette nel 1929 di estendere le osservazioni sinottiche anche agli strati superiori dell’atmosfera, impiegando una minuscola radio-trasmittente (radiosonda), sollevata da un pallone gonfiato con idrogeno (oggi viene usato l’elio). L’analisi comparata delle condizioni in quota con quelle presenti al suolo mette in evidenza l’influenza determinante della media-alta atmosfera (5-10 km) sull’evoluzione del tempo osservato al suolo. Da queste nuove indagini in quota vengono scoperti altri interessanti fenomeni, come la corrente a getto, per la cui interpretazione si ricorre a importanti concetti presi a prestito dalla fluidodinamica, come divergenza e vorticità, e che oggi trovano largo impiego nei modelli fisico-matematici. La vorticità esprime, grosso modo, l’intensità e l’ampiezza dei moti vorticosi, specie nel piano orizzontale, e pertanto si presta ad hoc alla descrizione dell’evoluzione dei cicloni mobili. La divergenza indica invece se nella colonna atmosferica sovrastante il suolo, l’aria è, eventualmente, in fase di rarefazione, con conseguente diminuzione della pressione al suolo, un processo che porta allo sviluppo di moti verticali ascendenti all’interno della colonna, responsabili, a loro volta, della condensazione dell’aria umida e della formazione delle nubi nei cicloni extra-tropicali.

Gli anni che seguono la seconda guerra mondiale segnano l’inizio della moderna meteorologia.

Alcune invenzioni, utilizzate inizialmente solo per scopi bellici, trovano un proficuo impiego anche nella meteorologia. Così è, ad esempio, per il radar che consente di evidenziare le piogge in atto all’interno delle nubi entro un raggio di 300-400 km. Ma la vera svolta avviene agli inizi degli anni ’50 con l’avvento dei primi elaboratori elettronici, i quali consentono ai meteorologi di realizzare finalmente il sogno di Richardson, ovvero risolvere in tempo reale – anche se in maniera approssimata – le complesse equazioni che descrivono l’evoluzione futura dell’atmosfera. Inizia così l’era delle previsioni numeriche, dedotte con i computer mediante opportune schematizzazioni e semplificazioni (modelli fisico-matematici) delle equazioni della dinamica e della termodinamica. Man mano che la potenza degli elaboratori cresce, i meteorologi approntano modelli sempre più complessi, più aderenti alla realtà ed estesi a validità via via crescenti.

Per la descrizione dell’evoluzione di qualsiasi sistema fisico presente in natura è necessario innanzitutto conoscerne le condizioni iniziali. Ad esempio, la previsione della traiettoria descritta da un proiettile richiede che siano inizialmente note le coordinate del punto di partenza e la velocità di lancio. Quanto più precise sono le condizioni iniziali, tanto più la traiettoria prevista si avvicinerà a quella osservata. Tali requisiti valgono ovviamente anche per sistemi molto più complessi, come appunto l’atmosfera. Allo scopo, a livello planetario, esiste un sistema mondiale per l’osservazione del tempo, coordinato dall’OMM (Organizzazione Meteorologica Mondiale), un organismo permanente dell’ONU.

Il sistema è costituito da una rete di stazioni per l’osservazione simultanea (o sinottica, in gergo tecnico), delle condizioni meteo al suolo e da un’analoga rete sinottica per l’osservazione del tempo a varie quote, onde avere una visione tridimensionale delle condizioni iniziali.

Le stazioni sinottiche di superficie – circa 15.000 in tutto il mondo, con una distanza media, le une dalle altre, di 100-200 km – misurano ogni 3 ore i parametri più significativi per l’evoluzione del tempo (pressione atmosferica, temperatura, umidità, vento, nuvolosità, quantità di precipitazioni) e i fenomeni significativi in atto (nebbia, pioggia, neve, temporali).

La rete di stazioni sinottiche per le osservazioni in quota è invece costituita da circa 1200 postazioni (distanti in media l’una dall’altra circa 300-600 km) le quali, a intervalli di 6 o 12 ore, lanciano palloni riempiti di elio, i quali sollevano fino a 25-30 km di altezza una sonda (da qui il termine di pallone sonda) munita di minuscoli sensori di temperatura, umidità e pressione atmosferica e i cui rilevamenti vengono trasmessi via radio alla stazione ricevente a terra.

I dati simultanei rilevati più volte al giorno, al suolo e in quota, vengono accentrati nel volgere di pochi minuti da appositi centri di raccolta, i quali, poi, li trasferiscono immediatamente ai centri meteorologici – nazionali o mondiali – di elaborazione delle previsioni del tempo. Purtroppo ancora oggi la rete di rilevamento è piuttosto carente tanto che si stima che il numero attuale di stazioni sinottiche sul pianeta rappresenti appena 1/6 del fabbisogno minimale per una soddisfacente inizializzazione dei modelli. La cosa non deve destare meraviglia, qualora si consideri che il 70% del globo è ricoperto da oceani e mari, aree sulle quali è ancor oggi impossibile effettuare un adeguato numero di osservazioni. E anche la potenza di calcolo dei migliori elaboratori del momento risulta sempre inadeguata a soddisfare le continue migliorie che i fisici dell’atmosfera vorrebbero apportare ai modelli. Si comprende così perché i meteorologi siano sempre alla ricerca del computer più potente disponibile sul mercato.

Per di più le previsioni elaborate sull’Europa mediante i modelli non hanno una qualità spazialmente uniforme ma risultano affette da maggiori errori nelle regioni sottovento alle grandi catene montuose. Tale è il caso della Val Padana, a causa delle difficoltà di schematizzare l’interazione tra le Alpi e le masse d’aria provenienti dal Nord Atlantico. Le previsioni sono ancora più imprecise nei paesi che, come l’Italia, si affacciano sul Mediterraneo, un mare sul quale, non solo non sono ovviamente disponibili osservazioni sinottiche, ma che è anche più caldo di circa 4° C, a parità di latitudine, del vicino oceano Atlantico. Questo fa sì che le masse oceaniche d’aria fredda che entrano nel bacino del Mediterraneo subiscono un sensibile riscaldamento dal basso che molto spesso le trasforma inaspettatamente in piovosi ammassi nuvolosi che raggiungono poi l’Italia.

Con il lancio nel 1960 del Tiros I, il primo satellite meteorologico, si è aperta una nuova era nel campo delle osservazioni.

Infatti, i satelliti  meteo, vengono impiegati soprattutto per osservare la posizione e il movimento dei sistemi nuvolosi, ma i dati più prezioni sono i dati di temperatura, umidittà, pressione e venti rilevati a tutte le quote 24 ore su 24,su tutto il globo (oceani e deserti compresi) e a tutte le quote,  con un volume odireno di  più di 1 milione di osservazioni al giorno su pixel di circa 50 km di lato.EArtioclo tratto dall'oper MANUALE DI METEOROLOGIA  - Cas aeditrice Alphaest _Autori: Mario Giuliacci et Alias



Fonte Articolo: Col. Mario Giuliacci

ULTIMI ARTICOLI

29 GEN
Condizioni meteo tipicamente invernali anche nella settimana a cavallo fra gennaio e febbraio
28 GEN
I giorni della merla sono il 29-30-31 gennaio: come sarà il tempo sul nostro Paese?
27 GEN
Ultimo fine settimana di gennaio in compagnia di un nuovo calo termico e con un modesto peggioramento che riguarderà soprattutto i settori centro-orientali dell'Emilia-Romagna
27 GEN
Ancora freddo in tutta Italia e maltempo di tipo invernale in diverse regioni
29 GEN
Spesso poco prima di una scossa si avverte un boato, ecco la spiegazione
27 GEN
Sul tema "Innovazione tecnologica per il Sociale"
14 DIC
Il capoluogo Emiliano è stato il primo del Nord di bassa quota ad imbiancarsi questa stagione!
29 NOV
Era possibile prevedere il disastro? Oppure, oltre al lato meteorologico, ci sono altre colpe?