Il 0% ha trovato utile questo documento (0 voti)
336 visualizzazioni173 pagine

Astronomia Per Tutti - Volume 10 - Daniele Gasparri

Astronomia Per Tutti_ Volume 10 - Daniele Gasparri

Caricato da

Peppe Peppe
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd
Il 0% ha trovato utile questo documento (0 voti)
336 visualizzazioni173 pagine

Astronomia Per Tutti - Volume 10 - Daniele Gasparri

Astronomia Per Tutti_ Volume 10 - Daniele Gasparri

Caricato da

Peppe Peppe
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd
Sei sulla pagina 1/ 173

Daniele Gasparri

Astronomia per tutti: volume 10


Tutti i miei libri (oltre 20) sono raggiungibili a
questo link
Clicca qui per vedere gli altri volumi di
Astronomia per tutti

2
Copyright © 2013 Daniele Gasparri

Questa opera è protetta dalla legge sul diritto d’autore. Tutti i diritti, in
particolare quelli relativi alla ristampa, traduzione, all’uso di figure e tabelle,
alla citazione orale, alla trasmissione radiofonica o televisiva, alla
riproduzione su microfilm o in database, alla diversa riproduzione in qualsiasi
altra forma, cartacea o elettronica, rimangono riservati anche nel caso di
utilizzo parziale. La riproduzione di questa opera, o di parte di essa, è
ammessa nei limiti stabiliti dalla legge sul diritto d’autore.
Illustrazioni e immagini rimangono proprietà esclusiva dei rispettivi
autori. È vietato modificare il testo in ogni sua forma senza l’esplicito
consenso dell’autore.

3
Indice

Presentazione

Iniziamo a osservare con il telescopio

Auriga – Cocchiere

Gemini – Gemelli

Tecnica di elaborazione delle immagini


planetarie

L’astrometria

Il destino dell’Universo

Domande e risposte

L’esplorazione di Giove

La vita tra Terra e Marte

4
Nel prossimo volume
In copertina: NGC1097 è una splendida galassia a spirale barrata vista
quasi perfettamente di fronte. Difficile da osservare dalla nostre latitudini, è
un oggetto spettacolare dalle località poste più a sud. Questa straordinaria
ripresa è stata ottenuta da Federico Pelliccia attraverso un telescopio da mezzo
metro di diametro sotto i cieli scurissimi dell’Australia.

5
Presentazione
A grandi passi verso la fine del percorso, cominciamo a
concretizzare tutto quello che abbiamo visto nei volumi
precedenti.
Ecco allora che nella categoria neofiti è arrivato l’atteso
momento di prendere in mano il nostro telescopio e cominciare a
fare un po’ di pratica con l’osservazione astronomica, che entrerà
poi nel vivo nei prossimi due volumi.
Per gli amanti della fotografia planetaria concluderemo il
discorso presentando qualche tecnica di elaborazione insieme ai
programmi più utilizzati da tutti gli astroimager.
Nello spazio dedicato alla ricerca avremo a disposizione
molte informazioni su come affrontare in modo serio, semplice e
divertente l’astrometria. Questo ci darà le potenzialità per
contribuire a progetti di ricerca insieme ai professionisti.

Passando nella parte più teorica, ci getteremo subito in uno


degli argomenti più interessanti, ma ahimè anche più difficili da
comprendere. Parleremo infatti delle ipotesi attualmente più
convincenti sul destino dell’Universo. Trascurando formule e
pensieri contorti, probabilmente rimarremo sconvolti e tristi dello
scenario che al momento sembra essere il più probabile sulla fine
del Cosmo. Per fortuna che si tratta ancora solo di una teoria e
come tale lungi dall’essere confermata.
Ci alleggeriremo la coscienza sorvolando insieme alle
gloriose astronavi degli anni 70 e 80 il gigante incontrastato dei
pianeti: Giove.
Poi torneremo più vicini alla Terra parlando di nuovo di
Marte e del nostro pianeta. Andando a ritroso nel tempo fin quasi

6
agli albori del Sistema Solare, potremo assistere a un
insospettabile scambio di informazioni tra i due pianeti che
potrebbe aver influenzato profondamente l’intera storia della vita.

Daniele Gasparri
Dicembre 2013

7
Neofiti

In questa sezione, che verrà estratta dai miei libri: “Primo


incontro con il cielo stellato” e “Che spettacolo, ho visto
Saturno!”, affronterò insieme a tutti gli appassionati il difficile
ma appassionante cammino verso l’osservazione consapevole
dell’Universo e dei fantastici oggetti che ci nasconde.
Si tratta di un vero e proprio corso di astronomia di base, che
parte dalle fondamenta per giungere, con la dovuta calma e
pazienza, alla scelta del telescopio e ai consigli sugli oggetti

8
celesti da osservare.
Per ora limitiamoci a familiarizzare con l’astronomia, a capire
di cosa parla e quali corpi e fenomeni troverete lungo il cammino.
Un consiglio prima di iniziare: preparatevi a grandi sorprese!

9
Iniziamo a osservare con il telescopio
Acquistato lo strumento che più risponde alle nostre esigenze
e apprese le basi per la sua cura, siamo finalmente pronti per le
prime osservazioni telescopiche.
L’osservazione al telescopio non è come guardare un video su
YouTube, è qualcosa che ha il sapore del passato, che mette alla
prova i vostri sensi, la vostra abilità e la voglia di conoscere e
scoprire il mondo con le vostre forze.
Non è esagerato affermare che l’osservazione visuale sia un
vero e proprio stile di vita. Il cielo ha i suoi ritmi, i suoi tempi,
spesso estremamente diversi da quelli frenetici cui siamo abituati.
L’osservazione del cielo è quindi qualcosa nella quale ci si deve
immergere completamente, qualcosa che si deve vivere,
dimenticando la realtà di tutti i giorni e tutto ciò cui la frenetica
società commerciale attuale ci ha abituato.
Uno dei problemi più grandi dei principianti che si
avvicinano all’osservazione telescopica è causato dalle
aspettative.
Ci si aspetta che puntare gli oggetti celesti sia facilissimo; ci
si aspetta che le immagini che si possono osservare siano uguali
alle centinaia di foto che è possibile ammirare su libri, riviste,
internet. Non è così: osservare il cielo non è come vedere
un’immagine, ne a livello di dettagli, ne per quanto riguarda la
comodità e le sensazioni.
Trovare gli oggetti celesti non è semplice, sebbene abbiate a
questo punto acquisito una discreta padronanza del cielo; le
prime volte forse vi occorreranno parecchi minuti per trovare un
pianeta o una nebulosa. Quando finalmente avrete trovato
l’oggetto, la prima impressione sarà deludente: il pianeta vi

10
apparirà piccolo e indistinto, la nebulosa vi sembrerà
debolissima.
Non dovete scoraggiarvi.
L’abilità nel trovare nel minor tempo possibile gli oggetti e
l’acutezza visiva necessaria per osservare qualcosa di più di un
disco informe o una pallida nebbiolina, sono aspetti che fanno
parte dell’osservazione astronomica e che la rendono una
disciplina nella quale crescere, maturare e mettere alla prova le
vostre capacità. Se la vostra idea di divertimento si limita al voler
vedere gli oggetti celesti come appaiono in foto, subito e senza
problemi, allora vi consiglio lo schermo di un computer e una
ricerca in internet.
Se la vostra idea di divertimento è più profonda e prevede il
contatto con il cielo, il gusto dell’esplorazione, la sfida nel
cercare dettagli apparentemente impossibili, allora avete scelto la
strada giusta.
Il divertimento nell’osservazione astronomica non è
unicamente nella spettacolarità dell’oggetto, ma soprattutto nelle
emozioni, nel contorno e nel clima offerto dalla contemplazione
del cielo.
Immaginate per un momento ciò che state realmente
osservando. Quel piccolo puntino indistinto può essere un
pianeta distante più di quanto la vostra mente sia in grado di
immaginare; un corpo celeste esterno al nostro mondo che
condivide con noi la luce infinita della nostra piccola Stella.
E quando vi spingete oltre questo che è considerato il nostro
vicinato cosmico, verso altre stelle, o meglio, verso altri oggetti
formati da centinaia o migliaia di stelle, capirete che la Terra è
solo un piccolo punto indistinto in un Universo che è possibile
esplorare con il proprio telescopio. Potrete scegliere di prendere

11
questa astronave e volare tra l’immensità del cielo, fermarvi ad
ammirare ogni tanto le meraviglie delicate che si stagliano contro
il nero dell’ignoto, quadri dalla bellezza indescrivibile,
impossibile da raccontare con semplici parole, impossibile da
capire se non si ha l’occhio all’oculare del proprio strumento e ci
si immerge anima e corpo.
Con l’esperienza vi trasformerete da inesperti e timidi curiosi
del cielo a veri e propri marinai alla scoperta della straordinaria
meraviglia dell’infinitamente grande.

12
Cosa osservare al telescopio
La Luna e i pianeti sono sicuramente i corpi celesti da
osservare per eccellenza e offrono grandi e facili soddisfazioni a
tutti gli appassionati di astronomia alle prime armi (e non solo!).
Spingendoci oltre il nostro Sistema Solare, possiamo però
osservare altre centinaia, anzi, migliaia di altri spettacolari
oggetti.
Le singole stelle non sono interessanti da osservare perché
così distanti da non riuscire a risolvere il loro disco, con nessuno
strumento. Benché un telescopio ve ne mostri qualche milione
sparse in tutto il cielo, ogni stella resterà un puntino, a volte, per
quelle più brillanti, colorato. Sebbene non mostrino dettagli,
qualcuno trova lo stesso terribilmente affascinante osservare la
loro luce, non di rado disturbata dall’atmosfera della nostra Terra.
Osservare la luce di una stella significa toccare con mano le
distanze dell’Universo. Quella debole luce, migliaia di volte più
fioca di una comune lampadina, proviene da un immenso corpo
incandescente e dopo un percorso durato decine di anni nel vuoto
dello spazio, sta entrando nel vostro telescopio. La luce di questa
stella, qualsiasi essa sia, è molto più di semplice luce, è energia, è
vita, è distanza, è pura bellezza che ci fa rendere partecipi di tutto
questo perfetto meccanismo chiamato Universo.
Se avete un buon cielo e ottime capacità visive, potete
cominciare a notare il diverso colore di questi astri, in particolare
di quelli più brillanti della magnitudine 5.
Per osservare le colorazioni delle stelle può essere utile
sfuocare leggermente l’immagine per facilitare il difficile compito
dell’occhio umano. I diversi colori delle stelle, come avete
appreso nelle pagine iniziali, testimoniano diverse temperature

13
superficiali. Le componenti arancio, come Betelgeuse in Orione,
sono relativamente fredde (circa 3000°C), quelle bianche come
Vega, nella costellazione della Lira, sono intermedie (circa
10000°C), mentre quelle azzurre, come Rigel, sempre in Orione,
sono caldissime (oltre 20000°C). Riuscire a capire la temperatura
di una stella semplicemente osservando il suo colore con il vostro
telescopio, non è già una grande emozione?
Oltre alle singole stelle, utili per mettere alla prova lo
strumento appena arrivato e cominciare a immergersi nel cielo più
profondo, vi è tutta una grande famiglia di oggetti diffusi, ovvero
angolarmente piuttosto estesi, spesso più del diametro della Luna
piena vista a occhio nudo. Questi sono gli oggetti per eccellenza
da osservare: nebulose, ammassi stellari, galassie, chiamati anche
oggetti deep-sky (del cielo profondo).
Tutte le nebulose, ammassi aperti e galassie sono piuttosto
deboli: per l’osservazione migliore vi serve assolutamente un
cielo più scuro possibile.
Per osservare con profitto questi oggetti il consiglio è di
spostarvi in una zona priva di luci e osservare quando il cielo è
molto trasparente e in assenza completa della Luna. Migliore è la
qualità del cielo, migliore sarà la visione e i dettagli deboli che
riuscirete a osservare; l’inquinamento luminoso va evitato il più
possibile. Contrariamente ai pianeti e alla Luna, nei quali la luce
è abbondante e tutto ciò che serve è la stabilità atmosferica, gli
oggetti deep-sky sono tutti molto estesi, a volte più della Luna
piena vista a occhio nudo, ma migliaia di volte più deboli. I
luoghi migliori per questo tipo di osservazioni si hanno quindi in
montagna, dove l’aria è estremamente tersa e il cielo è molto più
trasparente che in pianura. Nelle grandi città è praticamente
impossibile osservare gli oggetti deep-sky con profitto.

14
Ma cosa sono gli oggetti deep-sky?
Sono la porta per la conoscenza del nostro Universo,
attraverso il nostro strumento e le nostre forze. Dei disegni
cosmici bellissimi, diversi l’uno dall’altro, dalle dimensioni
variabili tra decine di anni luce e centinaia di migliaia (le
galassie).
Vale la pena ricordare che un anno luce è la distanza percorsa
da un raggio di luce in un anno. Nel vuoto dello spazio la luce ha
una velocità fissata e molto prossima a 300000 km/s, percorrendo
in un anno la distanza astronomica di circa 9500 miliardi di km.
Immaginate quindi questi disegni cosmici così perfetti e delicati
estesi per miliardi di miliardi di km, culla di decine di stelle
simili al Sole e, perché no, di altrettanti pianeti simili alla Terra.
La forma delle galassie, isole di miliardi di stelle, è qualcosa
che non si può dimenticare e lascia letteralmente senza parole
ogni osservatore. Quelle girandole così perfette che presto
analizzeremo sono i mattoni dell’Universo, i luoghi da dove
nascono e si sviluppano tutte le stelle. Ogni galassia contiene in
media 100 miliardi di stelle e si pensa che nell’Universo che è
possibile osservare ne esistano qualcosa come 500 miliardi.

15
Programmare le osservazioni
Ogni serata osservativa, soprattutto se deep-sky, dovrebbe
essere pianificata per ottimizzare il tempo e sapere come
muoversi durante le osservazioni. Il cielo, in effetti, è un luogo
immenso, nello spazio e nel tempo; gli oggetti da osservare sono
potenzialmente migliaia sparsi in ogni costellazione, per questo
motivo serve una minima preparazione alle vostre osservazioni.
Prima di tutto ci si deve procurare un software che preveda
l’aspetto della sfera celeste per un determinato giorno, come
peraltro è stato già detto nel corso di questo volume. Questo
software (io consiglio Cartes du Ciel) è la base per programmare
il vostro viaggio, il navigatore che vi mostrerà quello che si può
osservare, quando e dove.
Se in cielo è presente la Luna, allora ci si deve dirigere gioco
forza sul nostro satellite o sui corpi brillanti, come i pianeti, le
stelle doppie e al limite qualche ammasso aperto. Queste
osservazioni possono essere condotte anche da un cielo non
scuro, quindi non sarà necessario doversi spostare.
Se volete osservare gli oggetti del cielo profondo, è
necessario scegliere un giorno in cui la Luna non dia fastidio (la
settimana a cavallo del novilunio è perfetta), un cielo adeguato e
fare una lista degli oggetti che si vogliono osservare.
Se ci si deve spostare di alcuni chilometri, è meglio andare in
compagnia e portare l’abbigliamento adatto per affrontare il
freddo della notte, sempre presente anche in estate. Fare una lista
degli accessori che servono è molto utile: naturalmente il
telescopio, gli oculari, i filtri, le mappe del cielo da consultare
alla ricerca degli oggetti celesti, una torcia rossa, un po’ d’acqua
(o the e caffè caldi) e cibo per la serata. Le osservazioni saranno

16
molto più piacevoli se starete comodi, al caldo e rilassati, quindi
fate di tutto per ottenere il massimo comfort.
Se si tratta della vostra prima osservazione con il telescopio,
scegliete una lista di oggetti facili da osservare. Nelle notti
primaverili è possibile dirigersi verso le galassie, quali M51,
M63 nei Cani da Caccia, M81-82 nell’Orsa maggiore, l’ammasso
della Vergine, tra la Vergine e il Leone. Nelle notti estive vi potete
gustare molte nebulose e ammassi stellari in piena Via Lattea:
M13, M92 nella costellazione di Ercole sono globulari bellissimi
da osservare. M22, M8, M20 sono oggetti estremamente
interessanti, posti nel Sagittario. Quasi sopra le nostre teste, nella
costellazione della Lira, si trova la planetaria M57; poco più in
basso, nella costellazione della Volpetta, c’è M27, altra nebulosa
planetaria.
In autunno è possibile osservare le Pleiadi (M45) sorgere ad
est, o la grande galassia di Andromeda (M31), facilmente visibile
anche a occhio nudo. In inverno le costellazioni dell’Auriga, di
Perseo e di Cassiopea mostrano molti ammassi stellari aperti,
mentre a cavallo dell’equatore celeste Orione e la sua grande
nebulosa (M42) offrono uno degli spettacoli più belli del cielo.

17
Qualche consiglio per un’osservazione proficua
A prescindere dal tipo di oggetti che state per puntare con il
vostro strumento, qualche semplice consiglio pratico vi eviterà
problemi e delusioni.
Non osservate mai da dietro le finestre o in coincidenza con
forti fonti di calore, come i tetti caldi delle case o una strada
esposta al Sole per tutto il giorno. Evitate anche di osservare
oggetti posti molto in basso sull’orizzonte. Lo scintillio di colori
che spesso vedrete è causato dalla turbolenza della nostra
atmosfera che devia, modifica e attenua la luce di ogni oggetto
posto fuori di essa. Se ammirare con il telescopio una stella bassa
sull’orizzonte può essere affascinante per rimanere rapiti dalla
variazione dei colori prodotti dall’atmosfera terrestre, una
proficua osservazione dello spazio profondo deve essere fatta
minimizzando questo disturbo, ergo dirigendovi verso oggetti alti
sull’orizzonte.
Scelti gli oggetti da osservare e la serata adatta, portate fuori
il telescopio almeno un’ora prima di iniziare, con le ottiche
ancora coperte. Questo tempo di acclimatamento serve alle
ottiche a raggiungere la temperatura dell’ambiente e fornire
immagini di elevata qualità.
Se avete una montatura equatoriale potete fare lo
stazionamento mentre aspettate.
Allineate il cercatore e controllate la collimazione, se
intendete osservare i pianeti o se notate immagini di scarsa
qualità. Mettete a portata di mano tutti gli accessori che vi
serviranno, in particolare gli oculari.

18
Osservare, non vedere
C’è una bella differenza tra vedere e osservare.
L’osservare un oggetto implica attenzione ai dettagli, alle
deboli sfumature, ai contrasti al limite della percezione, ben
lontano dal semplice vedere senza alcuna attenzione.
L’osservazione telescopica deve essere condotta con calma,
pazienza, comfort e attenzione. Ogni oggetto alla prima occhiata
vi sembrerà piccolo, debole e povero di dettagli; uno sguardo più
attento vi rivelerà invece molto di più. In un certo senso,
l’osservazione è più proficua quanto maggiore sono calma e
rilassatezza dell’osservatore.
L’occhio deve essere allenato osservazione dopo
osservazione.
Non vi scoraggiate se le prime osservazioni saranno
difficoltose, se trovare ogni oggetto celeste sembra di una fatica
estrema: la pazienza è la vostra arma, nessuno nasce già in grado
di fare perfettamente qualsiasi compito.

19
Annotare e disegnare
Imparate a tenere un diario delle osservazioni, ad annotare gli
oggetti visti, le impressioni, la qualità del cielo, eventuali
curiosità. Prendere appunti mentre si è al telescopio è un ottimo
modo per ordinare e dare maggiore significato al tempo speso
all’oculare dello strumento. Abituatevi anche a disegnare gli
oggetti e i dettagli che osservate. Non sono necessari talenti
particolari, solamente una matita e un foglio di carta.
Naturalmente i disegni vanno fatti al buio o con la luce della
vostra lampada rossa, per non rovinare l’adattamento dell’occhio.
I vostri disegni e annotazioni sono un ottimo strumento per
fare esperienza e per notare i miglioramenti che farete nel tempo,
nonché per scoprire tutte le meraviglie dell’Universo.

I primi disegni e osservazioni di un astrofilo alla scoperta dell’Universo.


La grande nebulosa di Orione, con il trapezio centrale circondato da una tenue
nebulosità azzurro-verde.

20
Disegno di Marte eseguito osservando all’oculare di un rifrattore da 90
mm f10. Nell’osservazione dei pianeti è necessario annotare l’orario in tempo
universale (TU, orario di Greenwich).

La prima osservazione di Saturno non si può certo dimenticare; gli anelli

21
sono incredibili da osservare, anche se molto difficili da disegnare! Telescopio
rifrattore da 90 mm f10.

22
Il puntamento degli oggetti celesti

Centrare gli oggetti nell’oculare del telescopio è forse


l’operazione più difficoltosa da affrontare all’inizio.
Avete già imparato che per puntare gli oggetti celesti bisogna
utilizzare il cercatore, il piccolo cannocchiale montato in
parallelo al vostro telescopio.
Il cercatore, però, va prima allineato, puntando un lontano
oggetto con lo strumento principale.
L’allineamento preciso del cercatore è un’operazione
fondamentale, che fa la differenza tra il rintracciare con facilità o
non trovare affatto tutti gli oggetti celesti.
Ma il cercatore a volte può non essere sufficiente; ed ecco che
dobbiamo inventarci altri metodi per trovare l’oggetto che
vogliamo osservare.

23
Il cercatore si trova parallelo al telescopio. Per puntare gli oggetti deve
essere allineato, muovendo le viti che lo tengono nel suo supporto.

Il puntamento attraverso il cercatore è quello di gran lunga


più utilizzato e immediato da eseguire.
L’allineamento del cercatore è una fase che andrebbe eseguita
di giorno e con calma, almeno per le prime volte.
Puntate un lontano dettaglio di piccole dimensioni con lo
strumento principale e un oculare dal basso ingrandimento. È
preferibile che il dettaglio sia terrestre, come un lampione, un
campanile, un’antenna, in modo da non dover considerare il moto
di rotazione della Terra. Spegnete eventuali motori, che non vi
serviranno, serrate bene gli assi della montatura affinché non si
sposti durante la fase di allineamento. A questo punto osservate

24
nel cercatore. Al centro del crocicchio dovrebbe esserci ciò che
vedete al centro dell’oculare, ma quasi sicuramente non sarà così.
Se questo è il vostro caso, muovete le viti che lo serrano (3 o 6)
fino a quando il centro del cercatore inquadra lo stesso dettaglio
puntato con il telescopio.
La prima fase dell’allineamento è compiuta, adesso bisogna
affinarlo inserendo nel telescopio un oculare dall’elevato
ingrandimento, attorno alle 150 volte.
La procedura è la stessa: ponete il dettaglio inquadrato al
centro dell’oculare e fate in modo, agendo sulle viti di
regolazione, che si venga a trovare esattamente al centro del
reticolo del cercatore. Raggiungere un’ottima precisione è
fondamentale nelle successive fasi di puntamento degli oggetti
celesti.
Una volta allineato con precisione, non toccate più le viti o il
cercatore stesso: quelli che equipaggiano i telescopi economici
tendono a disallinearsi con facilità, quindi meglio evitare urti o
movimenti improvvisi. È consigliato controllare l’allineamento
all’inizio di ogni sessione osservativa, perché quando il
telescopio viene riposto in casa non è raro che si disallinei
leggermente.
Un cercatore ben allineato permette di puntare tutti gli oggetti
che sono visibili a occhio nudo o attraverso le sue lenti, quindi
tutti quelli più brillanti della magnitudine 8. In queste situazioni,
per trovare e puntare un oggetto possiamo dirigerci direttamente
su di esso, magari aiutandoci con una mappa.
Ben più difficile la situazione quando non si hanno punti di
riferimento, o quando il corpo celeste da puntare non è visibile
attraverso le piccole lenti dei cercatori e non disponiamo di una
montatura con puntamento automatico.

25
In questi casi abbiamo due tecniche di puntamento, una più
pratica, l’altra più complessa.

Quando un dettaglio terrestre centrato nell’oculare è anche al centro del


crocicchio del cercatore, allora esso è allineato e può essere utilizzato per
puntare gli oggetti celesti.

Lo star hopping prevede di raggiungere un oggetto non


visibile attraverso le lenti del cercatore avvicinandosi passo-
passo, saltando di stella in stella. Questa è la tecnica più
utilizzata ed efficace per trovare gli astri. Aiutandosi con una
mappa si individua e si punta con il cercatore la stella visibile a
occhio nudo più vicina all’oggetto da osservare e la si pone al
centro del campo del telescopio, utilizzato con l’oculare dal

26
minor ingrandimento e maggior campo. A questo punto,
aiutandosi con le stelle che si vedono nel cercatore, è possibile
trovare la posizione dell’oggetto da puntare interpretando
attentamente le mappe celesti in nostro possesso. Generalmente il
punto è facile da individuare se si conosce il campo inquadrato
dal cercatore e si è in grado di orientarsi tra le stelle visibili. È
importante che le mappe in vostro possesso siano particolarmente
precise e mostrino stelle oltre la sesta magnitudine. In questo
modo si troveranno sempre due stelle abbastanza vicine
all’oggetto per stimare la sua posizione. Quando è stata
individuata, centratela con il cercatore e poi osservate al
telescopio. L’oggetto puntato probabilmente non sarà al centro
del campo dell’oculare, ma quasi sicuramente sarà visibile ai
bordi o nelle immediate periferie.
Questa tecnica di puntamento è molto utile per tutti i corpi
celesti del cielo profondo con magnitudini maggiori della 7,5-8.

Il puntamento attraverso i cerchi graduati si può effettuare


solamente con le montature equatoriali ed è molto utile quando
l’oggetto non è visibile né a occhio nudo né con il cercatore e
non vi sono riferimenti abbastanza precisi per fare lo star
hopping.
Una situazione tipica si ha quando si vogliono osservare
Mercurio o Venere di giorno (perché è possibile!) o quando si
vuole rintracciare un oggetto lontano dal disco galattico, in una
zona nella quale vi sono davvero poche stelle (come succede nei
pressi delle costellazioni dell’Orsa maggiore e del Drago). In
questi casi si sfruttano i cerchi graduati della propria montatura
equatoriale, che possono essere utilizzati come riferimenti
equatoriali previa un’opportuna calibrazione.

27
Il metodo migliore è il seguente.
Puntate la stella visibile più vicina all’oggetto da puntare.
Aiutandovi con la mappa, o con un software per computer di
simulazione del cielo, prendete nota delle coordinate equatoriali
della stella. Muovete i cerchi graduati, facendo attenzione a non
muovere gli assi della montatura, fino a impostare le coordinate
della stella. Serrate le viti dei cerchi, sbloccate gli assi e
muoveteli fino a raggiungere le coordinate dell’oggetto da
puntare.
Se tutto è stato fatto a dovere, e se la precisione dei cerchi
graduati è sufficiente (cosa rara per le montature più
economiche), inserendo un oculare dal grande campo e modesto
ingrandimento dovreste avere l’oggetto quasi al centro o nelle
immediate periferie.
Questa tecnica è utile solamente se la montatura equatoriale è
ben stazionata al polo e se la motorizzazione è attiva: in questi
casi si ottengono notevoli precisioni anche per distanze di 40-50°
rispetto alla stella usata per la calibrazione.

28
In tutte le montature equatoriali sono presenti i cerchi graduati per
puntare gli oggetti celesti utilizzando le coordinate equatoriali.

Il puntamento automatico si effettua con le montature

29
(equatoriali e altazimutali) che possiedono un sistema atto a
questo scopo, detto anche GOTO. Il principio è quello del
puntamento attraverso i cerchi graduati, solamente che il
procedimento viene fatto in automatico dal telescopio dopo
un’opportuna fase di calibrazione, detta anche allineamento. Se
la montatura è stata ben stazionata (nel caso di una equatoriale),
questo metodo è piuttosto preciso e sicuramente il più veloce,
sebbene, ma questo è un parere del tutto personale, non molto
divertente.

30
L’orientazione delle immagini telescopiche
Le immagini prodotte da ogni telescopio (e ogni strumento
ottico senza elementi correttivi) si presentano sottosopra, ovvero
ruotate di 180°. Questa caratteristica è del tutto normale e non
deve far pensare che il proprio strumento non funzioni
correttamente.

Senza alcun accessorio aggiuntivo le immagini si presentano sotto-sopra,


ovvero ruotate di 180°. Con il diagonale a specchio sono invertite; sono dritte
solo con un raddrizzatore d’immagine.

Quando osserviamo gli oggetti del cielo, questa particolare


proprietà di tutti i sistemi ottici non da alcun problema, poiché i

31
riferimenti “sotto” e “sopra” sono propri delle situazioni terrestri:
nel cielo e nello spazio non esiste un sotto e un sopra, non c’è
un’orientazione preferita delle immagini che vediamo.
Qualora fosse strettamente necessario, abbiamo visto che
esistono degli elementi ottici aggiuntivi che provvedono a
correggere l’orientazione dell’immagine. I diagonali a specchio
raddrizzano l’immagine nel verso nord-sud, deviando il fascio
ottico di 90°. L’osservazione con il diagonale a specchio è quindi
anche più comoda rispetto alla classica, soprattutto con telescopi
con fuoco posteriore. Il diagonale a specchio, come tutti gli
specchi, inverte l’immagine nel senso est-ovest.
Esistono speciali accessori, chiamati raddrizzatori totali di
immagini, che allo specchio sostituiscono dei prismi, per
raddrizzare completamente l’immagine. L’utilizzo di questo
accessorio è giustificato solo quando si osservano panorami
terrestri, ed è sempre sconsigliato sul cielo. Il diagonale a
specchio o il raddrizzatore totale raramente possono essere
utilizzati sui telescopi Newton, a causa delle loro proprietà
costruttive. In effetti, i Newton sono telescopi unicamente
astronomici, mentre tutti gli altri, con questi accessori, possono
essere utilizzati con profitto anche nelle osservazioni terrestri.
Capire la giusta orientazione delle visioni che abbiamo
all’oculare di un telescopio è molto importante per orientarci,
puntare gli oggetti e osservarli con maggiore profitto.
Per le prime osservazioni vi consiglio di non introdurre alcun
elemento correttivo e lasciare le immagini capovolte. Le prime
volte dovremmo prendere mano con questo strano modo di
osservare, soprattutto nella fase del puntamento. Anche nel
cercatore, infatti, le immagini sono capovolte: questo significa
che se ci dobbiamo spostare verso destra, nel cercatore vedremo

32
le immagini scorrere al contrario, da destra verso sinistra.
Per puntare una stella che si trova più in alto di un’altra
spostiamo il telescopio verso l’alto, ma se guardiamo nel
cercatore si ha la sensazione di andare verso il basso. Se nello
stesso campo inquadrato dal cercatore abbiamo più stelle, quelle
più in alto si trovano, in realtà, più in basso, quelle più a destra
sono in realtà più a sinistra.
In ogni caso, per trovare una stella a destra di un’altra dovete
sempre spostare il telescopio verso destra, non facendovi
ingannare dalla visione nel cercatore. Le direzioni celesti restano
sempre le stesse, a prescindere dal tipo di visione nello
strumento. Capire questo comportamento è più facile con un po’
di pratica che con le parole e vi sarà molto utile per orientarvi e
puntare correttamente gli oggetti.
Un piccolo trucco è molto utile nelle prime esperienze:
quando dovete centrare gli oggetti con il cercatore, con un occhio
osservate dentro e con l’altro, contemporaneamente, osservate il
cielo per orientarvi correttamente tra le stelle.
L’orientazione delle immagini è importante anche quando
siamo al telescopio e magari vogliamo disegnare o annotare con
cura le nostre osservazioni. In questi casi non bisogna riferirsi al
proprio orizzonte, ovvero alle direzioni alto-basso e destra-
sinistra, piuttosto ai punti cardinali celesti, ovvero il polo nord
celeste (la stella Polare), il sud celeste (il meridiano degli astri),
l’est e l’ovest.
Capire la giusta orientazione non è semplice; aiutiamoci con
un esempio.
Supponiamo di osservare un oggetto posto sull’equatore
celeste, all’istante del passaggio in meridiano. Per le località
italiane, questo oggetto avrà un’altezza pari a circa 45° e si

33
troverà verso sud. Un ottimo punto di riferimento può essere la
nebulosa di Orione osservata alle 23 locali del 15 Gennaio di
ogni anno. All’instante del passaggio in meridiano, il polo nord
celeste si trova esattamente dietro, il sud è di fronte, l’est a
sinistra e l’ovest a destra. Al telescopio l’immagine è ruotata di
180°, quindi il sud si troverà in alto, il nord in basso, l’est a
destra e l’ovest a sinistra.
Determinare l’orientazione degli oggetti in meridiano è
semplice, perché le coordinate celesti sono uguali a quelle locali
dell’osservatore.
Quando una costellazione non si trova in meridiano, essa
appare ruotata rispetto al nostro orizzonte, ma non lo è rispetto ai
punti della sfera celeste.
Se non stiamo osservando in meridiano, il nord e il sud
celesti nell’oculare del telescopio non saranno né in alto, né in
basso rispetto a noi, ma inclinati. Se sapete dove si trovano i
punti cardinali celesti, sarete in grado di orientare correttamente
ogni immagine.
Se possedete una montatura equatoriale, rintracciare i punti
cardinali celesti è molto semplice. L’asse di declinazione si
muove sempre verso il polo nord e il polo sud celesti, quindi
muovendolo leggermente sapete riconoscere l’orientazione di
questi due punti. L’asse di ascensione retta si muove sempre
verso l’est e l’ovest, quindi un piccolo spostamento vi farà
individuare la retta dove posizionare questi due punti cardinali.
Orientare correttamente le immagini è molto importante nelle
osservazioni delle stelle doppie. L’angolo di posizione,
caratteristica di tutti i sistemi doppi, è la distanza angolare tra le
stelle e il polo nord celeste. Se riusciamo a individuare e misurare
questo angolo, anche in modo approssimato, possiamo dare

34
maggiore valore alle nostre osservazioni, perché facilmente
verificabili.

Orientare correttamente le proprie osservazioni è un ottimo metodo per


tenerle in ordine e per confrontarle con quelle di altri osservatori o degli
atlanti celesti.

Nelle osservazioni planetarie si è soliti riferire l’orientazione


dell’immagine rispetto al pianeta stesso, identificando il suo polo
nord e il suo polo sud.
Nella visione telescopica, quindi invertita, i pianeti brillanti,
quando raggiungono il meridiano, presentano il sud in alto
rispetto all’orizzonte dell’osservatore e il nord in basso. Per l’est
o l’ovest bisogna chiarire le cose: se ci riferiamo ai punti
cardinali della sfera celeste o ai punti cardinali del pianeta.

35
Generalmente ci riferiamo proprio a questi; per non essere
ambigui si è soliti identificare il bordo P, ovvero quello che
precede, e il bordo S, quello che segue. In altre parole, al posto
dell’est o dell’ovest si identifica il verso di rotazione del pianeta.
La rotazione dei pianeti si compie dal bordo S a quello P;
non a caso P acquista il significato di precedere la rotazione
planetaria rispetto al bordo S che lo segue.
Per Marte, Giove, Saturno e Mercurio la rotazione si compie
come per la Terra. Secondo la visione telescopica, quindi, se il
sud planetario è in alto, il bordo P si trova a sinistra, quello S a
destra e la rotazione si compie in senso orario. Per avere le idee
più chiare basta osservare come si muovono due particolari nel
corso di una ventina di minuti e identificare senza dubbio il
bordo S (dove si trovano prima) e P (dove si sono diretti nel
corso del tempo).

36
L’orientazione delle immagini planetarie prende in esame i poli del
pianeta e il senso della rotazione, che si compie dal bordo S a quello P (in
questo caso in senso orario).

37
Costellazioni

Questa rubrica è tratta dal libro: “La mia prima guida del
cielo”.
Se avete un telescopio, magari da poco tempo, e volete
cercare degli oggetti che non sapete come trovare, questa è la

38
sezione che fa per voi.
Ogni mese, compatibilmente con il periodo dell’anno in cui
verrà rilasciato il nuovo numero, troverete uno zoom su due
costellazioni interessanti, con una mappa contenente stelle fino
alla magnitudine 7 e oggetti fino alla magnitudine 11, una breve
descrizione, un cenno ai racconti mitologici (qualora presenti) e
una lista, completa di immagini e disegni, degli oggetti del cielo
profondo più facili da osservare.
Tutti gli oggetti deep-sky elencati sono alla portata anche di
un piccolo strumento da 10 centimetri di diametro, e se avete una
buona vista e un cielo scuro anche di un classico binocolo
10X50.
Non troverete immagini professionali, ma spesso disegni
effettuati da altri osservatori con telescopi amatoriali. In questo
modo spero di evitarvi il pericolo più grande dell’astronomia
pratica: creare false aspettative.
L’osservazione visuale, infatti, non è neanche lontana parente
della fotografia astronomica, in particolare per quanto riguarda i
colori, invisibili quasi completamente con qualsiasi telescopio si
osservi. Ma l’idea di poter osservare con i propri occhi, attraverso
il proprio strumento, e quasi toccare quell’indistinto batuffoletto
irregolare, che in realtà è un oggetto reale, posto a distanze
inimmaginabili e di dimensioni inconcepibili appartenente a un
Universo meravigliosamente perfetto, regala una soddisfazione
che nessuna macchina fotografica o schermo di computer
potranno mai regalare, né ora, né mai.

39
In meridiano alle
Auriga – 22 del 20 Dicembre
Cocchiere

40
41
Descrizione
Auriga, secondo le leggende greche, era un cocchiere che
trasportava sulle spalle una capra e in una mano due capretti.
Questa figura veniva identificata con Eretteo, figlio di Efesto, il
dio del fuoco che si era costruito un carretto per trasportare il
suo corpo malridotto.
Auriga è una costellazione invernale, facile da individuare,
situata in piena Via Lattea. È dominata da Capella, una stella
molto brillante simile al Sole, sebbene più grande, distante 50
anni luce. La costellazione contiene molti ammassi stellari e
nebulose.

42
Oggetti principali
M36: Ammasso aperto 5° a sud-ovest di Capella (la stella
alpha), molto bello con un binocolo e qualsiasi telescopio a bassi
ingrandimenti, strumenti che vi mostreranno una sessantina di
stelle di circa magnitudine 8.

M37: Ancora più grande ed esteso di M36, questo ammasso


aperto può essere addirittura avvistato a occhio nudo come una
debole condensazione. Esteso più del diametro apparente della
Luna, mostra i suoi dettagli a tutti gli strumenti astronomici, a
patto di usare ingrandimenti inferiori alle 100 volte.

M38: Ammasso aperto più piccolo, compatto e debole degli


altri due. È facile da individuare con un binocolo ma per essere
risolto in stelle richiede un telescopio, anche di modesto
diametro, ad esempio 100 mm.

43
L’ammasso aperto M37 osservato con un piccolo telescopio.

44
In meridiano alle
Gemini – 22 del 1 Febbraio
Gemelli

45
46
Descrizione
I gemelli Castore e Polluce erano gli eroi greci che seguirono
Giasone alla ricerca del vello d’oro. Durante una tempesta essi
salvarono anche la nave Argo dal naufragio. Le due stelle più
luminose sono proprio i due gemelli Castore (α) e Polluce (β).
Costellazione zodiacale facile da identificare nel cielo invernale.

47
Oggetti principali
Castore: La stella è in realtà un sistema multiplo formato
da ben sei stelle, di cui tre visibili al telescopio. Le due
componenti principali hanno magnitudini di 1,9 e 2,8, separate
da appena 2,5”. La terza componente, di magnitudine 9,3, si trova
a circa 70”. Tutti gli strumenti mostrano quest’ultima, ma
solamente telescopi dai 100 mm in su, utilizzati a forti
ingrandimenti, mostrano le due stelle principali.

M35: Ammasso aperto brillante e suggestivo attraverso un


binocolo da almeno 50 mm di diametro e 10 ingrandimenti.
Stupendo con ogni telescopio, dal più piccolo al più grande, a
patto di non eccedere con gli ingrandimenti.

NGC2158: Altro ammasso aperto, “fratello minore” di M35.


È uno dei più distanti, essendo posto a circa 16000 anni luce. Per
risolverlo in stelle occorre uno strumento da 120-150 mm e medi
ingrandimenti (100X).

NGC2392: Nebulosa planetaria dal diametro di circa 40”,


simile al diametro apparente medio di Giove. L’osservazione
attraverso ogni telescopio mostra un bel gioco di colori: la
nebulosa appare di una tenue tinta blu-verde, mentre la stella
centrale è bianca.

48
L’ammasso aperto M35 visto con un telescopio da 200 mm. In basso a
destra la piccola sagoma del debole globulare NGC2158.

49
Astrofotografia

Questa classica sezione sarà il contenitore nel quale


convoglieranno preziosi consigli su come intraprendere la
difficile ma estremamente appagante strada della fotografia
astronomica.
Inizieremo dal basso, da alcune semplici applicazioni, per poi
giungere, insieme, alle tecniche necessarie per ottenere le
splendide immagini che è possibile ammirare in rete.
Se volete approfondire vi consiglio il libro: “Tecniche,
trucchi e segreti dell’imaging planetario” per la fotografia dei
pianeti, o: “Tecniche, trucchi e segreti della fotografia
astronomica” per riprendere nebulose, galassie e ammassi stellari,
con o senza telescopio.

50
Tecnica di elaborazione delle immagini planetarie
Il procedimento che trasforma i singoli fotogrammi di un
video di un pianeta nell’immagine raw da elaborare è
soprannominato stacking, termine inglese che significa
letteralmente “impilamento” e caratterizza la fase in cui i migliori
frame di un video planetario vengono allineati gli uni sugli altri e
poi mediati.
Una corretta fase di stacking è importante tanto quanto la
ripresa, ma fortunatamente dipende da molte meno variabili e non
è di certo influenzata dall’imprevedibilità e spesso sadismo del
seeing atmosferico!
In altre parole: dipende tutto da noi.
Come si effettua la scelta dei migliori fotogrammi e il
successivo step di allineamento e somma? Agli albori
dell’astroimaging in alta risoluzione, a cavallo del nuovo
millennio, spesso si doveva fare quasi tutto a mano, soprattutto la
tediosa operazione di visualizzazione e selezione dei frame. In un
filmato che ne contiene almeno un migliaio, si capisce come la
nostra salute mentale possa essere messa a rischio. Ora
fortunatamente possiamo star tranquilli, perché ci sono dei
software, per di più gratuiti, che effettuano tutto il lavoro sporco
al posto nostro, a patto di saperli configurare.
I programmi più utilizzati sono pochi: IRIS, riservato ai
nostalgici della riga di comando, Registax, il migliore fino a poco
tempo fa, Autostakkert, una new entry rivoluzionaria quanto a
velocità e semplicità, e Avistack, riservato alle elaborazioni solari
e soprattutto lunari.
Del programma IRIS ne sentiremo parlare molto, ma ormai
per la fase di stacking è obsoleto e inutilmente macchinoso.

51
Molti astroimager hanno utilizzato Registax per molto tempo,
ma con le recenti versioni il programma è diventato
inspiegabilmente complesso e inaffidabile. L’ultima versione user
friendly e pienamente efficiente è la numero 5, ancora reperibile
in rete.
Autostakkert, giunto alla versione 2, è il software più
semplice, veloce e affidabile, ormai utilizzato da tutti i più
importanti astroimager per effettuare la fase di stacking. L’unico
difetto, se così vogliamo chiamarlo, è che non permette la
successiva elaborazione dell’immagine raw creata, che quindi
deve essere aperta e processata con altri software, tra cui Registax
o IRIS.
Tutto molto interessante (spero!), ma come si usano questi
programmi?
Per una descrizione del funzionamento i relativi tutorial sono
ideali e quindi non ne creerò di nuovi qui. Noi però adesso
andremo a vedere quali sono i comandi da capire e come ottenere
senza troppi fronzoli le nostre immagini raw.

52
Lo stacking con Registax
Il funzionamento del programma liberamente scaricabile da
questo indirizzo:
http://www.astronomie.be/registax/download.html.
è relativamente semplice. Per la sua maggiore affidabilità e
semplicità qui utilizzerò esempi tratti dalla versione 5. I concetti
di base restano gli stessi anche per le successive, ma a mio avviso
non conviene utilizzarle.
Il programma è suddiviso in schede che si attivano solo
quando sono stati completati i passi minimi richiesti. Nella
principale si deve prima di tutto selezionare il proprio filmato che
può essere in formato .avi a 8 bit, in .ser a 12 bit oppure una
sequenza di immagini di tutti i tipi. Non è mai conveniente
riprendere sequenze di immagini, ma se per qualche motivo ne
abbiamo, Registax non si fa problemi.
Completata l’operazione nell’area principale compare il
primo frame della sequenza. Scorrendo a destra o sinistra con le
frecce è possibile visionare l’intera sequenza. In alternativa si può
muovere con il mouse il piccolo cursore in basso, sopra la scritta
“frames” che corre da destra a sinistra per quasi l’intera finestra
del programma. Oltre a visionare il filmato, la visualizzazione
della sequenza serve per il primo punto fondamentale: la scelta di
quello che è chiamato “Best frame”, ovvero l’immagine singola
migliore della sequenza. È l’operazione sicuramente più delicata
perché il programma, in base alla nostra scelta, andrà poi a
calcolare la qualità di tutti gli altri frame, quindi a mediare solo i
migliori. Ma se il frame che scegliamo come riferimento è
rovinato dal seeing, la qualità dell’intera fase di stacking
potrebbe risultare compromessa.

53
Prendiamoci del tempo per selezionare un fotogramma che ci
appare ricco di dettagli e non distorto dal seeing: ne vale
sicuramente la pena.
Ora dobbiamo fare un po’ di chiarezza sui parametri da
regolare nei menu a sinistra. Per le prime applicazioni (a dire la
verità vale quasi sempre) possiamo lasciare quasi tutto di default.
Personalmente cambierei solamente qualcosa nel menu “quality
settings”, nel quale al posto del metodo “Gradient” preferirei
quello “Classic”. In realtà alcuni astroimager preferiscono
proprio il “Gradient”, ma la verità è che poco o nulla dovrebbe
cambiare. Di cosa si tratta? Dei metodi che il programma utilizza
per stimare la qualità dei frame. Contrariamente a noi esseri
umani, il computer non vede direttamente il pianeta e non sa
distinguere “a occhio” se un frame è buono oppure no. Servono
dei parametri oggettivi, dei numeri o delle funzioni che in
qualche modo descrivono quello che noi inconsciamente
facciamo per capire se un fotogramma è buono oppure no.
In rete si trovano diverse discussioni su quale sia il metodo
migliore; personalmente con il “classic” non ho mai avuto
problemi, a patto di selezionare nella scheda laterale del “quality
settings”, nel menu “quality filter” i valori Start = 1, Width = 6
per il “Classic” e Start = 4 per “Human”. Tornando nella scheda
Alignment Options l’altro parametro da regolare è la “Lowest
quality” all’interno del menu “Quality settings”. Senza scendere
troppo nei dettagli, questo valore dice al programma qual è la
differenza massima di qualità tra i frame che possiamo tollerare.
In pratica dice al programma quali fotogrammi utilizzare per
l’allineamento e la media e quali invece scartare. Questo è
sicuramente un parametro fondamentale, perché un’ottima
immagine RAW deve essere composta solamente da frame non

54
rovinati dalla turbolenza, scartando accuratamente quelli invece
che presentano evidenti distorsioni e dettagli sfocati. Registax, se
opportunamente impostato, fa la selezione al posto nostro,
evitandoci un lavoro abnorme e incommensurabilmente noioso.
Generalmente il valore di default è 80; meglio lasciarlo così,
tanto poi si potrà muovere a piacimento osservando direttamente i
frame.
Prima di dare il via all’allineamento, meglio spuntare
l’opzione “Registration graph” nella lista delle opzioni
disponibili in alto, proprio sopra la sequenza dei fotogrammi.
Questa operazione è da ripetere una sola volta e ci fa comparire
un grafico che sarà molto utile tra poco.
Personalmente selezionerei anche l’opzione “Frame list”,
sempre in alto, che fornisce la lista di tutti i fotogrammi del
video. Ma non si tratta di un mero elenco. Nel riquadro infatti
possiamo deselezionare manualmente tutti i frame che vogliamo.
Questa operazione è spesso superflua, ma nel caso in cui il video
per brevi istanti è risultato disturbato a causa di una nuvola, di un
tocco dato accidentalmente al telescopio, di vibrazioni o
problemi ai motori, può risultare utile deselezionare i frame
coinvolti per evitare che il programma incontri problemi di
allineamento e fallisca. Il consiglio è semplice: tutti i movimenti
improvvisi e i sobbalzi che spostano l’immagine di diverse decine
di pixel vanno eliminati. Se il corpo celeste si sposta
gradualmente il programma non ha problemi, altrimenti potrebbe
non riuscire nell’allineamento.
Bene, siamo quasi pronti per iniziare l’analisi dei frame.
Torniamo di nuovo nei menu a sinistra, sempre all’interno della
scheda “Alignement options” e selezioniamo la dimensione
appropriata del riquadro per l’allineamento, contraddistinto dal

55
menu “Alignbox size”. Di default il valore è impostato a 128 ma
non sempre è corretto. Il riquadro di allineamento è una cornice
che compare quando passiamo il mouse su un qualsiasi punto del
fotogramma che vediamo. Questa indica al programma qual è la
zona da analizzare per effettuare una stima della qualità e
successivamente per allineare. All’interno dovrebbe quindi essere
contenuto tutto il pianeta, o in casi in cui non sia possibile un
particolare significativo. Il box di lato 256 è il più grande
utilizzabile con immagini da 640X480 pixel e va bene nella
totalità dei casi. Se però non è necessario, meglio ripiegare su
una dimensione minore perché il tempo richiesto per
l’allineamento e lo stacking dipende criticamente da quanto è
grande l’area utilizzata. Se il nostro pianeta entra nel box da 128
non c’è motivo per utilizzarne uno da 256.
Bene, ora siamo pronti: clicchiamo al centro del pianeta del
nostro miglior fotogramma, il riquadro si posizionerà, poi
possiamo finalmente dare inizio alle danze premendo il tasto
“Align” in alto a sinistra.

Settaggi del programma Registax per l’allineamento dei frame.

56
Selezionate alcune impostazioni di base citate nel testo, si posiziona il riquadro
di allineamento sul migliore frame del video, che si dovrà scegliere
manualmente, poi si da inizio alla fase di allineamento.

Terminata la fase, nella quale è meglio stare attenti che il


riquadro resti centrato sull’oggetto e non se ne vada a spasso
casualmente (in questo caso dobbiamo rifare tutto, magari
cambiando qualche parametro come le dimensioni del box), il
registration graph si riempie di curve e colori a prima vista
incomprensibili. Per ora ci interessa sapere che l’andamento
verde rappresenta l’andamento della qualità dei fotogrammi,
ordinati in modo che i migliori si trovano a sinistra, i peggiori a
destra. Poniamo l’attenzione sulla barra azzurra verticale. Questa
rappresenta lo sbarramento per la qualità scelta. Tutti i frame a
sinistra saranno utilizzati perché reputati buoni, quelli a destra
verranno scartati e non utilizzati per la media.
La posizione della barra dipende dal valore della qualità che
abbiamo dato prima di sapere effettivamente come il programma
ha valutato i frame. A seconda dei casi, del seeing, della
dimensione dell’immagine, del box di allineamento, del rumore
dei singoli frame, un valore pari a 80 potrebbe andare bene o
meno.
Per capire quale sia il miglior valore abbiamo una tecnica un
po’ macchinosa ma efficace. Il fotogramma che compare ora nella
schermata è in effetti l’ultimo di quelli che verranno selezionati e
si trova quindi al confine con la barra azzurra. Valutando la sua
qualità si può capire se dobbiamo prendere più frame o essere
maggiormente selettivi e scartarne di più. Modificando il valore
della qualità, con il mouse (variazioni di 5 punti) o inserendo
manualmente un numero, visualizzeremo sempre l’ultimo

57
fotogramma prima di tutti quelli scartati e potremo capire,
guardandolo, se è accettabile o meno.

Terminata la fase di analisi dobbiamo regolare la qualità dei frame da


utilizzare e scartare accuratamente quelli sfocati e rovinati dal seeing. Variando
il valore all’interno della finestrella “Lowest quality”, la barra azzurra a destra,
nel “registration graph”, si sposta. A sinistra troviamo i frame migliori, a
destra i peggiori (linea spessa verde), mentre sulla schermata principale è
visualizzato l’ultimo frame prima del troncamento. È sufficiente regolare la
qualità fin quando una variazione di un punto fa la differenza tra un
fotogramma ancora accettabile e uno no. In basso, indicato da una freccia, è
segnato il numero di frame che questa scelta utilizzerebbe rispetto al totale.

Quest’analisi si potrebbe fare anche in seguito al processo di


ottimizzazione, ma facendola ora si può risparmiare molto tempo
perché i frame scartati adesso non verranno più presi in
considerazione.
Trovata una qualità che ci soddisfa, tenendo sempre in
considerazione che dovremmo sommare almeno 300 - 400 frame
per avere una buona immagine, clicchiamo sul pulsante “Limit”,
che si è attivato proprio vicino ad “Align”.
Il programma passa ora alla fase successiva, ma il grosso è

58
fatto. Se la scelta della qualità è stata adeguata e il grafico del
“registration graph” non ha strani picchi verdi verso l’alto, che
significherebbero errori di allineamento difficili da correggere,
possiamo fare l’ottimizzazione e lo stacking insieme, attraverso il
pulsante “Optimize & Stack”. Se vogliamo esaminare ancora il
registration graph prima dello stacking per un migliore controllo
della qualità o escludere eventuali immagini disallineate, allora
meglio cliccare solo su “Optimize”. In ogni caso, prima di dare il
via alla fase scelta, meglio spuntare l’opzione “fast optimizer”
disattivandola.

Durante il processo di ottimizzazione il programma allinea


minuziosamente i dettagli all’interno dei riquadri di allineamento. Per noi non
c’è nulla da fare se non attendere. Ricordiamoci di deselezionare l’opzione
“fast optimizer”, qui indicata con una freccia.

Nel caso in cui abbiamo scelto l’ottimizzazione e lo stacking,


il programma, dopo aver ragionato e lavorato, ci propone
direttamente l’immagine raw, che possiamo salvare o addirittura
elaborare con i filtri disponibili nella nuova scheda che si aprirà.

59
Nel caso in cui abbiamo scelto l’opzione “Optimize”, quando
il programma finirà di lavorare dovremo passare manualmente alla
scheda “Stack” e spuntare di nuovo la voce “registration graph”
sulla sinistra nel menu “stacking options”. Il grafico che si aprirà
sarà uguale a quello visto in precedenza, ma questa volta
possiamo lavorarci direttamente utilizzando gli appositi cursori
adiacenti agli assi. Portando verso sinistra quello sull’asse X si
effettua la solita selezione sulla qualità, scartando tutti quelli a
destra, che vengono ricoperti da una griglia verde. Il frame che
viene visualizzato spostando il cursore è sempre l’ultimo prima
del taglio.
Abbassando invece il cursore sull’asse Y si escludono tutti i
picchi verdi più alti della tendenza media, ovvero i fotogrammi
che per qualche motivo non sono stati ben allineati dal
programma. Di solito questa selezione non è necessaria se si
riprende in condizioni medie, ma può diventarlo nel caso di
folate di vento che hanno mosso l’immagine improvvisamente, di
errori dei motori, di un tocco accidentale dato alla montatura o di
seeing altamente variabile.

60
Se non si decide di fare insieme l’ottimizzazione e lo stacking, per
quest’ultimo sono disponibili altre opzioni attraverso la visualizzazione dello
“Stackgraph”, tra cui una selezione ulteriore della qualità e l’esclusione di
eventuali picchi verdi anomali verso l’alto, che indicano un disallineamento
dei frame a causa del seeing o del programma di acquisizione.

Non ci sono altre opzioni da regolare, possiamo fare


finalmente lo Stack attraverso l’omonimo pulsante in alto a
sinistra e veder comparire l’immagine raw media dei frame
selezionati. Se vogliamo vedere visualmente il programma che
media i fotogrammi basta spuntare l’opzione “Show stacking”
nella lista delle opzioni presenti sopra il riquadro dei frame.
Passando manualmente nella scheda “Wavelets” si può elaborare
l’immagine. Ma di questo parleremo più avanti.

61
A conclusione del processo l’immagine raw del filmato è pronta. Ora
possiamo passare finalmente all’elaborazione, che si potrebbe fare anche con
Registax agendo semplicemente sui wavelet nella parte sinistra.

62
Lo stacking con Autostakkert
Sviluppato dall’astrofilo olandese Emil Kraaikamp, questo
programma semplice e chiaro segue un po’ la filosofia vincente di
Registax: rendere accessibili solamente gli step necessari e
attivare i successivi solo quando si è completata la fase
precedente, ma è molto più semplice, veloce e, sembrerebbe,
affidabile. L’unico problema che ho riscontrato durante l’utilizzo
riguarda l’apertura dei video a 12 bit .ser ripresi con il
programma “Lucam Recorder” che gestisce le camere Lumenera.
Non si sa per quale motivo ma i fotogrammi risultano quasi privi
di segnale, con il pianeta debole e in negativo. Se si vuole
utilizzare il programma è sufficiente convertire la ripresa in un
file .avi a 8 bit, cosa che lo stesso Lucam Recorder permette in
modo piuttosto semplice. Se è necessario conservare la dinamica
(praticamente solo per le riprese di Venere in IR), allora si dovrà
usare Registax. Sono oramai pochi a riprendere con le camere
Lumenera, quindi il problema è quasi trascurabile.
All’apertura della schermata non abbiamo alcuna scelta se
non quella di aprire il nostro filmato. Sulla destra comparirà una
finestra in cui si potranno visualizzare tutti i fotogrammi, che per
il momento sono ordinati secondo la sequenza di acquisizione.
Senza farci distrarre dalle opzioni, che possono benissimo restare
di default (controllare solamente che sia selezionato il metodo
“single” all’interno della finestrella “Alignment points” sulla
sinistra), scorriamo con le frecce o con l’apposito cursore i frame,
selezionando quello che per noi è il migliore. Come in Registax,
questo è un punto fondamentale perché la stima della qualità dei
fotogrammi si basa proprio sulla nostra scelta. Se selezioniamo
un’immagine scadente, allora è molto probabile che lo sarà anche

63
la conseguente versione raw.
Contrariamente a Registax, qui la finestrella di allineamento
la deve disegnare l’utente, e questo secondo me è un vantaggio
perché ci lascia ampia libertà di scelta. Naturalmente la finestra
dovrebbe contenere l’intero pianeta o almeno una porzione
significativa. La finestra viene disegnata partendo dall’angolo in
alto a sinistra. Il primo click del mouse la attiva, un secondo
click, dopo averla sistemata nelle dimensioni volute, la fissa. Se
la posizione non ci piace, basta ripetere l’operazione.
A questo punto, magicamente, nella schermata principale del
programma, a sinistra, si sarà acceso il pulsante “Analyse” e direi
che possiamo cliccarci senza cambiare nessuna delle
impostazioni superiori.

Autostakkert è molto più semplice e veloce. Si apre il filmato, nel


riquadro a destra si sceglie il best frame, si disegna il riquadro per
l’allineamento e poi si clicca su “Analyse” per dare il via alla fase di analisi.

Pochi secondi e il programma finisce il lavoro. Al centro


compare un grafico chiamato “Quality graph” identico a quello di
Registax e in questo momento è il nostro miglior amico. La
differenza è che prima dovevamo andare un po’ per tentativi per

64
vedere a quali frame corrispondeva una qualità non più
accettabile per la somma. In questo caso no, perché senza che ce
ne siamo resi conto, la finestra di destra contenente il filmato è
cambiata: ora i frame sono stati ordinati secondo la qualità, dal
migliore al peggiore. Per capire quanti ne possiamo sommare è
sufficiente scorrere la lista con il mouse o con le frecce e fermarci
al fotogramma prima del punto in cui la qualità non è più
accettabile. Leggiamo la percentuale di fotogrammi inclusi ,
riportata nella finestra contenente il pianeta e poi inseriamo il
valore nella seconda riga di quelle strane finestrelle che vanno
sotto il titolo di “Stack at frame number”.

Dopo l’analisi compare il solito “registration graph” e dobbiamo decidere


noi, scorrendo i fotogrammi del filmato che ora sono ordinati in funzione
della qualità, dove fermarci. Leggendo nella finestra contenente il pianeta la
percentuale di frame, dobbiamo riportarla in una delle finestre della seconda
linea del menù “Stack at frame number”, qui rappresentata con un colore
verde.

Ora siamo pronti per la fase finale: lo stacking. Possiamo


scegliere il formato dell’immagine grezza (tif o png, equivalenti)
e altre proprietà che per molti scopi non servono. Cliccando sul
pulsante “Stack” l’immagine verrà creata e salvata, pronta per

65
essere elaborata con qualsiasi altro programma di elaborazione di
immagini astronomiche.
A questo punto, al di la di preferenze soggettive, quale
programma fornisce risultati migliori?
C’è una vera differenza nel preferire l’uno o l’altro?
Incoraggiato dall’esperienza positiva di molti astroimager ho
effettuato anche io diverse prove e tutte sono andate in una
direzione ben precisa.
Con il filmato che ho utilizzato per gli esempi delle figure
precedenti ho effettuato un confronto elaborando allo stesso
modo l’immagine grezza, dopo essere stata creata dallo stesso
numero di frame con Registax e Autostakkert.
Il risultato parla chiaro ed è evidenziato nell’immagine della
pagina seguente: Autostakkert vince a mani basse.

66
Confronto di resa tra lo stacking attraverso Registax 5.0 (più in alto) e
Autostakkert 2.0 (in basso). L’immagine di Giove è ingrandita del 200%,
proviene dallo stesso filmato ed è stata ottenuta sommando il medesimo
numero di frame: 880 su oltre 4000. Elaborate allo stesso modo, le due
versioni mostrano evidenti differenze. L’immagine ottenuta con Registax
rivela maggior rumore e dettagli meno netti, mentre quella con Autostakkert
evidenzia un segnale migliore, quindi definizione e contrasto superiori. A
parità di granulosità, applicando una maschera sfocata o un filtro wavelet più
intenso quest’ultima mostra dettagli più contrastati e leggermente più fini. Si
tratta di differenze lievi, ma il verdetto è scontato per chi non vuole
compromessi: Autostakkert è attualmente il miglior software di stacking.

67
Dall’immagine raw alla versione wow
Dopo varie peripezie abbiamo finalmente in mano la nostra
immagine grezza, una per ogni filmato che abbiamo ripreso, che
contiene sovrapposti tutti i migliori frame (si spera tanti!) del
nostro prezioso video.
Abbiamo probabilmente terminato la parte più noiosa e
lunga; sicuramente anche quella in cui dei software pensavano al
posto nostro. Ora dobbiamo rimboccarci le maniche, accendere il
cervello e raggiungere il nostro obiettivo: estrapolare tutto il
segnale contenuto ma nascosto in quello che resta del filmato
iniziale, trasformare la nostra immagine raw in una versione
“wow”, che ci faccia rimanere a bocca aperta.
A ben osservare, però, questa fotografia potrebbe deluderci un
po’: sembra molto più sfocata dei frame del video e i dettagli
sono tutti impastati. Ma siamo sicuri di aver fatto il lavoro in
modo adeguato?
Passeranno forse anni prima di dare la giusta fiducia
all’immagine raw, attraversando sicuramente fasi contrapposte
(prima la si sottostima, poi la si sovrastima), ma meglio fidarsi: se
la ripresa è avvenuta con la giusta tecnica, il telescopio era in
ordine, la turbolenza assente (incredibile!) e durante la
registrazione del filmato il pianeta sembrava scolpito, proprio
come quando lo abbiamo osservato all’oculare (perché lo
abbiamo fatto, vero?), allora questa palla informe e sfocata ha
molto da dirci, dobbiamo solamente sapere come muoverci.
Il cuore dell’elaborazione, come è stato accennato nella parte
introduttiva, è l’applicazione di filtri di contrasto di varia natura,
attraverso opportuni software specificatamente progettati per le
applicazioni astronomiche.
Ecco, questo è un punto da chiarire: programmi dedicati al

68
fotoritocco come Photoshop sono adatti solamente per le ultime
fasi più estetiche, da utilizzarsi con molta attenzione e solo dopo
aver maturato una certa esperienza. I dettagli reali si estrapolano
con i software astronomici, non con trucchi da fotoritocco.
Quali sono questi programmi e quali filtri dobbiamo
applicare? E a questo punto, come funzionano? Quante domande!
Ma è normale farsi prendere dall’entusiasmo. Il mio ruolo, però, è
quello di riportare alla calma e cercare di rispondere nel modo
più chiaro possibile una domanda alla volta.

69
I programmi di elaborazione e i filtri di contrasto
I software per l’elaborazione delle immagini in alta
risoluzione non sempre sono gli stessi con cui abbiamo
faticosamente affrontato la fase di stacking. Qualcuno, come
Autostakkert, non lo fa proprio, altri, come Avistack, potrebbero
far di meglio, altri ancora, come Registax, hanno il miglior
compromesso tra facilità d’uso e risultati ottenibili.
Ma se vogliamo ottenere il massimo dalle nostre riprese,
dobbiamo imparare a utilizzare alcune semplici funzioni del
programma più potente attualmente disponibile: IRIS.
Giunto ormai oltre il decimo anno di vita, questo software
gratuito, scaricabile a questo indirizzo:
http://www.astrosurf.com/buil/us/iris/iris.htm è stato
sviluppato da Cristian Buil, astrofilo di grande reputazione.
Accanto a una potenza indiscussa e a centinaia di funzioni, si è
guadagnato con il tempo (non a torto) la poco lodevole fama di
software per astronomi dilettanti più antipatico mai progettato.
L’interfaccia non proprio user friendly e una serie di comandi che
devono essere scritti in un’apposita finestra già difficile da
trovare, sono spesso argomenti più che sufficienti per ripiegare su
software decisamente più semplici, il cui re indiscusso in questa
fase è sicuramente Registax.
Eppure le potenzialità di IRIS sono molto maggiori di
Registax e i risultati, in termini di dettagli e pulizia
dell’immagine, davvero sorprendenti.
Per i nostri scopi, inoltre, sono necessarie tre-quattro
funzioni, tutte o quasi raggiungibili dai classici menu a portata di
mouse, per ottenere un’elaborazione che rende giustizia agli
sforzi fatti fino a questo momento.

70
IRIS si può a dir la verità utilizzare per tutte le fasi: dallo
stacking alla composizione dei colori alle varie regolazioni
estetiche successive l’estrapolazione del segnale. Il mio
consiglio, però, è quello di utilizzarlo solo laddove non ha rivali:
sull’applicazione di filtri di contrasto. Per la fase di stacking è
ormai lento e macchinoso, per le regolazioni estetiche
decisamente poco pratico. Anche nella scelta dei software si può
basare il successo dell’astrofotografia in alta risoluzione: capire e
carpire le funzionalità dei migliori programmi fa risparmiare
tempo, energia e spesso produce fotografie di ottima qualità.
Nessun astroimager importante utilizza un solo software per tutte
le fasi dell’elaborazione, ma una lista, spesso tenuta segreta, che
forma una ricetta vincente.
Gli ingredienti da utilizzare, cioè i programmi, dipendono
anche dal gusto personale e dalle disponibilità economiche
(Photoshop non è proprio gratuito!) e nessuno, men che meno
questo libro, pretende di dettare legge. Io, come molti altri
astroimager, posso dare dei consigli, riportare la mia esperienza,
evitare errori grossolani, ma alla fine è l’esperienza di ognuno a
fare la differenza. Nessuno può sostituirsi agli esperimenti, alle
prove e, perché no, anche alle delusioni che hanno il compito,
tutte insieme, di far crescere una persona, nel campo
dell’astronomia amatoriale come in quello ben più grande e
importante della vita.
Il mio consiglio quindi è sempre lo stesso: provare,
sperimentare, sbagliare, osare; ma allo stesso tempo mantenere
lucidità, umiltà e determinazione per non arrendersi e capire se
una strada è giusta o sbagliata. Non c’è vergogna nell’ammettere
di aver sbagliato, capita anche ai migliori; il problema è piuttosto
non vedere il proprio errore e pensare che siano tutti gli altri a

71
essere nel torto. Il processo di crescita si ferma quando ci si
sente (erroneamente) arrivati. Gli astroimager più bravi del
mondo lo sono e continuano a esserlo perché non interrompono
mai il processo di apprendimento e non si sentono mai troppo
sicuri di quel poco che hanno imparato.
Dopo aver messo opportunamente le mani avanti, riporto
semplicemente la mia esperienza, che sfrutta IRIS solamente per
applicare dei filtri di contrasto, spesso dei wavelet, più raramente
delle maschere di contrasto, di cui parleremo meglio tra poco. Per
ritocchi estetici o piccoli aggiustamenti altri programmi li reputo
migliori, tra cui Maxim Dl e Photoshop. Purtroppo questi due
non sono gratuiti, ma le funzioni dell’ultimo possono essere
quasi totalmente sostituite da Gimp, software open source
piuttosto potente, scaricabile qui:
http://www.gimp.org/downloads/ .
Una volta aperta l’immagine, i filtri per aumentare il contrasto
che utilizzo sono di due tipi: i primi chiamati wavelet si trovano
nel menu “Processing —> wavelet”. La finestra che si apre
possiede tre opzioni, ma è all’interno del folto gruppo del
“Resolution level” che troviamo il divertimento. I cinque livelli,
dal “Finest” al Largest” identificano in modo qualitativo su quali
dettagli andranno a lavorare i wavelet, enfatizzando quindi
dettagli a piccolissima (“Finest”) o enorme scala (“Largest”).
Spuntando l’opzione “Auto verif.” si può avere un’idea
istantanea di quello che combinano queste miracolose funzioni
matematiche alla nostra povera immagine.
Per capire quanto stiamo dicendo, aiutiamoci con una ripresa
di Giove eseguita nel canale rosso il 24 Agosto 2010 (il giorno
del mio compleanno) con il mio telescopio Schmidt-Cassegrain
da 35 centimetri e camera planetaria Lumenera LU075m. Il

72
filmato acquisito a 30 fps era formato da 3600 fotogrammi e
grazie all’ottimo seeing ne sono stati utilizzati 2700 per formare
un’immagine raw con ottimo segnale.
La figura della pagina seguente mostra l’immagine raw e
come cambia l’aspetto del pianeta a seconda dei livelli di wavelet
utilizzati per elaborarla.

Ottima immagine raw di Giove nel canale rosso + infrarosso composta da


2726 fotogrammi ripresa con un Celestron Schmidt-Cassegrain da 350 mm e
camera Lumenera LU075m.

Wavelet di primo livello (“Finest”) al massimo.

73
Wavelet di secondo livello (“Fine”) al massimo.

Wavelet di terzo livello (“Medium”) al massimo.

Se vogliamo avere un’idea da cui partire, io in oltre dieci anni


di imaging in alta risoluzione non ho mai usato i livelli “Large” e
“Largest”, una manciata di volte il “Medium”, mentre ho
abbondato con il livello “Fine” e soprattutto “Finest”.
Se l’immagine raw ha molto segnale, come il nostro Giove,
composto da quasi 2000 frame, è possibile che il livello massimo,
pari a 25, non sia sufficiente per mostrare tutti i particolari. In

74
questo caso possiamo confermare la nostra scelta e riaprire il
menu dei wavelet per una seconda mano.
Se non siamo soddisfatti di come lavorano i wavelet,
possiamo sperimentare la maschera sfocata, procedimento che si
effettuava anche ai tempi della pellicola (a mano, non con un
computer!) per aumentare il contrasto delle immagini.
In Iris la troviamo nel menu: “Processing —> Unsharp
masking”. Il modo di operare di questa funzione matematica è
diverso rispetto ai Wavelet.
Non abbiamo diversi livelli da aumentare di intensità, ma due
parametri: “Resolution” che regola il raggio dei dettagli da
enfatizzare, e “Contrast” che ne determina l’intensità.
L’effetto è simile ai wavelet, anche se ci possono essere lievi
differenze quanto a pulizia dell’immagine.

Maschera sfocata con “Resolution” 0,5 e intensità massima.

75
Maschera sfocata con “Resolution” 1,5 e intensità massima.

Maschera sfocata con “Resolution” 3 e intensità massima.

In Registax abbiamo solamente i wavelet, che possiamo


applicare nell’omonima scheda “Wavelet” nella quale il
programma ci porta automaticamente dopo aver eseguito
l’ottimizzazione e lo stacking.
Il funzionamento è del tutto simile a quelli di IRIS, solamente
che i raggi su cui agiscono hanno dimensioni inferiori. Il livello
“Largest” che in Registax corrisponde al sesto livello, enfatizza
dettagli molto più grandi, tanto che non è mai utilizzato.

76
Viceversa in Registax è il primo livello, il più fine, a non
essere quasi mai utile perché enfatizza solamente la granulosità
dell’immagine.
Se la massima intensità non cambia sostanzialmente l’aspetto
dell’immagine, possiamo aumentare il valore del coefficiente che
troviamo nel piccolo riquadro proprio sopra il rispettivo livello di
wavelet. Di default è impostato a 0,10, ma una buona scala delle
intensità per immagini di buon segnale come il nostro Giove si
ottiene portandolo almeno a 0,15.

Registax, wavelet numero 1.

77
Wavelet numero 3.

Wavelet numero 6.

Anche in questo caso la ricetta migliore la si ottiene


regolando secondo il proprio gusto e soprattutto buon senso
(ecco perché è importante osservare all’oculare!) i vari livelli e le
relative intensità, cercando di ottenere un’immagine naturale con
tutti i particolari al posto giusto.
Ma certe volte se si vuole il massimo in termini di dettagli
non potremo non notare la formazione di una strana trama
sull’immagine, che nulla ha a che vedere con la realtà.
Coloro che negli anni passati hanno conosciuto gioie e dolori
della pellicola, si sentiranno un po’ a casa perché sembra di
osservare la granulosità delle vecchie fotografie.
Abbiamo scoperto un nemico che a prima vista era invisibile
ma che è tornato in tutta la sua potenza: il rumore. Ne parleremo
meglio tra poche pagine.

78
Dal bianco e nero al colore: l’immagine RGB
Questo paragrafo in teoria interesserebbe solamente i
possessori delle camere monocromatiche che si trovano in
procinto di comporre un’immagine a colori ripresa attraverso i tre
filmati effettuati con il filtro rosso, verde e blu, ma potrebbe
riguardare anche le insospettabili camere a colori.
In effetti ho utilizzato per circa 7 anni una vecchia webcam a
colori Philips Vesta Pro, affiancata nei momenti difficili dalla
collega Toucam Pro, ormai due pezzi da museo della storia
dell’imaging in alta risoluzione.
Nonostante riprendessi immagini a colori, dopo qualche
tempo trovai molto più vantaggioso scomporre l’immagine raw
nei tre canali colore, elaborarli separatamente e poi comporre
manualmente la ripresa finale a colori, come se fosse stata
ottenuta con i filtri RGB.
Perché questo apparente masochismo che in parte annulla i
venefici di velocità e praticità delle camere a colori? Per due
semplici motivi:
1) Come abbiamo visto parlando dei filtri, i
dettagli planetari cambiano a seconda della lunghezza
d’onda, fino al caso limite di Marte, in cui nel rosso si
vedono i sottili particolari superficiali e nel blu le grandi
nubi atmosferiche. Se si elabora direttamente l’immagine
a colori, che raggio utilizzo per i wavelet, le maschere
sfocate o la deconvoluzione? Quello ideale per i
particolari fini sacrificando così le nubi, oppure quelli
per enfatizzare dettagli a grande scala spappolando
letteralmente gli altri? Ma non è tutto qui, perché

79
dobbiamo fare i conti anche con:
2) La sensibilità del sensore non è uguale per
tutti i canali colore e nemmeno la qualità, a causa anche
del seeing, peggiore quanto più corta è la lunghezza
d’onda. Ne consegue che il segnale dei canali colore può
essere molto diverso e richiedere elaborazioni e
accorgimenti differenti, che non si possono applicare se si
processa direttamente la ripresa a colori.
Bene, nella speranza di essere stato convincente, come si
ottengono le immagini R, G e B da una ripresa a colori?
Se lavoriamo con Registax basta salvare la ripresa raw in
formato fit. Questo è rigorosamente monocromatico, quindi il
programma creerà automaticamente un file per ogni canale colore,
che poi potremmo elaborare con tutti i programmi astronomici
che vogliamo e solo all’ultimo ricomporre per formare di nuovo
l’immagine a colori.
In alternativa possiamo utilizzare Maxim Dl per aprire
l’immagine raw a colori e dividerla nei canali attraverso il
comando “Color —> Split tricolor” e salvare, in formato non
compresso, le tre riprese RGB.
Capisco che per chi è agli inizi possa essere un’operazione
non banale che rischia di complicare le cose, quindi non importa
se non la si applica sin da subito. L’importante è ricordarci che se
abbiamo una camera a colori, l’immagine raw si elabora meglio
scomponendola nei canali e trattandola come se fosse stata
ripresa con una camera monocromatica a partire dai classici tre
filmati. Quando ci sentiremo pronti potremo fare le nostre prove e
vedere se per noi vale davvero la pena.

Se possediamo camere monocromatiche non abbiamo il

80
problema della scelta: dobbiamo in qualche modo comporre
l’immagine a colori.
Si, ma quando? E come?
Il quando l’ho già detto più o meno direttamente. I tre filmati
RGB vanno elaborati in modo quasi del tutto indipendente l’uno
dall’altro. Solamente alla fine, dopo aver fatto tutti gli interventi
necessari per i dettagli e magari mitigare il rumore, si forma la
versione RGB.
Quel “quasi” non è stato però messo a caso. Poiché andranno
a fondersi nella stessa immagine, i canali colore non possono
essere elaborati in modo troppo diverso gli uni dagli altri.
Nessun problema nella fase di allineamento e stacking, nella
quale c’è completa libertà come se non si conoscessero affatto,
mentre bisogna mettere qualche paletto durante l’elaborazione
vera e propria.
Prima di tutto è meglio applicare la stessa famiglia di filtri:
non ha senso elaborare il canale rosso con la deconvoluzione, il
verde con wavelet e il blu con maschere sfocate, a meno che non
si voglia un’immagine a colori che potrebbe trovar ottimo posto
in un museo d’arte contemporanea con un avviso di pericolo per
chi soffre di attacchi epilettici.
Quanto a raggi e intensità si ha abbastanza libertà, tenendo
sempre presente che bisogna enfatizzare i particolari di quel
determinato canale nei limiti della moderazione e del buon senso.
Il fatto di dover utilizzare le stesse elaborazioni per i tre canali è
una leggenda metropolitana, anche perché altrimenti non avrei
consigliato di scomporre i canali ai possessori di camere a colori!
Non è necessario neanche applicare tutte le operazioni: se il
canale verde, di solito il migliore, ha un ottimo dettaglio e niente
rumore mentre il blu è molto rumoroso, proveremo qualche filtro

81
di riduzione del disturbo solamente su quest’ultimo.
Quello che dobbiamo invece evitare è l’alterazione dei livelli
di luminosità e delle curve, operazioni che introdurrebbero delle
dominanti di colore quasi impossibili da correggere.
Bene, con i nostri canali colore elaborati non ci resta che
formare l’immagine RGB dalla loro fusione.

Da sinistra a destra ecco le immagini RGB di Giove elaborate e allineate,


pronte per comporre la tricromia RGB il cui risultato, dopo un leggero
bilanciamento, è visibile nell’immagine seguente. Telescopio Schmidt-
Cassegrain Celestron da 350 mm, camera Lumenera LU075m.

82
Tutto molto bello, ma in che modo si fondono? E con quale
software?
Di modi ce ne sono tanti a seconda del software che
preferiamo, ma prima di formare l’immagine dobbiamo allineare
maniacalmente i canali. È infatti quasi impossibile che le tre
riprese RGB provenienti da altrettanti filmati risultino
perfettamente sovrapponibili.
In questi casi possiamo usare le funzioni dei software
generici di elaborazione astronomica, tra cui Maxim Dl attraverso
il comando “Process —> Align” o più semplicemente Registax.
È sufficiente caricare le tre immagini, effettuare l’allineamento
come se fosse un filmato ponendo la qualità pari a zero (non
vogliamo escludere un canale!), l’ottimizzazione e nella scheda di
stacking concentrare l’attenzione sul menu “Create AVI” nella
lista presente nella colonna di sinistra. All’interno selezioniamo

83
l’opzione “as BMP” e poi clicchiamo su “Save Registered”. Si
aprirà una finestra in cui dobbiamo scegliere la cartella di
destinazione e il nome del file. Confermando le tre immagini
allineate verranno salvate in formato bmp, pronte per essere unite
nella versione a colori.

Allineamento immagini RGB con Registax. Si aprono le tre riprese


elaborate e si applicano tutti gli step dell’allineamento e dello stacking,
impostando la qualità a zero per non perdere nulla per strada e fermandosi
alla finestra di stack. A questo punto nel menu “Create AVI” possiamo salvare
la nostra sequenza allineata in formato BMP.

Questo comando è molto utile ogni volta in cui si vuole


salvare una sequenza di immagini o un video AVI (basta
deselezionare l’opzione “as BMP”) con i frame già allineati e
selezionati in base alla qualità.

84
Il procedimento di allineamento si può effettuare anche
manualmente con tutti i programmi di fotoritocco, tra cui Gimp e
Photoshop in vari modi.
Quello che utilizzo io prevede di aprire i tre canali, sceglierne
uno di riferimento in modo casuale (io preferisco il rosso, perché
quasi sempre il più definito) e poi incollare come nuovo livello
un canale alla volta. Impostando un’opacità di livello pari al 50%
sarà possibile effettuare un allineamento manuale molto preciso.
Quando siamo soddisfatti riportiamo l’opacità al 100% lasciando
il modo di unione impostato su “normale” e poi uniamo i livelli
con l’apposito comando del tipo: “ Livello —> Unico livello”.
Salviamo con nome l’immagine e ripetiamo la stessa procedura
incollando il livello dell’altro canale rimasto fuori.

Allineamento delle immagini RGB con Photoshop. Si considera


un’immagine di riferimento, in questo caso la R, si incolla l’immagine del
canale G, si imposta l’opacità al 50% e il metodo di unione su normale, come
indicato dalle frecce, poi si allinea con il mouse o le frecce i due canali
muovendo quello superiore. Si riporta l’opacità al 100%, si uniscono i livelli e
si salva con nome l’immagine G allineata. Stessa operazione per la ripresa blu.

La parte più impegnativa è ormai completata, basta solamente


fondere le immagini RGB in un’unica immagine a colori.

85
Registax a questo punto si ferma perché non è in grado di
fare un’operazione del genere. Possiamo usare IRIS, ma è un po’
macchinoso perché vuole in ingresso solamente file di tipo fit,
oppure Maxim DL e qualsiasi altro programma di fotoritocco
come quelli già visti.
Con Maxim DL il comando è semplice: “Color —> Combine
color”. Nella finestra che si apre si può scegliere il tipo di
immagine, nel nostro caso RGB, e il nome dei file. Lasciare
inalterate per ora le altre voci. C’è anche presente l’opzione di
allineamento, che è la stessa che abbiamo fatto precedentemente
con l’apposito comando. Cliccando ok vedremo finalmente la
nostra immagine a colori.

Composizione RGB con Maxim DL attraverso l’apposito comando. Molto


semplice e affidabile.

Con i programmi di fotoritocco dobbiamo procedere


manualmente. Apriamo le tre immagini allineate e consideriamo
sempre quella rossa come riferimento. Se il formato è stato
salvato in scala di grigio dobbiamo trasformarlo in colore RGB,
in modo da rendere possibile poi l’inserimento manuale dei
nostri canali.

86
Per evitare dominanti suggerisco un trucchetto:
trasformiamola prima in scala di colore con il comando:
“Immagine —> Metodo —> Scala di colore”. Noteremo che la
luminosità si abbasserà e questo è il segno che la procedura ci ha
salvato da grandi problemi. Senza toccare nulla convertiamola in
“Colore RGB” seguendo gli stessi passi.
Ora il formato è pronto per accettare i canali colore.
Spostiamoci nella scheda “Canali”, selezioniamo il Verde e
incolliamoci sopra la nostra immagine ripresa con il filtro verde.
Facciamo la stessa cosa con il blu e il gioco è fatto: ora la nostra
immagine rossa è diventata a colori!

Composizione RGB in Photoshop. Si aprono le immagini R, G e B, si


seleziona il canale R come riferimento, lo si trasforma prima in scala di colore
poi in colore RGB. Poi, aprendo la scheda canali (a destra) si seleziona il
verde e ci si incolla la nostra immagine G, ancora in scala di grigio. Stessa
cosa per il canale B e la relativa immagine.

87
Selezionando il canale RGB si può vedere finalmente la nostra immagine
a colori, che molto raramente sarà già perfettamente bilanciata come in questo
fortunato esempio.

88
Allineamento dei canali RGB con camere a colori
Probabilmente dopo aver visto tutte queste operazioni,
soprattutto quelle riguardanti l’allineamento, i possessori di
camere a colori tireranno un sospiro di sollievo pensando che non
devono sottoporsi a tutto questo. Anche nel caso in cui si
ascoltino i miei consigli e si decida di elaborare i canali
separatamente, nel momento in cui vengono rifusi nell’immagine
RGB dovrebbero già essere perfettamente allineati.
In realtà, invece, non sempre è così, perché dobbiamo fare i
conti con la dispersione atmosferica, che per oggetti inferiori ai
50° di altezza comincia a farsi sentire scomponendo le immagini
come se passassero attraverso un prisma.
Quando riprendiamo con camere a colori, gli effetti della
dispersione si manifestano con la comparsa di bordi più o meno
colorati. Generalmente da una parte domina l’azzurro, dall’altra il
rosso. Nei casi più gravi (con oggetti più bassi di 30°) si inizia a
notare anche una specie di sdoppiamento dei dettagli, alcuni dei
quali hanno bordi colorati.
L’immagine sembrerebbe rovinata, ma in realtà l’effetto che si
nota è solamente dovuto al fatto che i singoli canali colore, a
causa della dispersione, non sono perfettamente allineati.
Dopo quanto abbiamo visto, allinearli perfettamente
sembrerebbe quasi un gioco da ragazzi!
Il livello di spostamento tra il rosso e il blu è generalmente
molto contenuto e mai superiore a due-tre pixel, quindi forse non
vale la pena fare il procedimento di allineamento descritto nel
paragrafo precedente e poi comporre l’immagine a colori.
L’allineamento dei canali RGB a causa della dispersione
dovrebbe essere fatto solamente al termine del procedimento di

89
elaborazione, come ultima operazione prima che l’immagine sia
completata. Se abbiamo elaborato separatamente i canali,
riformiamo l’immagine a colori come descritto nel precedente
paragrafo. Se già disponiamo della versione a colori siamo pronti
per la fase operativa.

Tipica immagine rovinata dalla dispersione atmosferica. Nonostante una


ripresa con camera a colori i canali sono leggermente disallineati. Lo si può
notare dal bordo azzurro in basso e il corrispondente rosso in alto. Anche i
dettagli del disco sembrano sdoppiati e con contorni colorati. È necessario
correggere questo inestetismo.

In questo caso possiamo usare anche Registax.


Se si seleziona una sola immagine si viene catapultati nella
scheda “Wavelet”, nella quale, a destra, si trova il pulsante che ci
interessa: “RGB Align”. Si aprirà una piccola finestrella nella
quale è possibile spostare manualmente il canale blu e verde in

90
verticale e in orizzontale fino a quando non si notano più strani
bordi o sdoppiamento dei dettagli.
Niente di più semplice!

Allineamento dei canali RGB sull’immagine finale con Registax.

Si può agire anche con Photoshop direttamente


sull’immagine a colori. Cliccando su uno dei canali colore, ad
esempio il blu, questo si può spostare come fosse un livello
autonomo utilizzando lo strumento sposta.
Questa fase si può rivelare molto utile anche come controllo
ed eventualmente correzione dell’allineamento dei canali che nel
paragrafo precedente abbiamo dovuto fare con le riprese
monocromatiche.

91
Bilanciamento dei colori
Non appena abbiamo a disposizione l’immagine RGB finale,
non importa come ottenuta, probabilmente la nostra prima
espressione sarà di disgusto. È quasi certo (la piccola speranza
del quasi è riservata alle camere a colori) che i colori saranno
completamente sballati e il pianeta non somiglierà affatto a
quanto visto all’oculare o nelle immagini dei nostri invidiati
colleghi. Nessuna paura, purtroppo è normale.
Come ultimo ostacolo al nostro meritatissimo riposo
dobbiamo bilanciare i colori.
La notizia buona è che tutti i software di elaborazione
permettono questa semplice (in teoria) operazione, compreso
Registax. La cattiva è che spesso si deve andare a occhio,
cercando di riprodurre le tonalità osservate o delle immagini di
altri astroimager.
Mi preme ricordare quanto già detto: se abbiamo regolato
curve di luminosità e livelli dei singoli canali RGB allora non
riusciremo mai a raggiungere un bilanciamento perfetto; meglio
ricominciare da dove abbiamo commesso l’errore.
In tutti gli altri casi è questione di pratica, esperienza, a volte
fortuna. Se vogliamo avere una base da cui partire (che spesso è
poi molto vicina alla realtà), possiamo tentare la strada di quello
che si chiama bilanciamento del bianco, in inglese “White
balance”.
Dove possiamo farlo in modo semplice? In Registax, IRIS,
Maxim: tutti i programmi astronomici.
Registax lo chiama “Auto balance” e si trova nella finestra
che compare quando si clicca sull’opzione “RGB Balance”,
proprio adiacente all’ ”RGB Align” precedentemente utilizzato.

92
Per attivarlo è sufficiente identificare sull’immagine un
particolare che sappiamo con certezza essere bianco (o quasi). Su
Giove sono i piccoli cicloni o i festoni equatoriali più luminosi,
per Saturno gli anelli, per Marte la calotta polare o le nubi.
Cliccare poi sul pulsante “Auto balance” per avere (si spera) dei
colori molto vicini alla realtà.
Maxim Dl ha una funzione più potente perché permette di
scegliere l’ampiezza della zona considerata bianca, al contrario di
Registax.
Selezionando “Color —> White balance” si apre una stretta
finestra. L’unica cosa che dobbiamo fare è spostare il mouse
sull’immagine, scegliere un’area bianca, non importa se grande o
piccola, e cliccarci sopra o disegnarci un piccolo riquadro. Il
programma automaticamente correggerà i colori prendendo come
riferimento il bianco che abbiamo selezionato.
Se sono necessari dei piccoli ritocchi dobbiamo passare al
bilanciamento manuale, regolando con delicatezza i colori fino a
quando non raggiungiamo un risultato che ci soddisfa. Questo è
possibile farlo con qualsiasi programma, sia astronomico che
non.
L’immagine finalmente è pronta; possiamo ora regolare anche
curve, livelli e tutto quello che ci viene in mente per renderla
esteticamente più appagante.
Prima di cantar vittoria teniamo presente una cosa
fondamentale: quello che stiamo osservando sul monitor potrebbe
non essere oggettivo, ma dipendere dalle proprietà dello schermo
e cambiare radicalmente da un utente a un altro.
Per capire come ci dovrebbero apparire le immagini
correttamente bilanciate, possiamo dare un’occhiata a quelle
degli astroimager più famosi e prendere degli spunti preziosi per

93
la delicatissima fase di bilanciamento cromatico.

Ecco in grande il risultato dei nostri sforzi: l’immagine con colori ben
bilanciati.

94
Ricerca amatoriale

Alcune parti di questa sezione sono tratte dal libro


“Astrofisica per tutti: scoprire l’Universo con il proprio
telescopio”.
Se siete ormai degli astrofotografi del cielo con una certa

95
esperienza e molta voglia di portare al limite la vostra
strumentazione, magari affrontando qualche divertente ed
emozionante progetto di ricerca, questa è la sezione che fa per
voi. Qui, proprio come degli astronomi professionisti, partiremo
alla scoperta di tutto quello che il nostro telescopio amatoriale,
accoppiato ai moderni dispositivi di ripresa digitale, è in grado di
regalarci oltre al mero imaging estetico. Sapete, ad esempio, che
moltissime stelle variabili oltre la magnitudine 10 non sono
ancora state scoperte? O che è possibile osservare la traccia di un
pianeta extrasolare distante centinaia di anni luce mentre
attraversa il disco della propria stella? Senza contare poi la
possibilità di scoprire asteroidi, comete, supernovae, fenomeni
particolari nelle atmosfere dei pianeti.
Insomma, qui, con pazienza, determinazione e curiosità si va
in prima persona alla scoperta dell’Universo.

96
L’astrometria
L’astrometria è una disciplina dell’astronomia estremamente
antica e quella che può offrire risultati immediati e semplici per
tutti gli appassionati muniti di strumenti di almeno 15 centimetri
e camere digitali, reflex e, meglio, CCD.
L’astrometria, letteralmente misura degli astri, è una scienza il
cui unico scopo è misurare, nella maniera più accurata possibile,
la posizione dei corpi celesti.
Nell’era moderna l’astrometria misura la posizione degli astri
rispetto al sistema di coordinate equatoriali.
La misura delle coordinate di un oggetto, attraverso la
determinazione dell’ascensione retta (AR) e la declinazione
(Dec) è estremamente importante per avere dei riferimenti e,
soprattutto, per mostrare eventuali spostamenti di qualche
oggetto nel corso del tempo.
In particolare, l’astrometria si mostra utile per:
1) Scoprire comete e asteroidi e caratterizzare la
loro orbita a partire dall’analisi dello spostamento
rispetto alle stelle di fondo. Quindi, in generale:
2) Determinazione accurata delle orbite di ogni
corpo celeste appartenente al Sistema Solare, dai lontani
e lenti KBO fino ai detriti spaziali e ai piccoli asteroidi
NEO;
3) Analisi dello spostamento di alcune stelle
dovuto al moto proprio oppure al fenomeno della
parallasse;
4) Rilevazione dei pianeti extrasolari,

97
analizzando lo spostamento sinusoidale della stella nel
cielo.
A esclusione dell’ultimo punto, gli altri sono tutti studi
perfettamente alla portata della nostra strumentazione amatoriale,
sebbene il terzo non possa offrire risultati utili dal punto di vista
scientifico.
La precisione raggiungibile nella determinazione delle
posizioni può raggiungere i pochi decimi di secondo d’arco
(tipicamente 0,20”-0,30”), un valore ottimo per estrapolare
informazioni attendibili, soprattutto su comete e asteroidi.
Sebbene la precisione sia qualche ordine di grandezza
inferiore a quella raggiunta dai professionisti (che si avvalgono
anche di satelliti ad hoc), il contributo dell’astronomo dilettante
è fondamentale per quanto riguarda i corpi minori del sistema
solare (asteroidi, KBO, comete, NEO) appena scoperti.
In particolare, ecco cosa è possibile fare:
1) Astrometria di oggetti già scoperti da altri
osservatori per determinare in modo preciso l’orbita.
Questo lavoro si chiama follow up;
2) Conferma di scoperte effettuate da altri
osservatori ma ancora incerte. In effetti una scoperta, per
essere confermata, richiede numerosi dati indipendenti,
forniti da altri osservatori, tra cui potremmo esserci noi;
3) Ricerca di oggetti nuovi, quasi
esclusivamente asteroidi, raramente comete. Anche le
supernovae richiedono accurate misure astrometriche per
essere individuate e studiate dagli altri osservatori.
Benché questa branca della ricerca sembri non avere un
collegamento stretto con l’astrometria, in realtà non si
può scoprire un nuovo oggetto senza poter determinarne

98
con precisione la posizione e l’eventuale movimento, se
non altro perché altrimenti nessuno lo potrebbe ritrovare!

L’astrometria di elevata precisione è più semplice della


fotometria, sia nella fase di acquisizione che in quella di
riduzione e interpretazione dei dati.
A prescindere dal campo di applicazione, non dimentichiamo
mai qual è il nostro obiettivo: misurare, con la maggiore
precisione possibile, le coordinate di un oggetto a partire dalle
immagini riprese attraverso il nostro telescopio. Dell’estetica non
ce ne importa nulla, come d’altra parte accade in ogni
applicazione di valore prettamente scientifico.

99
Un po’ di teoria
La misura della posizione di un oggetto parte, naturalmente,
dall’analisi di una o più immagini acquisite dalla propria camera
digitale.
L’identificazione dell’oggetto nell’immagine viene fatta
inizialmente attraverso le coordinate x e y che rappresentano la
posizione dei pixel nella matrice del sensore. A questo punto
bisogna, in qualche modo, passare dalle coordinate locali a quelle
equatoriali, ricavando AR e Dec dell’oggetto attraverso quella
che si chiama equazione di trasformazione della coordinate.
Nell’attuale gergo tecnologico si sentirà spesso il termine “plate
solving”, letteralmente risoluzione della lastra, nient’altro che
l’identificazione del campo inquadrato attraverso la
sovrapposizione di una griglia di coordinate equatoriali
all’immagine da analizzare.

A prescindere dai termini, come si passa dalle coordinate x e


y dell’immagine digitale a quelle equatoriali?
In linea teorica è semplice. I cataloghi stellari compilati negli
ultimi anni da osservatori astronomici e satelliti in orbita mettono
a disposizione della comunità astronomica una messe di dati
estremamente utile e precisa.
La posizione di milioni di stelle è stata determinata con
precisioni di qualche decimo (a volte centesimo) di secondo
d’arco.
L’informazione astrometrica di queste stelle, sparse per tutto
il cielo, e dette di riferimento o di paragone, viene utilizzata come
calibratore per la misura della posizione di ogni altro corpo
celeste.

100
L’immagine ripresa dalla propria camera digitale viene quindi
confrontata con le stelle presenti nei cataloghi stellari.
Conoscendo grossomodo il campo ripreso, l’orientazione e la
magnitudine limite raggiunta, è possibile sovrapporre le mappe
contenenti gli oggetti stellari già calibrati a quelli ripresi
nell’immagine; questa operazione permette di riconoscere le
stelle di riferimento e le loro coordinate.
Utilizzando molte stelle di riferimento, e scartando quelle la
cui precisione sulla posizione non è sufficiente per i nostri scopi,
il campo ripreso viene calibrato ed è possibile effettuare misure
estremamente precise di ogni porzione dell’immagine.
Generalmente la misurazione astrometrica si effettua su un
oggetto stellare la cui distribuzione di luce assume un tipico
andamento gaussiano, quindi una stella, un asteroide o, al più, il
falso nucleo di una cometa.

101
Precisione ed errori di misura
Come in ogni ambito scientifico, anche nel campo
astrometrico esistono gli errori di misura, che devono essere
capiti e minimizzati nella fase di acquisizione dei dati e nella
successiva riduzione. Contrariamente al caso fotometrico, la
comprensione e la stima delle incertezze è più semplice e i
software di analisi delle immagini forniscono valori estremamente
accurati, che evitano una successiva e lunga analisi manuale.
In questo paragrafo ci concentreremo su come minimizzare le
incertezze e ottenere le massime precisioni possibili dal nostro
strumento.
Gli errori che derivano dall’analisi astrometrica si possono
raggruppare in due grandi famiglie:
1) Errori astrometrici contenuti nelle stelle
scelte come riferimento. Queste incertezze non dipendono
né dalla tecnica di ripresa né da quella di calibrazione e
riduzione dei dati, poiché si tratta di errori contenuti nei
cataloghi stellari utilizzati come calibratori. La colpa,
quindi, in questo caso non è la nostra ma dei
professionisti! Meglio non gongolare troppo, però, perché
data l’estrema precisione raggiunta, soprattutto da alcuni
cataloghi, questi errori sono generalmente sempre
inferiori alla precisione massima raggiungibile dai nostri
strumenti e per di più, scegliendo un folto gruppo di
stelle di riferimento, possono essere considerati
trascurabili. Meglio, meno calcoli da fare!
2) Errore dovuto alla precisa determinazione
sull’immagine dell’oggetto che si vuole misurare. In tutte
le applicazioni astrometriche amatoriali questa è l’unica

102
incertezza significativa e capire il perché è abbastanza
semplice, richiamando la tecnica utilizzata per la
misurazione.

Quando riprendiamo un campo stellare con una certa camera


digitale accoppiata a un determinato telescopio, l’immagine delle
stelle sul sensore assume un certo diametro apparente, molto
maggiore del diametro apparente dell’oggetto. L’effetto è evidente
con le stelle, che a rigor di logica dovrebbero apparire come dei
punti senza dimensioni, ma che sull’immagine digitale appaiono
spesso invece fin troppo dilatate.
Trascurando la precisione nella determinazione delle
coordinate delle stelle di riferimento, la precisione della
determinazione della precisa posizione dell’oggetto da studiare è
influenzata e limitata da questi tre fattori:
a) Campionamento utilizzato, ovvero la scala
dell’immagine, funzione del diametro dei pixel del
sensore e della focale dello strumento. Capire in che
modo la scala dell’immagine influenza la precisione
raggiunta è semplice. Se ho un’immagine ripresa con una
scala di 10”/pixel e un’altra a 1”/pixel, la determinazione
della posizione della stella che voglio studiare sarà più
precisa nel secondo caso perché potremmo dire
impropriamente “si ha un ingrandimento maggiore”;
b) Rapporto S/N (segnale/rumore) dell’oggetto
da misurare. Migliore è il segnale, maggiore è la
precisione raggiungibile;
c) Fattori esterni, tra i quali spicca la sempre
presente turbolenza atmosferica. Inoltre, cattivo
inseguimento, sfocatura e difetti nella qualità ottica dello

103
strumento (comprese le aberrazioni extra-assiali)
introducono altre incertezze perché spalmano la figura
della stella sul sensore e ne alterano la forma, impedendo
di capire quale posizione occupa realmente.
Dopo queste considerazioni le premesse non sembrano rosee,
perché con il seeing medio delle nostre latitudini che spappola le
stelle e ce le fa apparire non più piccole di 1,5” nel migliore dei
casi, come possiamo raggiungere precisioni di decimi di secondo
d’arco nella misurazione delle coordinate di un oggetto?
Il trucco c’è ed ora cercherò di spiegarlo.
Sappiamo già che le sorgenti puntiformi sul nostro sensore
non appariranno mai come dei perfetti punti ma si disporranno su
diversi pixel. Quello che ancora non è stato detto è che la
distribuzione della luce di una sorgente puntiforme su un sensore
digitale ha una forma ben determinata, molto simile a una curva
gaussiana.
Per fare una misurazione molto precisa e aggirare ostacoli
insormontabili, un perfetto software di analisi astrometrica
dovrebbe studiare la distribuzione della luce della sorgente
d’interesse e trovarne il centro con la massima precisione
possibile. Questa rappresenterà la migliore approssimazione della
posizione reale del nostro oggetto puntiforme.
In gergo astronomico, la distribuzione della luminosità di una
sorgente puntiforme vista attraverso un telescopio prende il nome
di PSF (Point Spread Function).
La PSF è una curva matematica dalla forma a campana che
tenta di descrivere, nel modo più preciso possibile, la
distribuzione delle intensità luminose provenienti da un oggetto
stellare ripreso da un sensore CCD.
La PSF è una curva matematica continua, quindi ideale. I

104
pixel del sensore, per quanto piccoli, sono elementi discreti,
ovvero finiti, quindi non possono in alcun modo contenere un
qualcosa che varia in modo dolce e continuo come una funzione
matematica.
Sembra che siamo arrivati a un vicolo cieco. Dove voglio
andare a parare? E perché la PSF dovrebbe aiutarci a ottenere una
precisione migliore? Se riprendo con un campionamento di
2”/pixel, com’è possibile stimare la posizione di una stella in
modo più accurato? Se questa è sul pixel X, avrà una certa
posizione, se sarà sul pixel adiacente avrà una posizione pari a
X+2”. Sembra quindi impossibile conoscere la sua posizione a
meno della scala dell’immagine utilizzata, cioè 2”.
È qui che avviene la “magia” di un buon software di analisi
astrometrica, in collaborazione con la funzione PSF.
Estrapolando la luminosità della stella per ogni pixel occupato
dalla sua figura, il programma effettua un fit dei dati ce vi
sovrappone la funzione PSF ideale che meglio interpreta i dati
ripresi. Si opera una specie di trasformazione: da una griglia di
pixel che non possono dare una precisione maggiore della scala
dell’immagine, a un modello matematico continuo, la PSF, che
non ha più questo limite.
Con questa assunzione e con la forma particolare della PSF,
il cui picco di solito è ben definito, si può individuare il centro
dell’immagine della stella da studiare con una precisione di gran
lunga maggiore della scala dell’immagine, con valori che possono
raggiungere anche 1/15 di pixel.
In situazioni perfette questo decritto sarebbe un modo di
procedere spettacolare, perché incrementando il campionamento
aumenterebbe di conseguenza anche la precisione.
Purtroppo non esiste una situazione perfetta e vi sono altri

105
fattori che limitano la precisione astrometrica raggiungibile, tra i
quali il rapporto S/N, la turbolenza atmosferica e, in generale, la
qualità delle immagini riprese. Partiamo da questo ultimo punto,
che è il più semplice da capire.
Se l’immagine stellare risulta leggermente mossa o elongata a
causa di qualche aberrazione extra-assiale (ad esempio il coma,
presente in tutti i riflettori newtoniani molto aperti), diventa
molto difficile per il software interpretare i dati sperimentali e
sovrapporre alla stella una buona curva gaussiama.
Se l’immagine è fuori fuoco, la distribuzione della luce non si
approssima più con una curva gaussiana e il software restituisce
dati affetti da notevoli errori.
Se l’immagine stellare risulta saturata, l’andamento dei dati
sperimentali non si approssima più con una sola PSF perché ci
sarà una zona di diversi pixel che avranno tutti lo stesso valore di
saturazione.
Queste citate sono le situazioni più frequenti e quelle che
introducono maggiori incertezze; fortunatamente sono eliminabili
in fase di ripresa.

106
La “magia” di un software di riduzione astrometrica. Da una distribuzione
della luce stellare discreta (in alto), composta da pochi pixel, il programma
extrapola una funzione matematica continua, il cui picco rappresenta la
migliore approssimazione della posizione della stella (in basso). Tutto questo
attraverso il fit dei valori di luminosità dei pixel (punti bianchi).

107
Campionamento adatto
La scala dell’immagine, pur non rappresentando l’unico
elemento per la precisione fotometrica, è senza dubbio una
condizione necessaria, sebbene non sufficiente, per sperare di
avere una precisione migliore di 1 secondo d’arco nella
determinazione delle posizioni degli oggetti, valore buono per
l’astrometria di corpi celesti estremamente deboli quali gli
asteroidi e lontane comete.
Dopo aver visto come lavora un software nel determinare con
precisione il centro dell’oggetto puntiforme da studiare, appare
evidente che la scala dell’immagine debba essere tale che la luce
della stella sia concentrata su un nutrito gruppo di pixel, senza
però effettuare alcuna sfocatura.
Data la distribuzione gaussiana delle sorgenti puntiformi, è
utile parlare in termini di FWHM, ovvero della larghezza della
curva a metà intensità, la grandezza utilizzata per stimare i
diametri stellari nelle riprese.
In questi termini, avere una FWHM pari a 1 pixel significa
necessariamente avere poca precisione perché il programma non
avrà abbastanza informazioni sulla distribuzione della luce della
stella. Al contrario, una FWHM di 10 pixel implica una
precisione notevole, ma allo stesso tempo una profondità minore,
poiché la luce stellare si sparpaglia su una superficie maggiore.
In astrometria esiste un ottimo compromesso tra questi due
valori limite: il valore del cosiddetto campionamento ideale
produce una FWHM stellare pari a circa 3-4 pixel. Con questo
valore, che rappresenta un limite inferiore per avere posizioni
sufficientemente precise, si ottiene il massimo guadagno anche in
termini di rapporto S/N, quindi di profondità stellare.

108
Se non si hanno problemi di luminosità e di rapporto S/N, si
può considerare anche un leggero sovracampionamento, portando
la FWHM a 5-6 pixel.
La scala dell’immagine ideale risultante, considerando le
condizioni di seeing medio italiano, è quindi di circa 1-
1,5”/pixel.

Andamento della precisione astrometrica in funzione del campionamento


utilizzato. A parità di altri fattori, in astrometria non paga avere stelle piccole
come capocchie di spillo, come nell’immagine a sinistra. La luce è infatti
troppo concentrate per permettere al programma una precisa analisi della sua
distribuzione. Nell’immagine a destra siamo invece nella condizione limite
opposta. L’immagine è sovra campionata. Il software di analisi ha molti dati
sperimentali da analizzare per trovare il centro preciso, ma i grandi diametri
stellari implicano una notevole perdita di magnitudine limite. Al centro la
situazione ideale con un campionamento corretto che preserva sia la
profondità raggiunta che la precisione nella determinazione del centro stellare.

109
Rapporto S/N
Il segnale della sorgente da studiare rispetto al livello del
rumore è altrettanto importante nella precisione astrometrica.
E’ facile intuire che maggiore è il rapporto S/N, minore sarà
l’incertezza sulla luminosità dei pixel contenenti la luce
dell’oggetto da studiare, maggiore sarà quindi la precisione
raggiunta dalla curva di fit, di conseguenza anche la precisione
astrometrica.

A sinistra: la distribuzione della luce di una stella molto debole con scarso
segnale e la sovrapposizione della curva di fit che ne rappresenta l’andamento.
A destra, la distribuzione di una stella con migliore rapporto S/N. Si può
vedere anche a occhio come la campana dell’immagine a destra sia più stretta
di quella a sinistra. Poiché le stelle sono contenute nella stessa immagine, ci si
aspetterebbe una distribuzione luminosa identica, cosa che non avviene.
L’incertezza nell’immagine della sorgente con peggiore S/N è maggiore di
quella con ottimo S/N.

In definitiva, se lavoriamo con un buon campionamento,


l’andamento della precisione astrometrica dipende dalla FWHM
stellare (influenzata da turbolenza, sfocatura, aberrazioni) e dal
rapporto segnale/rumore, secondo la relazione:

110
σPSF = FWHM/(2,355*S/N) , dove la FWHM è espressa in
secondi d’arco e si ricava conoscendo il valore in pixel e
moltiplicandolo per il campionamento.
Lavorando con FHWM pari a circa 4” su un oggetto con S/N
pari a 4 si raggiunge una precisione di 0,40”.
Un tale rapporto Segnale/Rumore appartiene a un oggetto
estremamente debole e questa è una buona notizia perché
significa che non è necessario disporre di immagini con elevato
segnale per raggiungere buone precisioni, al contrario della
fotometria di alta precisione.

Andamento dell’incertezza nella misura della posizione dell’oggetto in


funzione del rapporto segnale/rumore. L’errore qui rappresentato è espresso in
pixel. Per conoscere l’effettiva precisione in secondi d’arco è necessario
moltiplicare il sigma per il valore della FWHM espresso in secondi d’arco.

Generalmente i software di riduzione astrometrica forniscono


l’errore commesso nel fitting della PSF quando si effettua la
misura stessa. Inoltre, forniscono anche l’errore restituito dalle
stelle di paragone. Se le misurazioni sono estremamente precise e

111
i due errori sono confrontabili, occorre stimare l’incertezza totale
applicando le semplici regole della propagazione degli errori. Se
chiamiamo σPSF l’errore commesso nell’identificazione della PSF
e σREF quello introdotto dalle stelle di riferimento, l’errore
astrometrico totale sarà: σAST = √(σPSF2 σREF2) ma in generale,
come già detto, l’errore dominante sarà solamente quello dovuto
alla posizione della sorgente da studiare.

112
La strumentazione
Capito come si fa astrometria sulla carta, è giunto finalmente
il momento di passare alla parte pratica.
La strumentazione richiesta è semplice e si limita a una
camera digitale, monocromatica, possibilmente con risposta
lineare e controllo della temperatura, accoppiata a un telescopio
da almeno 20-25 centimetri, con un favorevole rapporto focale.
Visto che il campo di applicazione della ricerca si focalizza
verso oggetti estremamente deboli, è importantissimo che setup
sia in grado di raggiungere un’elevata magnitudine in un tempo di
ripresa non troppo lungo. Questo significa utilizzare telescopi
con rapporti focale non superiori a f7-8 e sensori estremamente
sensibili; da escludere la presenza di qualsiasi filtro, che crea più
danni che benefici. Inutile dire che servirebbe anche un cielo
abbastanza scuro.
Per telescopi da 25 centimetri, un cielo scuro e le moderne e
sensibili camere digitali utilizzate al campionamento ideale, un
esposizione di 5 minuti permette di arrivare alla magnitudine 20
con un segnale sufficiente per essere analizzato con una
precisione migliore di un secondo d’arco.
Il telescopio ideale è costituito da un Newton da almeno 25
centimetri di diametro, aperto a f4,5 e dotato necessariamente di
correttore di coma. Il campo di questi strumenti è infatti corretto
solamente entro pochi millimetri dall’asse ottico; già a 5-6
millimetri si comincia a notare il coma, un’aberrazione extra-
assiale che allunga le stelle e riduce drasticamente la precisione
astrometrica.
Naturalmente il tubo ottico deve essere posto su una solida
montatura equatoriale dotata di motorizzazione, porta per

113
l’autoguida e, possibilmente, puntamento automatico.
Quest’ultimo è molto comodo e qualche volta indispensabile per
puntare oggetti estremamente deboli all’interno di un campo di
pochi minuti d’arco, in un tempo ridotto.
La montatura deve essere in grado di seguire per alcuni
minuti senza presentare il minimo mosso. Per strumenti fino a 25
centimetri, con focale non oltre 1,2-1,5 metri, la montatura EQ6
possiede una precisione ancora accettabile.
Il sensore di ripresa, di tipo CCD, preferibilmente
monocromatico e progettato per le applicazioni astronomiche,
deve essere raffreddato per ridurre al minimo il rumore, sebbene
non sia fondamentale un controllo elettronico della temperatura.
Molto importante è la sensibilità, espressa in termini di efficienza
quantica, che deve essere la maggiore disponibile sul mercato, se
il nostro scopo è cercare e caratterizzare le orbite di piccoli
asteroidi e comete. Per questo motivo le camere non munite di
porta antoblooming sono preferibili.
Critica è la scelta delle dimensioni dei pixel, che va fatta
tenendo presente il campionamento ideale, quindi la focale del
telescopio con cui verrà utilizzata. L’unica indicazione che è
possibile dare in queste pagine è di andare contro la tendenza del
mercato che propone pixel sempre più piccoli. Per l’astrometria
condotta con strumenti da oltre un metro di focale non è
conveniente utilizzare sensori con pixel molto più piccoli di 8-9
micron.
Molto importante è anche il campo reale inquadrato: maggiori
sono le dimensioni del sensore, più facile e precisa sarà la fase di
riduzione astrometrica perché ci saranno più stelle di riferimento
da utilizzare.

114
La ripresa delle immagini fotometriche
Una sessione astrometrica, come ogni lavoro scientifico, va
programmata e affrontata conoscendo già la tecnica necessaria per
raggiungere l’obiettivo che ci siamo prefissati.
La tecnica e gli accorgimenti da prendere variano a seconda
del campo di applicazione. Per l’astrometria di alta precisione dei
corpi minori del Sistema Solare, il campo più delicato e
impegnativo, ecco le fasi da affrontare per poter raggiungere il
limite della propria strumentazione:
1) Stazionare lo strumento in modo molto
accurato. La rotazione di campo non è un problema
enorme, a patto che non si verifichi durante la singola
posa, ma può creare problemi per un puntamento preciso;
2) Messa a fuoco accurata. Questa fase è critica
e richiede moltissima attenzione. Controllare la messa a
fuoco anche nel corso della sessione astrometrica.
Immagini leggermente sfocate non pregiudicano troppo la
precisione ma limitano la magnitudine raggiungibile.
Immagini molto sfocate, invece, inficiano
irrimediabilmente la precisione;
3) Controllare il funzionamento dell’autoguida
e sapere qual è eventualmente il limite per la durata delle
pose. Tutte le immagini riprese devono avere stelle
circolari e non allungate; a tal punto è consigliabile
anche:
4) Controllare la collimazione del proprio
strumento: immagini affette da aberrazioni non hanno
precisione sufficiente;
5) Sincronizzare l’orologio del computer.

115
Questo punto è FONDAMENTALE nel caso si dovesse
seguire un asteroide o un corpo con elevato moto proprio,
che quindi cambia continuamente le proprie coordinate.
La precisione delle misure temporali deve essere accurata
almeno entro un secondo. La rete è piena di programmi
gratuiti che sincronizzano l’orologio del computer con gli
orologi atomici dei vari istituti di ricerca. Non
sottovalutare questa fase che potrebbe, se non fatta con la
dovuta precisione, portare all’inutilità dei dati;
6) Sebbene non necessario, è consigliabile
orientare la camera con il polo nord celeste in alto.
Questa semplice procedura aiuta molto il software di
analisi astrometrica nel riconoscere il campo e dà un
buon criterio per ordinare tutti i nostri dati futuri;
7) Impostare, nel programma che gestisce la
camera CCD, i dati del setup di ripresa, soprattutto
riguardanti il diametro e la focale del telescopio. Questi
sono molto importanti perché verranno salvati nel file
delle immagini. Salvo problemi insormontabili, le riprese
vanno salvate in formato fit. Ogni immagine in formato fit
contiene, infatti, tutti i dati di ripresa quali la data,
l’esposizione, la focale, il diametro del telescopio, la
temperatura di lavoro del CCD, il campionamento, il
guadagno del sensore, il numero di pixel e le loro
dimensioni. Queste informazioni verranno poi lette dal
software di riduzione astrometrica che saprà
istantaneamente, senza l’intervento dell’utente, tutte le
informazioni necessarie per una corretta calibrazione.
Una volta effettuati questi controlli, si comincia la sessione
vera e propria che dipende dal progetto che vogliamo condurre.

116
Se facciamo attività di ricerca di nuovi oggetti dovremo
spazzolare campi di ripresa o galassie (nel caso in cui cerchiamo
supernovae) in breve tempo.
Se seguiamo piccoli asteroidi o comete appena scoperti per
determinarne l’orbita, allora una sessione astrometrica prevede
l’acquisizione di una serie di immagini con la profondità
richiesta, per qualche ora, da confrontare e misurare. Il tempo di
esposizione varia con la magnitudine che si vuole raggiungere e
con il moto proprio dell’oggetto, stando sempre ben attenti a non
saturarlo.
Per i corpi con moto proprio apprezzabile, l’esposizione deve
essere tale da non evidenziare il moto dell’oggetto (quando
possibile), altrimenti la precisione ne risentirebbe notevolmente.
Generalmente, per gli asteroidi della fascia principale
l’esposizione massima può arrivare anche a 5 minuti, mentre per i
NEO, gli asteroidi vicini alla Terra, si scende a 30-60 secondi.
Ecco perché servirebbe un telescopio molto luminoso, come un
Newton di diametro generoso.
Si può utilizzare tranquillamente la tecnica di somma o media
di più immagini, a patto che nessuno degli oggetti del campo
risulti mosso, così come un eventuale binning 2x2 se la
profondità raggiunta non è sufficiente.
In generale, per confermare qualsiasi posizione occorrono
almeno 3 immagini ottenute a distanza di una ventina di minuti,
magari in due serate consecutive. In caso contrario, i dati non
saranno presi in esame dalla comunità scientifica. Il consiglio è
ottenere ben più di tre misurazioni!
Ogni immagine deve essere prima di ogni altra operazione
(compresa eventuale somma con altre riprese) calibrata con un
master dark frame frutto della mediana di almeno 5-7 singoli

117
dark. Meno fondamentale, anche se comunque importante, è la
correzione per il flat field, specialmente se la ripresa avviene in
luoghi con inquinamento luminoso o con strumenti che
presentano il fenomeno della vignettatura. Anche in questo caso
l’ideale è un master flat field frutto della media di almeno una
decina di singoli flat field. La media è importante per non
introdurre nell’immagine da calibrare altro rumore che
abbasserebbe il rapporto segnale/rumore degli oggetti deboli.

118
Come si fa astrometria in pratica
La riduzione astrometrica è semplice e veloce. Prima di tutto
bisogna calibrare tutte le singole immagini con i relativi dark
frame e flat field. A questo punto, senza altri interventi, si passa
alla riduzione astrometrica vera e propria, che si fa con dei
software che provvedono a fare in automatico tutte le fasi
necessarie.
Nel panorama amatoriale due programmi si rivelano
particolarmente utili: uno è l’onnipresente IRIS, l’altro è
Astrometrica, il software più semplice, preciso e completo al
quale gli astrofili possono accedere, per di più con una spesa
contenuta entro qualche decina di euro:
http://www.astrometrica.at/default.html?/download.html.
In queste pagine ci riferiremo a questo software, che sotto
molti punti di vista è migliore di IRIS, ma le procedure sono
comunque simili per entrambi.
E’ estremamente importante che l’oggetto da misurare non sia
saturo, così come tutte le stelle di paragone. Se nel campo ce ne
sono alcune (e capita spesso), non preoccupiamoci, basterà
scartarle nelle fasi successive affinché non pregiudichino la
precisione raggiunta.
La prima cosa da fare è configurare il programma e inserire
tutti i dati: coordinate del sito osservativo, eventuale codice MPC
(vedremo tra poco cosa significa), dati del telescopio e del CCD,
e le configurazioni per la riduzione astrometrica, tra cui la scelta
del catalogo di stelle di riferimento.
A proposito dei cataloghi, di cui non abbiamo ancora parlato
approfonditamente, è meglio fare un po’ di chiarezza. Questi
infatti rappresentano la base da cui il programma attinge per

119
calcolare le coordinate precise del nostro oggetto attraverso la
scelta delle stelle di riferimento. I cataloghi stellari più importanti
sono sostanzialmente due:
1) il GSC, Guide Star Catalogue, contiene
posizioni, con precisione molto migliore di 1”, di 15
milioni di stelle fino alla magnitudine 16.
Originariamente nato come catalogo di stelle di guida e
puntamento per il telescopio spaziale Hubble, è stato
sostituito dal GSCII, un database contenente astrometria
e fotometrica di circa 450 milioni di stelle. La prima
versione si può scaricare gratuitamente da internet e
importare nel programma Astrometrica o qualsiasi altro
software di riduzione astrometrica:
http://gsss.stsci.edu/Catalogs/GSC/GSC1/GSC1.htm;
2) L’USNO, (US Naval Observatory Catalogue).
La versione 1 contiene posizioni e fotometria, con
precisioni intorno a 0,20” di stelle dalla magnitudine 11
alla 19, per un totale di 430 milioni di oggetti. La
versione 2, più aggiornata, contiene la posizione, con una
precisione simile, di oltre 500 milioni di stelle.
Probabilmente questo è il catalogo più utile per
l’astrometria di alta precisione, soprattutto se il campo
inquadrato dalla propria strumentazione è piuttosto
stretto. Si può scaricare partendo da questo link:
http://tdc-www.harvard.edu/catalogs/ua2.html.
Se si utilizza il programma Astrometrica, sarà proprio questo
a scaricare da internet automaticamente, in base alle coordinate
del campo da indagare, le informazioni contenute nel catalogo
USNO-1B. Sfortunatamente questa comoda operazione è
possibile solo con questo catalogo.

120
Se si ha la pazienza di scaricare dalla rete l’immensa mole di
dati del catalogo USNO-2A e/o del GSC (poco più di una decina
di GB) si potrà confrontare la precisione e l’efficienza della
riduzione astrometrica e scegliere il catalogo più adatto a seconda
delle situazioni.
Generalmente il GSC è adatto per campi più larghi e meno
profondi, particolarmente utili per l’astrometria di supernovae,
novae e tutti gli oggetti che non richiedono precisioni altissime
per essere caratterizzati. Per l’astrometria dei corpi deboli in
movimento il catalogo USNO, in particolare nella versione 2, si
rivela più efficiente.
Configurato il programma e scelto il catalogo, possiamo
passare finalmente alla fase operativa. Basta caricare l’immagine
o le immagini da analizzare e poi cominciare la riduzione
astrometrica.
Appena avviata la riduzione attraverso il menù (Astrometry—
>data reduction) verrà chiesta la conferma dell’orario di ripresa,
poi si dovranno inserire le coordinate approssimate del centro
dell’immagine, oppure il nome dell’asteroide ripreso.
Astrometrica è ottimizzato per la posizione dei corpi minori
del sistema solare e si collega direttamente al sito del Minor
Planet Center (MPC) per scaricare nomi ed effemeridi aggiornate
in tempo reale. Questo permette di individuare, in modo
automatico, tutti gli oggetti stellari e cercare subito una
corrispondenza con le stelle contenute nel catalogo di riferimento
selezionato. Il processo richiede pochi secondi. Al termine
dell’operazione, se è andata a buon fine, compariranno
nell’immagine le stelle di riferimento utilizzate (spesso oltre le
50) e in una finestra l’incertezza risultante.
Non tutte le stelle di paragone hanno posizioni conosciute

121
con estrema precisione e/o sono adatte per essere utilizzate (ad
esempio sono saturate), per questo è necessario operare
un’attenta analisi manuale, scartando quelle il cui errore è
superiore al mezzo secondo d’arco. Non c’è bisogno di andare a
caso, perché Astrometrica indica con cerchi di diversi colori le
stelle la cui precisione non è sufficiente (maggiore di 1”) ai nostri
scopi. L’uso di almeno una decina di ottime stelle di paragone
permette di ridurre l’errore residuo, che si assesterà tipicamente
intorno a 0,15”. Questa è l’incertezza che nelle pagine precedenti
abbiamo chiamato σREF.
La calibrazione astrometrica è ora completa e possiamo
quindi procedere alla misurazione di ogni corpo celeste
contenuto nell’immagine semplicemente cliccandoci sopra.
Quando clicchiamo su un oggetto puntiforme, il programma
analizza istantaneamente il profilo di luminosità e vi sovrappone
il fit della PSF stellare per individuare con la massima precisione
il centro, quindi le coordinate equatoriali. Viene fornita anche
una stima della magnitudine dell’oggetto, la cui precisione
aumenta a seconda delle stelle di paragone utilizzate (non devono
essere sature) e dell’eventuale presenza di filtri fotometrici.
Ora è sufficiente annotare la posizione e l’errore
corrispondente in ciascuna delle immagini della sessione e
salvare i dati ottenuti in un formato testuale.
Astrometrica salva i dati nel formato standard utilizzato dagli
osservatori del Minor Planet Center, l’ente che raccoglie tutte le
informazioni in merito alla scoperta e all’astrometria di tutti i
corpi minori del sistema solare.

122
A chi rivolgersi
La domanda, a questo punto, potrebbe sorgere spontanea:
quando abbiamo raccolto dati precisi e utili dal punto di vista
scientifico, cosa ci facciamo? A chi vanno inviati? E in che
modo?
Nelle applicazioni astrometriche riguardanti gli asteroidi
(scoperta, posizioni astrometriche in funzione del tempo), il
Minor Planet Center è l’ente dedicato alla raccolta e alla
pubblicazione di dati ed eventuali scoperte. Partecipare, quindi,
sembra la naturale evoluzione di tutti coloro che amano fare
astrometria. Per farlo bisogna diventare osservatori accreditati
presso il MPC.
I passi da seguire sono semplici. Quando il setup e la tecnica
sono già state rodate in qualche serata di test e si è in grado di
produrre misurazioni con precisioni inferiori ad secondo d’arco,
allora il gioco è quasi fatto, basta superare un piccolo esame.
È sufficiente osservare per qualche giorno un asteroide con
orbita nota e con una magnitudine compresa tra la 16 la 17,
raccogliendo almeno 3 posizioni astrometriche per ogni notte e
poi inviare i dati, nel formato accettato dall’ente, via mail. Le
misurazioni verranno analizzate e se gli errori commessi saranno
inferiori a 1 secondo d’arco l’ente fornirà un codice che
identifica l’osservatorio (o il semplice telescopio!)
ufficializzando quindi la collaborazione.
Il Minor Planet Center è un’organizzazione seria, coordinata
da professionisti, che richiede massima serietà da parte dei
collaboratori.
I dati astrometrici vanno forniti in un file di testo con
estensione .txt in uno standard ben preciso. Fortunatamente a

123
questo pensa tutto Astrometrica in automatico. Il sito web
dell’ente: http://www.cfa.harvard.edu/iau/mpc.html contiene una
miriade di informazioni e guide per poter migliorare e partecipare
attivamente alla ricerca e studio di nuovi oggetti. Consiglio di
leggere le istruzioni e i consigli su come ottenere e inviare le
misurazioni: un ottimo esempio di metodo scientifico.
Il sito web del MPC contiene anche una lista di oggetti NEO
(Near Earth Objects) che richiedono osservazioni ulteriori per
confermare la loro scoperta:
http://www.cfa.harvard.edu/iau/NEO/ToConfirm.html .
Questa è una pagina da consultare più volte nell’arco della
giornata per programmare eventuali osservazioni. Non di rado
capitano oggetti molto interessanti e piuttosto luminosi (mag <
16) alla portata di tutti i telescopi.
Inutile dire che la concorrenza è spietata: gli osservatori
amatoriali sono centinaia e le grandi survey professionali si
accaparrano una buona fetta delle scoperte.
Per tutti i fenomeni transienti, quali nuove comete, novae e
supernovae, il centro che raccoglie dati e osservazioni è il CBAT
(Central Bureau fot Astronomical Telegram), che ha una struttura
simile a quella del MPC.

124
Astrofisica

Alcuni degli articoli che vedremo sono estratti dal mio libro:
“Nella mente dell’Universo”
Questa sezione, suddivisa in due rubriche, l’una un po’ più
tecnica, l’altra più semplice, rappresenta il cuore di questi volumi
e ci proietta verso i grandi temi dell’astronomia teorica. Pianeti,
stelle, galassie, buchi neri, quasar, nebulose, ammassi stellari,
materia oscura, destino dell’Universo… Affronteremo insieme,
mese dopo mese, un viaggio dal piccolo al grande, dal semplice al
complesso, attraverso la struttura dell’Universo e le proprietà dei
suoi strani abitanti. Per quanto possibile eviterò formule e
concetti di difficile comprensione, rendendo l’articolo principale
accessibile a tutti. La seconda parte, decisamente più rilassante, è
a completa disposizione per tutte le domande sul Cosmo che la
vostra mente riesce a concepire.

125
Il destino dell’Universo

Qual è il destino dell’Universo? E come si comportava


inizialmente? La sua espansione è costante? Sta rallentando? Sta
accelerando? Come è possibile capirlo?
Secondo le attuali osservazioni e i conseguenti modelli,
l’Universo è nato circa 14 miliardi di anni fa da un evento iniziale
che ha creato, oltre alla materia e all’energia, anche lo stesso
spazio e il tempo.
È quindi riduttivo pensare la nascita dell’Universo come
un’esplosione in una zona di spazio già esistente. Il Big Bang ha
creato lo spazio, che prima semplicemente non esisteva. Esso può
essere pensato come un palloncino che a un certo punto si gonfia,
riempiendosi di aria (materia) ed espandendosi, quindi creando
letteralmente nuovo spazio.
Dopo questo evento iniziale, l’Universo si è continuato a
espandere fino ai giorni nostri. L’unica forza in grado di
rallentare la velocità di espansione è solamente una: la gravità dei
corpi celesti e di tutta la materia contenuta.
Il destino dell’Universo è quindi legato alla quantità di
materia presente: se è maggiore di un certo limite critico, la forza
di gravità prima o poi fermerà l’espansione e l’Universo
comincerà addirittura a contrarsi. Se è minore del valore critico,
niente e nessuno potrà fermare l’espansione dell’Universo, che
procederà all’infinito.
Invece di parlare di massa possiamo considerare la densità,
ovvero la concentrazione di materia. Secondo questa

126
convenzione, la densità critica rappresenta la densità di materia
necessaria per fermare completamente l’espansione.
Possiamo infatti immaginare l’Universo a grandissima scala
come isotropo e omogeneo, cioè come identico in ogni direzione
(isotropo) e con la materia distribuita in modo uniforme
(omogeneo).
In questo caso, invece di quantificare tutta la massa presente
che sarebbe davvero impossibile da stimare, possiamo misurare la
densità di una porzione locale e poi assumere questo valore come
costante e tipico dell’intero Universo e da esso capire se la
materia presente è sufficiente a fermare o meno l’espansione.
A questo punto ci sono sostanzialmente tre casi, che
dipendono dal rapporto tra la densità reale e quella critica.
Questo rapporto è detto omega( Ω ):
1) Se Ω > 1 la densità reale è maggiore di
quella critica, ergo, la massa contenuta è in grado di
fermare l’espansione e addirittura invertirla. L’Universo
prima o poi subirà una contrazione, che farà collassare
tutta la materia in un punto, formando, teoricamente, un
nuovo Big Bang. Questa contrazione è chiamata Big
Crunch, letteralmente grande collasso. La teoria ammette
l’esistenza di infiniti universi che probabilmente si
ripetono esattamente uguali a loro stessi, confermando la
congettura filosofica di Nietzche sull’eterno ritorno;
2) Se Ω = 1 la densità reale è esattamente
quella critica. Questo implica che l’Universo ha
abbastanza massa per fermare l’espansione ma non per
iniziare la fase di contrazione. In altre parole, in un tempo
tendente all’infinito, l’Universo diventerà completamente
statico, in gergo è detto piatto;

127
3) Se Ω < 1 la densità reale è minore di quella
critica; l’Universo, pur rallentando il ritmo
dell’espansione, non si ferma e continuerà a espandersi
per sempre.
Determinare il valore esatto della densità di materia è una
delle imprese più difficili dell’astronomia moderna.
Attualmente si pensa (ma senza prove troppo convincenti) che
il parametro omega sia prossimo all’unità. Se questo fosse vero,
l’Universo vivrebbe per sempre e andrebbe incontro a una lenta e
inesorabile agonia. Le stelle lentamente finiranno il loro
combustibile e si spegneranno. Dopo decine di miliardi di anni
sarà un posto buio, privo di strutture organizzate e di qualsiasi
forma di vita.

128
Un destino alternativo (e non proprio piacevole)
La costante di Hubble ci fornisce il tasso di espansione
dell’Universo. Se il suo valore resta davvero costante, come
suggerisce la parola, allora significa che l’Universo, a partire dal
“calcio” iniziale identificato con il Big Bang, non è stato
sottoposto ad alcuna forza netta (tranne, in piccola parte, la
gravità), tale da variare sensibilmente il suo tasso di espansione.
Ricordate infatti che un corpo varia il proprio stato di moto
solamente se sottoposto a una forza netta; in caso contrario
continuerà a muoversi di moto rettilineo uniforme. Nell’Universo
succede la stessa cosa: senza forze nette (e molto intense)
l’espansione procede a un ritmo costante. Il ruolo della forza di
gravità nel rallentarne l’espansione non sembra ancora chiaro,
perché il tempo trascorso è troppo breve per misurarne
accuratamente gli effetti.
La determinazione esatta della costante di Hubble in funzione
delle ere cosmologiche è fondamentale nel capire come varia
l’espansione dell’Universo nel corso del tempo e di conseguenza
stimare l’intensità delle forze in grado di cambiare questo stato di
moto rettilineo e uniforme (e tra l’altro, capire quanta materia c’è
nell’Universo).
A prescindere dalla quantità di materia presente, se
consideriamo che solamente la forza di gravità sia la regolatrice
della struttura attuale dell’Universo, dovremmo assistere a un
lento (o lentissimo) rallentamento dell’espansione, soprattutto in
ere cosmologiche recenti.
Sovvertendo ogni aspettativa, le ultime osservazioni ci danno
indizi che l’Universo non solo non sta rallentando, ma sta invece
accelerando la sua espansione, proprio in ere cosmologiche

129
recenti!
In parole ancora più chiare: l’espansione procede a ritmi
maggiori ora rispetto a qualche miliardo di anni fa.
Come si è fatto a scoprire questo importantissimo fatto?
Riuscite a capire, almeno concettualmente, quale tecnica
potrebbe essere stata utilizzata?
In linea di principio è semplice: attraverso la legge di
Hubblepossiamo stimare la distanza di tutte le galassie
osservabili, dopo aver determinato la costante H0 . Se il suo
valore è costante nel tempo, essa non varia e le distanze trovate
sono corrette per ogni era cosmologica. Se invece H0 varia con il
tempo, il valore calcolato attraverso l’osservazione di galassie
lontanissime dovrebbe differire da quello di galassie a noi più
vicine. Se usiamo il primo valore per calcolare le distanze di parti
di Universo più vicine nel tempo, otteniamo distanze che non
corrispondono alla realtà.
A questo punto arriva la difficoltà: se non abbiamo un altro
metodo indipendente per stimare le distanze intergalattiche, come
possiamo capire se le distanze fornite dalla legge di Hubble sono
corrette o meno?
Negli ultimi decenni, grazie all’imponente sviluppo
tecnologico, abbiamo a disposizione finalmente un metodo molto
potente per misurare le distanze delle galassie, anche remote,
basato sull’osservazione delle supernovae.
Tra le diverse classi di supernovae dell’Universo, almeno una,
denominata Ia, ha luminosità assoluta fissata. Questo è un
vantaggio straordinario, perché conoscendo la luminosità
apparente, che possiamo misurare senza problemi, siamo subito
in grado di stimare la distanza precisa della stella esplosa, quindi
della galassia ospite.

130
Bene, numerose osservazioni di supernovae in diverse ere
cosmologiche hanno permesso di scoprire che la distanza
calcolata attraverso la loro curva di luce caratteristica è maggiore
di quella ricavata dalla legge di Hubble di un 10-15% per gli
eventi a noi più vicini, mentre concorda perfettamente per altre
porzioni temporali dell’Universo (figura a lato).
L’accelerazione dell’espansione dell’Universo sembra quindi
un fatto confermato da solide basi e che di certo non possiamo
ignorare.

Nessun modello di Universo finora visto prevede un’accelerazione nel


tempo, evidenziata bene dalla progressiva ed evidente discordanza tra le
distanze stimate con la legge di Hubble e attraverso la curva di luce delle
supernovae. Occorre trovare nuove spiegazioni a questo fatto sperimentale.

Questo dato imprevisto ci fa giungere all’ennesimo


paradosso: come è possibile spiegare un’accelerazione
dell’espansione solamente considerando la forza di gravità che è
sempre attrattiva? In effetti non si può spiegare.

131
Se l’Universo si espande con un ritmo crescente, deve esistere
una forza di tipo repulsivo addirittura maggiore della forza di
gravità prodotta dalla massa contenuta. Questa è l’unica via
d’uscita.
Ci serve qualche altra forza che non abbiamo considerato fino
a ora, qualcosa di esotico e dannatamente potente, con
un’intensità maggiore quanto maggiori sono le dimensioni
dell’Universo, visto che il suo contributo all’espansione
dell’Universo aumenta mano a mano che aumentano le sue
dimensioni.
L’uscita da questa fase di stallo viene ancora una volta dal
genio di Einstein, attraverso la reintroduzione della costante
cosmologica. Un piccolissimo excursus storico a questo punto è
d’obbligo per comprendere meglio il tutto.
Al tempo di Einstein non si conosceva ancora l’espansione
dell’Universo.
Egli era convinto che si estendesse molto oltre i confini della
nostra Galassia (non si conosceva neanche la natura delle
numerose nebulae!), che fosse finito ma illimitato, analogamente
alla superficie di una sfera, e che fosse in uno stato
completamente statico (stato stazionario).
Possiamo comprendere l’idea di Einstein considerando
proprio un Universo a forma di sfera un po’ particolare, che
coinvolge le tre dimensioni spaziali e quella temporale
(ipersfera); tutti i corpi si trovano sulla superficie di questa
ipersfera, analogamente agli esseri umani sulla Terra. Il volume è
finito, ma la sua estensione è illimitata: potremmo camminare in
eterno sulla superficie della Terra senza incontrare un confine,
ripercorrendo sempre lo stesso giro. Stessa considerazione per
l’Universo.

132
Secondo questa idea statica eretta a principio, il grande genio
tedesco costruì un modello fisico-matematico che potesse
giustificare un Universo di questo tipo.
Egli era ben cosciente che un tale Universo, modellato
unicamente dalla forza di gravità (l’unica che si conosceva con
certezza), sarebbe collassato su se stesso violando il principio di
staticità, quindi introdusse nella trattazione un termine, chiamato
costante cosmologica (Λ), come contributo di una certa forza
repulsiva (sconosciuta) che agendo su grande scala era in grado
di bilanciare perfettamente la contrazione prodotta dalla forza di
gravità e mantenere l’Universo statico in eternità.
Il modello matematicamente era pronto e funzionante, ma
fisicamente doveva ancora essere messo alla prova, perché non vi
erano indizi che giustificassero un Universo realmente statico.
Con la scoperta del moto di recessione delle galassie da parte
di Hubble, cadde completamente l’idea di Einstein di un
Universo di questo tipo. Il suo modello, matematicamente
ineccepibile, non era fisicamente corretto perché si basava su un
principio errato.
Egli stesso ritrattò tutto ed etichettò l’introduzione della
costante cosmologica come l’errore più grande della propria vita
(una grande lezione di umiltà, pochissimi l’avrebbero fatto,
continuando piuttosto a cercare prove a sostegno della loro
teoria).
Il modello di Universo di Einstein era sbagliato (almeno
secondo i dati attuali), ma non è detto che la grandezza da lui
creata e soprannominata costante cosmologica sia totalmente
priva di fondamento. Proprio negli anni recenti è tornata alla
ribalta per caratterizzare la misteriosa forza che sembra accelerare
l’espansione.

133
Non si sa bene cosa sia in realtà la costante cosmologica;
alcuni la chiamano energia oscura, una massa-energia che
dovrebbe costituire il 70% dell’energia totale dell’Universo, che
esercita una forza repulsiva contraria a quella della materia
comune, rilegata solamente a un misero 30% (a sua volta questo
30% è suddiviso in materia visibile, circa il 10%, e materia
oscura, circa il 90%, di cui parleremo in un prossimo volume).
Si può immaginare l’energia oscura (da non confondere con
la materia oscura!) come un qualcosa legato all’esistenza stessa
del tessuto spazio-temporale dell’intero Universo, un’energia,
quindi una massa, che è presente in quanto esiste lo spazio e il
tempo.
Attraverso questa assunzione è relativamente facile pensare
che il suo contributo come fonte di “antigravità” cresca quanto
maggiore è lo spazio stesso.
In altre parole, il contributo dell’energia oscura cresce mano a
mano che l’Universo si espande, generando un’accelerazione.
Nei primi miliardi di anni di vita dell’Universo, il contributo
della materia ordinaria, generatrice della forza di gravità come noi
la conosciamo, era dominante e ha rallentato leggermente
l’espansione.
Successivamente, si stima circa 5-7 miliardi di anni fa, il
contributo antigravitazionale dell’energia oscura ha cominciato a
rendersi predominante e ha invertito l’accelerazione
dell’Universo, dandole un valore positivo.
L’energia oscura, sebbene non si sa cosa sia e come
parametrizzarla con grandezze fisiche, è qualcosa alla cui base ci
sono solide osservazioni sperimentali. Si può quindi commettere
l’errore di definirla nel modo sbagliato o con grandezze e teorie
non completamente coerenti tra loro, ma il suo effetto è reale e

134
misurabile.
Nell’Universo la densità di questa energia oscura è
estremamente bassa, dell’ordine di 10-29 g/cm3 ma permea tutto lo
spazio; anzi, come già accennato, essa può essere pensata come
l’energia associata allo spazio stesso, il prezzo da pagare, in
termini energetici, per avere il tessuto spazio-temporale nel quale
si sviluppano corpi e fenomeni dell’Universo. Questa idea non è
poi così esotica dal punto di vista logico: per far muovere le
automobili servono strade, che richiedono una buona dose di
energia (e denaro) per essere costruite. Analogamente per
l’Universo: il tessuto sul quale si sviluppano gli oggetti ha
bisogno di energia per essere creato e mantenuto. Si potrebbe dire
che nell’Universo, proprio come nella dura realtà terrestre, nulla è
gratis!
A livello infinitamente piccolo, l’energia dello spazio, detta
più propriamente energia del vuoto, è un fenomeno spiegabile
con le moderne teorie di meccanica quantistica, che noi non
analizzeremo a fondo perché estremamente complesse.
Per cercare di comprendere meglio questo delicato passaggio,
bisogna fare di nuovo un salto nel mondo subatomico e parlare
brevemente di una legge fisica chiamata principio di
indeterminazione.

135
Stima dell’attuale composizione energetica dell’Universo. La materia
osservabile è solo una piccola frazione dell’energia effettivamente presente.
Ben il 70% è rappresentato dall’energia oscura.

136
Il principio di indeterminazione di Heisenberg e la
produzione di particelle virtuali
Apriamo una piccola parentesi riguardante una delle più
bizzarre proprietà dell’infinitamente piccolo parlando del
principio di indeterminazione di Heisenberg.
Nella prima metà del ventesimo secolo (1927) il fisico Werner
Heisenberg formulò il famoso principio di indeterminazione
applicato al mondo delle particelle atomiche e subatomiche.
Negli anni successivi questo principio venne chiarito e
modificato e attualmente è un teorema dimostrabile con i
postulati della meccanica quantistica.
Il principio di indeterminazione afferma che è impossibile
conoscere simultaneamente, con una precisione arbitraria, una
coppia di grandezze legate, le più importanti delle quali sono
posizione e quantità di moto, ovvero la velocità, di qualsiasi
particella.
Nella forma matematica, il principio di indeterminazione
afferma che: ΔxΔp ≥ h/4π , dove Δx è l’errore sulla
posizione, Δp quello sulla quantità di moto ( p = mv ) e h è detta
costante di Planck h = 6,6260689633∙10-34Js (Joule per secondi,
già vista nei capitoli iniziali).
Dalla relazione risulta che è impossibile determinare
simultaneamente la posizione e la velocità di una particella con
una precisione migliore di h/4π .
Il principio è valido anche per la coppia energia-intervallo di
tempo, tanto che si ha una relazione simile: ΔEΔt ≥ h/2π è ΔE ≥
h/(2πΔt ).
In questo caso è impossibile determinare con una precisione
illimitata sia l’energia che la coordinata temporale della

137
particella. In particolare, non è possibile conoscere l’energia di
una particella con una precisione migliore di h/(2πΔt ). Minore è
l’intervallo di tempo della misurazione, maggiore è incertezza
sull’energia della particella.
Mano a mano che l’intervallo di tempo della misurazione si
allunga, l’energia “si stabilizza” e l’errore commesso diventa
sempre più piccolo.
Questo punto è fondamentale per comprendere l’energia del
vuoto.
Attraverso la relazione possiamo ricavare l’intervallo di
tempo Δt per il quale l’incertezza nella conoscenza dell’energia
del vuoto raggiunge lo stesso valore di un protone e il suo anti-
protone: Δt = h/(2π ΔE) = h/(4π mpc2) è Δt ≈ 10-25s .
In questo intervallo di tempo l’incertezza nella conoscenza
dell’energia del vuoto è così grande che è ammissibile addirittura
la creazione di una particella e della relativa antiparticella.
Il vuoto ha dunque un’energia diversa da zero.
Facciamo un bel respiro e cerchiamo di ragionare per fare
almeno un po’ di luce su tutto questo.
Una prima conferma a quanto detto, seppure indiretta, deriva
da una semplice osservazione logica: un’energia nulla, alla luce
delle attuali conoscenze di meccanica quantistica del mondo
subatomico, violerebbe il principio di indeterminazione di
Heisenberg stesso, alla base della spiegazione dei fenomeni a
livello subatomico.
Il principio di indeterminazione, al pari della dilatazione dei
tempi descritta dalla relatività di Einstein, non è qualcosa che
riguarda il nostro modo di misurare l’Universo, piuttosto una
caratteristica insita nell’Universo stesso.
Nel nostro caso cosmologico questa energia del vuoto (o

138
energia oscura) è identificata con la famosa costante cosmologica
di Einstein; queste due quantità sono fisicamente equivalenti.
Prove dell’energia del vuoto sono state ampliamente accertate
attraverso vari esperimenti, tra cui l’effetto Casimir e la stessa
teoria quantistica dei campi, che prevede lo scambio di particelle
di campo come mediatori delle 4 interazioni fondamentali.
Il principio di indeterminazione ammette che ci siano delle
fluttuazioni diverse da zero nell’energia del vuoto attraverso la
continua produzione di particelle che esistono per tempi
brevissimi senza violare il principio di conservazione
dell’energia. Le particelle sono sempre prodotte a coppie e sono
dette virtuali. Questa parola racchiude una strana proprietà fisica:
il principio di indeterminazione che rende possibile la loro
esistenza rende anche impossibile la loro rilevazione, con
qualsiasi mezzo.
Sembra tutto molto difficile da comprendere e da credere, ma
le osservazioni e le misurazioni dell’infinitamente piccolo dicono
questo.

139
L’energia del vuoto produce antigravità
Abbiamo dimostrato quindi che il vuoto ha energia diversa da
zero, dovuta all’esistenza stessa dello spazio e del tempo. Se
questa vi sembra la cosa bizzarra, non so cosa penserete tra
qualche istante.
Il fatto sorprendente non è infatti l’energia del vuoto,
piuttosto che l’energia del vuoto produce una forza di gravità
negativa!
In linguaggio cosmologico si è soliti dire che la pressione è
negativa.
Pressione e forza sono sostanzialmente due modi leggermente
diversi di esprimere lo stesso concetto, poiché la pressione è una
forza divisa per una superficie (forza per unità di superficie).
Parlare di pressione o forza è quindi equivalente a meno di una
generica superficie.
Proviamo ora insieme a capire come sia possibile che
l’energia del vuoto produca una pressione negativa responsabile
dell’accelerazione dell’espansione dell’Universo.
Questo concetto non è impossibile da comprendere se
teniamo presente che l’energia del vuoto aumenta con
l’aumentare dello spazio.
Dopo questa doverosa condizione, possiamo vedere il tutto
sotto un punto di vista classico e assolutamente più familiare,
attraverso l’utilizzo delle leggi della termodinamica.
Consideriamo un contenitore, un classico cilindro nel quale
all’interno c’è il vuoto (questo è chiaramente un esperimento
ideale!). Supponiamo di variare il volume di una quantità
infinitesima e positiva dV .
La termodinamica ci dice che il lavoro fatto per variare

140
questo volume è negativo: dW = -PdV dove P = pressione. La
massa contenuta nel contenitore, che è equivalente all’energia
(equivalenza massa-energia) si può scrivere genericamente come
il prodotto della densità per il volume: E = ρV .
È questo il punto chiave. In un qualsiasi contenitore isolato
contenente un gas, l’energia si conserva (conservazione della
massa-energia); nel vuoto, invece, questa aumenta, perché
direttamente legata all’aumento di volume. Se vario il volume di
una quantità infinitesima, ho un aumento dell’energia del vuoto,
dato da: dE = ρdV . Questo aumento di energia, per il principio
di conservazione, sarà uguale al lavoro eseguito per aumentare il
volume, che è negativo: dE = dW è ρdV = -PdV , quindi,
risultato importantissimo: P = -ρ . Questa semplice relazione ci
dice che la pressione che si crea nel contenitore è negativa.
Una pressione negativa produce una forza negativa: P =
F/S è F = PS < 0 ; la forza in questo caso agisce in verso
contrario a quello della gravità, una specie di anti-gravità che
contrasta quella della materia (visibile + oscura).
La costante cosmologia è esattamente uguale alla densità di
energia del vuoto, ed è stimata, per riprodurre perfettamente le
osservazioni di cui finora disponiamo, attorno a ρ = Λ ≈ 10-
29
g/cm3 .
Questo valore, che ben riproduce i dati cosmologici, non si
adatta però al mondo dell’infinitamente piccolo e per questo ci
sono ancora seri problemi nell’avere una teoria soddisfacente.
Quello che sembra chiaro è che Einstein, ancora una volta,
aveva ragione: la sua costante cosmologica, il termine di
antigravità, sembra esistere davvero. Non si conosce con esattezza
come essa funzioni e quale sia il suo valore, ma nell’Universo
(per quanto suggeriscono i dati in nostro possesso fino a ora)

141
agisce una forza contraria alla gravità in grado non solo di
annullare gli effetti della massa, ma di accelerare addirittura
l’espansione stessa.
Come già accennato, poiché l’energia del vuoto aumenta
all’aumentare del volume, aumenta in questo caso anche il tasso
di espansione. In altre parole, l’Universo si espande in modo
sempre più accelerato mano a mano che crescono le sue
dimensioni.

142
Il Big Rip
Non esiste apparentemente nulla che possa fermare questo
processo, tanto che si pensa che il destino ultimo dell’Universo
possa essere il cosiddetto Big Rip, letteralmente il grande
squarcio. L’espansione sarebbe così veloce e violenta da
frantumare gli ammassi di galassie e le galassie stesse,
distruggendo tutti gli aggregati di materia che ora possiamo
osservare.
A prescindere dai problemi legati al valore della costante
cosmologica (a livello quantistico essa sembra essere ben 123
ordini di grandezza maggiore rispetto a quella su scala
cosmologica!) se i dati confermeranno l’espansione accelerata
dell’Universo, saremmo di fronte a un destino piuttosto chiaro.
Cosa succederà in questo scenario?
Visto che non esiste un limite alla velocità di espansione, i
confini dell’Universo osservabile invece di allargarsi si
restringeranno con il tempo. La velocità di recessione delle
galassie osservate da un qualsiasi punto può superare senza alcun
problema la velocità della luce. Naturalmente però, quando
questo limite verrà raggiunto e a noi dovrebbe arrivare
l’informazione su questa velocità superluminale, non saremo più
in grado di vedere la luce proveniente dall’oggetto stesso; in
termini fisici si dice che il redshift è infinito.
Poiché l’espansione accelera, la velocità di recessione è
destinata ad aumentare con il tempo e a superare quella della luce
per distanze sempre minori dal nostro punto di osservazione: il
nostro orizzonte, identificato con gli oggetti che possiamo
osservare, si restringerà inesorabilmente sempre di più.
Presto la crescente espansione causerà la graduale ma

143
inesorabile disgregazione di tutte le strutture di materia
attualmente esistenti.
Prima saranno gli ammassi di galassie a farne le spese. Le
velocità di recessione relative diventeranno maggiori di quelle
che la forza di gravità può sopportare (maggiori quindi della
velocità di fuga): le singole componenti si disperderanno e
l’ammasso di galassie cesserà di esistere come oggetto
gravitazionalmente legato.
Successivamente, aumentando ancora il tasso di espansione si
raggiungerà una velocità tale da disgregare le singole galassie;
stelle e gas verranno dispersi nello spazio.
È plausibile che 60 milioni di anni prima dell’evento finale, il
Big Rip, la nostra Via Lattea venga smembrata. L’orizzonte
accessibile sarà ridotto a circa 70 milioni di parsec, circa 300
milioni di anni luce.
Il destino dell’Universo è ormai segnato.
Pochi mesi prima dell’evento finale, anche la Terra e l’intero
sistema solare (già duramente provati, se non distrutti, dalla fine
del Sole) verranno disgregati e destinati a vagare nello spazio, ma
per un tempo davvero piccolo, poiché circa mezz’ora prima del
Big Rip anche la Terra e tutti i pianeti dell’Universo verranno
disgregati dall’espansione violentissima dello spazio.
È solo questione di tempo (molto poco) prima che
l’espansione raggiunga livelli così elevati da distruggere anche
atomi e molecole legate dall’interazione elettromagnetica, circa
10-19 secondi prima della fine. Successivamente anche
l’interazione forte verrà abbattuta: i nuclei atomici si
spaccheranno, così come i nucleoni stessi e tutte le particelle
composite.
Siamo arrivati alla fine, al Big Rip: l’Universo è un luogo

144
completamente buio e morto, composto, forse, solamente da
particelle elementari (quark, elettroni), che a causa
dell’espansione dello spazio a velocità maggiori della luce già per
raggi superiori a 10-15m non si possono vedere, ergo non possono
in alcun modo interagire, poiché l’orizzonte visibile si è ridotto
praticamente a zero.
Siamo in un caso di singolarità. Alcune o tutte grandezze
fisiche hanno valori nulli o infiniti: non si può più descrivere lo
spazio-tempo con queste leggi, l’Universo è un luogo
completamente sconosciuto.
Se i dati attuali sono corretti, si è calcolato che tra circa 20
miliardi di anni ci saranno le condizioni per questo evento finale,
che dovrebbe porre fine all’Universo come noi lo conosciamo.
In realtà questa è solamente una teoria, forse la migliore
attualmente in grado di spiegare e interpretare tutti i dati in
nostro possesso, ma non certo l’unica.

145
Domande e risposte
Questo spazio, all’interno della sezione di astronomia teorica,
è rivolto a tutti coloro che trovano irresistibili i grandi temi
dell’astronomia, ma allo stesso tempo credono che siano al di
fuori della loro portata.
Non è così, e spero di dimostrarvelo rispondendo, di volta in
volta, a un paio di domande semplici. Non lasciatevi ingannare da
questo aggettivo: nell’Universo a domande facili corrispondono
spesso risposte articolate e davvero sorprendenti.
Queste domande sono estratte dal mio libro “125 domande e
curiosità sull’astronomia”, quindi se siete troppo curiosi dategli
un’occhiata.

146
Qual è la galassia più lontana mai osservata?
Come verrà spiegato meglio nella prossima sezione
riguardante la cosmologia, l’Universo ha un’età finita,
attualmente stimata in 13,7 miliardi di anni. Di conseguenza, non
possiamo vedere oltre una distanza superiore a 13,7 miliardi di
anni luce, semplicemente perché la radiazione elettromagnetica
emessa dagli oggetti non ha ancora avuto il tempo di coprire
l’enorme distanza e raggiungere i nostri strumenti.
Con la costruzione di telescopi sempre più grandi, accoppiati
a camere di ripresa estremamente sensibili, il limite per di
visibilità di oggetti lontani non è più unicamente tecnologico, ma
determinato proprio dall’età dell’Universo.
Alcune galassie risultano abbastanza brillanti per i nostri
strumenti da risultare visibili fino ai confini dell’Universo
accessibile. La sfida, semmai, si sposta quindi sull’individuare,
nell’enorme vastità del cielo, quale sia la galassia che si guadagna
la palma di oggetto più distante mai osservato.
Attualmente la galassia più lontana mai scoperta si trova a
13,2 miliardi di anni luce e si è quindi formata presumibilmente
solamente 500 milioni di anni dopo la nascita dell’Universo.,
Denominata MACS1149-JD è stata individuata nel Settembre
2012 grazie all’effetto di lente gravitazionale prodotto da un
ammasso di galassie decisamente più vicino, la cui forza di
gravità ha amplificato la debolissima immagine della galassia di
fondo.
Molti modelli di evoluzione dell’Universo primordiale
collocano proprio a circa 500 milioni di anni la formazione delle
prime galassie, dopo alcune fasi piuttosto turbolente e ancora non
ben conosciute.

147
L’indistinta figura della galassia MACS1149-JD, potrebbe
quindi rappresentare veramente la prima isola di stelle della storia
dell’Universo.

148
Cos’è la materia oscura?
La risposta non scientifica, ma che può rendere bene l’idea, è
sicuramente questa: qualcosa che fa perdere il sonno a molti
astronomi che cercando di comprenderla.
La materia oscura, infatti, è tra le proprietà più sfuggenti e
sconosciute dell’Universo, un puzzle che tiene impegnati gli
scienziati da diversi decenni.
Poco dopo l’identificazione di altre galassie nell’Universo,
avvenuta da parte dell’astronomo americano Edwin Hubble (un
nome che continueremo a sentire nelle prossime pagine) negli
anni venti del 900, gli astronomi si accorsero che c’era qualcosa
di strano in quello che stavano osservando.
Misurando la velocità di rotazione delle stelle attorno al
centro delle rispettive galassie prima, e rilevando il veloce
movimento delle galassie all’interno degli ammassi di galassie
poi, gli astronomi capirono che la materia visibile, quella che fa
brillare la galassia (stelle, ammassi stellari, nebulose) rappresenta
al massimo il 10% della materia totale effettivamente presente.
Il 90% della materia, però, non si riesce a osservare in alcun
modo perché non emette alcuna luce. Brancolando nel buio più
assoluto circa la sua composizione, venne unanimemente definita
materia oscura, e direi che mai nome fu più appropriato per
definire le conoscenze su questa inaspettata proprietà
dell’Universo.
Ma come hanno fatto a teorizzare l’esistenza di un tipo di
materia che non si vede affatto? Attraverso delle misurazioni
indirette. Qualsiasi oggetto dotato di massa produce nello spazio
forza di gravità. Non possiamo vedere direttamente la materia
oscura, ma possiamo rilevare la sua presenza attraverso la forza di

149
gravità esercitata sulla materia visibile.
L’effetto più evidente e facile da verificare, riguarda la
velocità di rotazione del gas e delle stelle attorno al centro e delle
stesse galassie attorno al centro dell’ammasso al quale
appartengono.
La velocità di rotazione dipende infatti criticamente dalla
forza di gravità, quindi dalla quantità di materia totale presente.
Gli astronomi hanno scoperto che le stelle di tutte le galassie
ruotano attorno al centro molto più velocemente di quanto
avrebbero dovuto farlo se fosse stata presente solamente la
materia che riusciamo a osservare direttamente.
La situazione è ancora più imbarazzante con le galassie negli
ammassi: se si suppone che la materia visibile sia l’unico
componente, non esisterebbe alcun ammasso di galassie
nell’Universo, perché le velocità orbitali sarebbero 10 volte più
elevate di quelle di orbite stabili, facendo disperdere tutti gli
ammassi di galassie in pochi miliardi di anni.
L’esistenza della materia oscura, quindi, è assolutamente
necessaria per spiegare il comportamento dinamico delle stelle e
delle galassie. Senza di essa diventa impossibile spiegare
addirittura l’esistenza delle galassie stesse, sottoposte a velocità
di rotazione molto superiori a quelle che la struttura fatta di
materia visibile potrebbe sopportare.
La materia oscura, quindi, deve esserci per forza per creare le
immense forze gravitazionali richieste. Il problema, però, è che
nessuno ha la minima idea di cosa sia composta.
Alcuni astronomi parlano di neutrini, o di particelle che
ancora non conosciamo; altri di oggetti scuri come buchi neri,
stelle spente, pianeti vaganti. La realtà è che tutte le ipotesi
possono essere giuste e sbagliate in egual misura. La materia

150
oscura si trascinerà con se un grande alone di mistero,
probabilmente, ancora per diversi anni.

151
Astronautica

Questa sezione è estratta dal libro: “Conoscere, capire,


esplorare il Sistema Solare”.
Siamo arrivati allo spazio dedicato agli amanti
dell’esplorazione dello spazio.

152
L’astronautica, con le sue sfide tecnologiche, i pericoli, i
grandi e spettacolari risultati scientifici, è una disciplina che non
può non interessare, al di là della passione per l’astronomia.
Grazie all’esplorazione del nostro Sistema Solare abbiamo
imparato moltissime nozioni, anche per quanto riguarda il
funzionamento e le proprietà del nostro delicato e prezioso
pianeta, senza contare il salto tecnologico enorme compiuto
grazie a dei sognatori che di fronte a difficoltà, spesso enormi,
non si sono arresti e hanno sempre cercato di raggiungere le
stelle.

153
L’esplorazione di Giove
A causa delle distanze esponenzialmente crescenti, da Giove
in poi la storia delle esplorazioni spaziali cambia radicalmente.
Se un viaggio interplanetario per immettersi nell’orbita di
Venere e magari atterrare sulla superficie ha una durata di 4 mesi,
mentre per raggiungere Marte ne sono richiesti 6, per Giove
servono anni.
Se è vero che con un percorso diretto è possibile colmare la
distanza in poco meno di due anni (Voyager 1 ha impiegato 22
mesi), per inserirsi nell’orbita servono manovre particolari che
richiederebbero una gran quantità di carburante.
Per ovviare a ciò si preferisce non fare una traiettoria diretta
che richiederebbe per frenare la stessa quantità di carburante
necessaria per accelerare.
L’incontro con altri pianeti (fly-by) è un metodo ingegnoso e
allo stesso tempo estremamente efficiente per modificare
direzione e intensità della velocità utilizzando una quantità
minima di carburante per raggiungere l’obiettivo.
L’unico svantaggio di questa tecnica è quello di allungare
sensibilmente il percorso, quindi anche i tempi, nonché la
difficoltà nel dover prevedere un piano di volo estremamente
preciso.
Proprio queste difficoltà, simili a quelle incontrate per
Mercurio, hanno frenato l’esplorazione di Giove e a maggior
ragione dei pianeti esterni.
Solamente gli americani si sono avventurati così lontano dalla
nostra azzurra dimora; i russi stranamente sembra non ci abbiano

154
mai provato.
Le prime immagini provenienti da Giove arrivarono già nel
1973, trasmesse dalla sonda Pioneer 10.

Le prime immagini di Giove riprese da Pioneer 10 circa un giorno prima


del massimo avvicinamento avvenuto il 3 dicembre 1973.

155
La prima immagine a colori nelle vicinanze di Giove, ripresa sempre da
Pioneer 10 il 3 dicembre 1973.

Tredici mesi più tardi arrivò anche Pioneer 11.


Nessuna delle due sonde si mise in orbita attorno al pianeta,
limitandosi a un fugace incontro prima di andare alla deriva verso
la periferia del Sistema Solare.
Pioneer 10 non fu solo la prima a raggiungere Giove, ma
anche a superare indenne la fascia principale degli asteroidi,
dimostrando, contro le previsioni di molti scienziati del tempo,
che la densità non è così elevata come si era portati a credere.
Con la scoperta che queste colonne d’Ercole astronomiche
non causavano pericoli alle astronavi, la NASA decise di fare sul
serio.
Il successo più grande e spettacolare arrivò sul finire degli
anni 70 con l’avvicinamento delle sonde gemelle Voyager.
Entrambe ebbero un incontro con il gigante gassoso nel 1979,

156
dal quale sfruttarono la grande forza di gravità per prendere la
spinta verso l’obiettivo successivo: Saturno.
Dopo aver visitato Giove e Saturno, Voyager 1 ha proseguito
il suo viaggio e ancora oggi, trascorsi ben 34 anni dalla partenza,
ha abbastanza energia per comunicare con la Terra alla distanza di
quasi 20 miliardi di chilometri.
Voyager 1 è attualmente la sonda più lontana mai lanciata
dall’uomo, ormai prossima ai confini del Sistema Solare e alle
porte dello spazio interstellare.
A causa della velocità della luce finita le comunicazioni
avvengono con circa 13 ore di ritardo.
Anche Voyager 2 è ancora attiva e trasmette posizione e
preziose informazioni delle regioni esterne del Sistema Solare.
Le due sonde hanno raccolto migliaia di immagini con una
definizione mai vista fino a quel momento, aiutando a fare
chiarezza su questi enormi pianeti e la folta schiera di satelliti
che si portano appresso nel lungo viaggio attorno al Sole.

157
Struttura e strumentazione a bordo della Pioneer 10.

Per le missioni dirette verso il Sistema Solare esterno un


problema tecnico di non poco conto riguarda il sistema di
alimentazione energetica. Come fare per mantenere in vita tutta la
strumentazione di bordo per anni interi, senza il prezioso aiuto
del Sole?
Alla distanza di Giove la luce solare è circa il 4% di quella
che raggiunge la Terra, rendendo i classici pannelli solari
insufficienti per l’alimentazione di bordo.
L’alternativa più leggera e affidabile era rappresentata da
piccoli generatori nucleari che utilizzavano il decadimento del
Plutonio per produrre energia elettrica.
Tra i tecnici della NASA c’era però la preoccupazione che le
deboli radiazioni potessero danneggiare la delicata
strumentazione di bordo sul lungo periodo temporale. L’unico
modo per dipanare la questione era provare.

158
Pioneer 10 fu la prima a utilizzare 4 generatori a radioisotopi
posizionati su un braccio più lontano possibile dalla
strumentazione e dall’antenna principale.
Le preoccupazioni dei tecnici della NASA si dimostrarono
infondate: il sistema, oltre a non causare problemi, si rivelò
efficiente e molto affidabile, tanto che fu utilizzato senza remore
sulle successive missioni Voyager.
La prima e per ora unica sonda che ha orbitato nel complesso
sistema gioviano è stata Galileo.
Rilasciata il 18 ottobre 1989 dalla stiva dello Space Shuttle,
dopo un complesso piano di volo (fly-by con Venere e la Terra)
ha raggiunto
l’orbita del gigante gassoso il 7 dicembre 1995, restandoci
per ben 14 anni, fino al 21 settembre 2003, quando è stata fatta
precipitare nell’atmosfera di Giove.
Nonostante problemi all’antenna principale che hanno
costretto a rallentare la trasmissione dei dati, la sonda si è rivelata
essere una fonte di inestimabile valore nel comprendere le
dinamiche del pianeta e della complessa e numerosa famiglia di
satelliti.
Fu proprio Galileo a fare luce sulle grandi eruzioni
vulcaniche di Io riprese dalle Voyager anni prima, a osservare nel
1994 l’impatto della cometa Shoemaker-Levy 9 su Giove, e
indagare da vicino le intricate trame di ghiaccio di Europa,
sicuramente il satellite più interessante e misterioso della
famiglia gioviana.

159
Una delle più dettagliate riprese ottenute dalla sonda Voyager 1 della
grande macchia rossa di Giove.

Dopo la fine della missione, Giove è stato avvicinato dalla


sonda Cassini diretta verso Saturno, dalla Ulysses, che lo aveva
visitato già nel 1992, e dalla New Horizons, nel 2007.
Il 5 agosto 2011 la sonda americana Juno ha lasciato la Terra
per dirigersi verso il gigante e inserirsi nella sua orbita: incontro
previsto per il 2016.
Una delle caratteristiche più interessanti di questa sonda di
ultima generazione è costituita dall’alimentazione a pannelli
solari. La ricerca nel campo fotovoltaico degli ultimi anni ha
migliorato notevolmente l’efficienza dei pannelli, che ora sono in
grado di fornire energia sufficiente anche a distanze così elevate
dal Sole.

160
La sonda Galileo viene liberata dalla stiva dello Shuttle Atlantis il 18
ottobre 1989.

Sebbene efficienza, leggerezza e compattezza dei generatori


nucleari siano impareggiabili, l’agenzia spaziale americana deve
trovare velocemente un modo alternativo per alimentare le future
missioni verso il Sistema Solare esterno.
La produzione di plutonio, elemento essenziale di queste
speciali batterie dalla vita lunghissima, è terminata da tempo da
parte degli Stati Uniti e tutte le riserve derivanti dal materiale
nucleare smantellato sono ormai esaurite.
La NASA ha già chiesto, senza esiti positivi, di ricominciare
la produzione di questo elemento artificiale, ma si tratta di un
processo lungo ed estremamente costoso che il governo
naturalmente non ha intenzione di intraprendere di nuovo se non
ci sono motivazioni belliche all’orizzonte.
Si stanno allora cercando nuove fonti di energia nucleare in
sostituzione del plutonio, ma la strada verso il successo è ancora

161
lunga. A meno di non comprare il prezioso materiale fissile dai
russi, antichi nemici di una guerra fredda dalla quale nacque
proprio la grande produzione per le testate nucleari, si ha
l’impressione che nessun’altra sonda americana sarà lanciata
verso il Sistema Solare esterno almeno fino al 2020.
L’unico progetto attualmente in fase di discussione è una
missione congiunta NASA-ESA per studiare il satellite Europa.
Ma anche questo è un lontano miraggio previsto non prima del
2020, e dall’esito piuttosto incerto a causa degli elevati costi e
degli scarsi finanziamenti da parte dei rispettivi governi.

162
Attualità

In questa sezione finale vengono proposte notizie e riflessioni


sui temi più attuali, spaziando dall’esplorazione di Marte alle
galassie più lontane dell’Universo. A decidere gli argomenti è
l’enorme progresso scientifico cui va incontro una disciplina
attiva come l’astronomia. Scoperte piccole e grandi si susseguono
a ritmi frenetici, sebbene gli astronomi in tutto il mondo
rappresentino una piccola comunità che a mala pena raggiunge le
20 mila unità. Ma mai come in questo caso la determinazione può
superare tutte le difficoltà della disciplina più impegnativa che
esista.

163
La vita tra Terra e Marte
Ormai l’abbiamo capito: Marte è il pianeta al momento
migliore per sperare di trovare tracce, presenti o passate, di forme
di vita. Nei volumi precedenti ne abbiamo parlato in abbondanza,
fino ad arrivare a teorizzare, e sperare, che forse qualche
organismo batterico potrebbe ancora essere presente sulla sua
polverosa superficie. Almeno questo è quello che al momento ci
comunicano i dati raccolti dagli esperimenti delle sonde Viking
effettuati negli anni ’70.
Ammesso e non concesso che le sonde abbiamo scoperto
davvero tracce di attività batterica e giusto perché godiamo nel
complicarci la vita, possiamo analizzare anche un altro scenario
che prevede l’esistenza di microrganismi nel suolo di Marte, che
per certi versi potrebbe sembrare come minimo inquietante, ma
perfettamente nelle corde della nostra civiltà.
La domanda è semplice: e se fossimo stati noi?
Se la rilevazione di microrganismi da parte del laboratorio
delle sonde Viking avesse dato esito positivo perché quei
minuscoli batteri erano già a bordo della sonda stessa, magari
nascosti persino nel braccio robotico che ha prelevato i campioni
di suolo?
Questa che sembra più una fantasiosa ipotesi è invece al
momento una delle teorie più gettonate: una contaminazione
planetaria da parte dell’uomo, che inavvertitamente ha introdotto
organismi terrestri in un pianeta che era completamente sterile.
Sarebbe di certo il primo caso della storia in cui la stupidità
(perché di questo si tratta) di noi esseri terrestri abbia varcato i
confini del pianeta e messo a repentaglio un ambiente che per
miliardi di anni ha vissuto la sua storia in modo totalmente

164
indipendente.
Considerazioni “filosofiche” a parte, è possibile dal punto di
vista prettamente fisico un’eventualità del genere? E, ammesso
che fosse successo davvero, batteri terrestri possono sopravvivere
al clima marziano e contaminare l’intero pianeta?
La risposta alla prima domanda è purtroppo positiva.
Benché tutte le sonde dirette sulla superficie del pianeta
rosso siano state sterilizzate per ridurre al minimo i microscopici
batteri, è certo che questi non siano stati eliminati del tutto. E
d’altra parte appare molto più improbabile il contrario,
considerando che la vita qui è presente ovunque: come sarebbe
possibile eliminare qualsiasi traccia biologica in un manufatto
pesante più di una tonnellata, grande come una macchina e
contenente chilometri di cavi, decine di cavità nascoste e
materiali porosi che possono ospitare benissimo minuscole
colture di batteri?
Non è né pensabile, né possibile.
Però si potrebbe immaginare quello che un po’ tutti gli
scienziati hanno fatto: un viaggio nello spazio aperto della durata
di diversi mesi è la garanzia più forte che quell’astronave
giungerà completamente sterilizzata sulla superficie marziana.
Le cose, però, non stanno proprio in questo modo. Il
problema è che ce ne siamo accorti decenni dopo l’invio delle
sonde verso Marte.
Numerosi esperimenti condotti a bordo delle stazioni spaziali
sembrano confermare quello che sembrava un assurdo logico. Il
più spettacolare fu eseguito tra il 2009 e il 2010 e diede risultati
impressionanti: alcuni microbi della birra(!) sono sopravvissuti
per oltre 500 giorni allo spazio aperto, in assenza di gravità e
pressione, con enormi sbalzi di temperature (da +120°C a

165
-100°C), senza una goccia d’acqua. Come hanno fatto ancora non
lo sappiamo, ma resta il fatto che ci siano riusciti.
Ci sono altri batteri che nello stato di spore possono
sopravvivere per anni (forse milioni!) alle rigide condizioni dello
spazio aperto, senza aver bisogno di ossigeno, acqua e lo schermo
offerto dall’atmosfera terrestre.
La vita, insomma, almeno quella elementare, è molto più
coriacea di quanto non sembri.
Nascosti negli anfratti di qualche cavità, magari al riparo
dalla luce diretta del Sole, microrganismi semplici possono aver
superato senza particolari avversità la traversata Terra-Marte e
aver contaminato quindi il suolo del pianeta rosso.
Il trasporto di materiale organico o addirittura vivente è
qualcosa di inevitabile anche ai giorni nostri. Curiosity, ad
esempio, ha rilevato nel suolo marziano tracce di molecole
organiche ma bisogna ancora capire se siano composti
provenienti dal suolo o dal rover stesso.
Prima di gridare alla contaminazione però, almeno dal punto
di vista dei microrganismi (le molecole organiche non sono vita e
sono sparse un po’ ovunque nel Cosmo), abbiamo un altro
controllo di sicurezza che potrebbe farci dormire sonni tranquilli:
è possibile che dei batteri terrestri sul suolo marziano riescano
pure a riprodursi? Non è più probabile che le condizioni avverse
impediscano il proliferare di una specie aliena che si è evoluta su
un pianeta molto diverso?
La risposta è sorprendente: ci sono batteri terrestri che
possono sopravvivere e riprodursi anche nell’ostile ambiente
marziano.
Queste vicende fanno capire ancora una volta quanto poco
conosciamo delle attività biologiche presenti sul nostro pianeta:

166
siamo dei bambini piccoli che non possono fare a meno di
guardare troppo oltre le proprie possibilità, ignorandone le
conseguenze possibili.
Alcune colonie di batteri raccolte dai ghiacci siberiani nel
sottosuolo (permafrost), appartenenti alla stessa famiglia dei
microrganismi presenti nella carne surgelata, possono
effettivamente prosperare alle temperature e pressioni marziane.
Sul finire del 2012 un altro gruppo di studio dell’università
della Florida ha fatto una scoperta estremamente importante.
Isolando microrganismi che si trovano comunemente anche nelle
sonde dirette verso Marte, li hanno sottoposti alle condizioni del
pianeta rosso. I batteri denominati Serratia Liquefaciens sono
sopravvissuti e si sono riprodotti a una temperatura di zero gradi
e una pressione di soli 7 millibar. Il problema è che questo
batterio vive tranquillamente qui sulla Terra a livello del mare e a
temperature miti; si può trovare sulla pelle umana, nei capelli,
persino nei polmoni e nel pesce: insomma, un insospettabile
inquilino del nostro corpo.
Ma anche i batteri scoperti nella stratosfera terrestre nel
2009, denominati Janibacter Hoylei, vivono a pressioni,
temperature e condizioni di radiazione solare simili alla
superficie di Marte e hanno imparato a “volare” trasportati dai
venti. E nulla ci dice che questo sia possibile solamente qui.
Se simili batteri fossero stati trasportati sin dalle prime sonde
e avessero trovato dei posti migliori al riparo dalle tempeste
solari (sotto una roccia ad esempio, o pochi centimetri nel
sottosuolo), allora potrebbero aver avuto qualche possibilità di
prosperare.

167
Test per la resistenza di alcuni microbi terrestri presenti anche nelle sonde
automatiche inviate su Marte a diverse condizioni. Il Serratia Liquefaciens è
sopravvissuto alle temperature e alle pressioni marziane, contrariamente a
quanto si pensava. Questo è un batterio molto comune sulla Terra e popola
persino i nostri corpi. Potrebbe essere stato trasportato dalle sonde dirette su
Marte e aver contaminato il pianeta?

Le missioni giunte sulla superficie polverosa del pianeta


rosso sono diverse, sebbene molte, soprattutto sovietiche, si siano
schiantate disintegrandosi. Trasportati dai venti, questi batteri
potrebbero in linea del tutto teorica (ma perfettamente plausibile)
aver colonizzato Marte, contaminandolo con materiale
proveniente dalla Terra.
Si è effettivamente verificato uno scenario del genere?
È plausibile e probabile, ma ancora non sappiamo se è
effettivamente avvenuto e in quale misura. Con le recenti scoperte
abbiamo delle sensazioni che ci suggeriscono che la vita
elementare ha una gran voglia di prosperare ed è abituata a farlo
in qualsiasi tipo di ambiente. Se c’è una possibilità, anche

168
minima, è certo che ci riesca.
Che batteri di questo tipo siano stati portati sul pianeta rosso
non dovrebbero esserci dubbi. Questa che può sembrare una cosa
estremamente stupida, in realtà nasconde solamente la nostra
grande ignoranza in tema di processi biologici. In effetti ancora
non conosciamo a sufficienza nemmeno tutte le specie batteriche
presenti in natura, figuriamoci se abbiamo un’idea precisa su
quali siano le condizioni necessarie affinché possano proliferare
su mondi alieni.
Questa branca della scienza è relativamente giovane,
sicuramente più delle missioni spaziali verso Marte e solamente
ora, con molte difficoltà, riesce a farci prendere coscienza della
leggerezza che è stata commessa inviando materiale contaminato
su un pianeta che stava vivendo la sua personalissima storia.
Probabilmente abbiamo cambiato involontariamente
l’evoluzione di Marte, o forse solo accelerata.
C’è però anche un altro scenario possibile che potrebbe
alleggerire non poco la nostra coscienza, perché le nostre
astronavi non sono stati i primi manufatti contaminati da batteri
giunti sul pianeta rosso.

169
E se fosse stato Marte?
Lo scambio di informazioni tra Marte e la Terra potrebbe
essere molto più antico, duraturo e invadente di quanto prodotto
dalle nostre sonde automatiche.
Per comprendere come due pianeti distanti 56 milioni di
chilometri possano scambiarsi informazioni senza la presenza di
esseri intelligenti, dobbiamo guardare in casa nostra.
Tra le migliaia di meteoriti ritrovate sulla superficie della
Terra, sono oltre 100 quelle che hanno un’impronta unica e
diversa rispetto agli asteroidi della fascia principale.
La composizione chimica di queste rocce è uguale a quella
della superficie di Marte, e la composizione dell’aria intrappolata
è identica a quella atmosferica. Si tratta di meteoriti che un tempo
costituivano rocce del pianeta rosso.
Com’è possibile tutto questo?
Con una dinamica che potrebbe sembrare rocambolesca, ma
che invece è stata più frequente di quanto ci si aspetti.
Quando un meteorite di grandi dimensioni (uno o più
chilometri) colpisce Marte, fa schizzare a grande velocità pezzi
della superficie del pianeta, rocce di diverse dimensioni che
potrebbero avere una velocità sufficiente per uscire dall’atmosfera
e dal campo gravitazionale. Questi diventano meteoriti a tutti gli
effetti, solamente che non sono più gli antichi massi generatisi al
tempo della formazione del Sistema Solare, ma prodotti di una
superficie planetaria modificati da una storia molto diversa. Data
la vicinanza tra Marte e la Terra, alcuni di questi meteoriti
“secondari” sono precipitati sul nostro pianeta. A oggi queste
sono le uniche rocce marziane che possediamo e che quindi è
possibile analizzare in modo approfondito.

170
Tra poco vedremo quali sono le caratteristiche e le sorprese
che sono state scoperte in questi massi, perché è intuitivo che se
su Marte un tempo c’era la vita, questa possa essere contenuta,
almeno sottoforma di fossili, nei meteoriti marziani.
Non è questo però quello che ci interessa al momento.
Soffermiamoci per un attimo sulla dinamica della carambola
cosmica e proviamo a fare un gioco logico che prevede di
cambiare punto di vista, magari rovesciando la situazione.
Se Marte ci ha inviato meteoriti, è possibile che anche la
Terra abbia fatto lo stesso? Cosa impedisce a un grande asteroide
che colpisce il nostro pianeta di far schizzare nello spazio pezzi
di rocce terrestri che poi, dopo migliaia o milioni di anni di
pellegrinaggio nello spazio, precipitano su Marte?
La risposta è ovvia: niente.
Se conosciamo meteoriti provenienti da Marte, è indubbio
che su Marte, da qualche parte, esistano altrettanti meteoriti
provenienti dalla Terra, risalenti un po’ a tutte le ere geologiche:
dal grande bombardamento subito 3,5 - 4 miliardi di anni fa ai
più recenti, magari anche a seguito di quello che ha estinto i
dinosauri (l’ultimo impatto devastante conosciuto).
Se la vita elementare sulla Terra esiste da almeno 3,8 miliardi
di anni, questo implica senza ombra di dubbio che i meteoriti
terrestri su Marte abbiano per forza di cose trasportato forme di
vita: è una certezza.
Ci sarebbe naturalmente da discutere in merito alla
sopravvivenza di organismi biologici in queste condizioni,
soprattutto per quanto riguarda le violente fasi della creazione del
meteorite e del successivo impatto su Marte, ma in rocce
relativamente grandi, nascoste nelle profondità, queste coriacee
tracce biologiche potrebbero essere sopravvissute senza

171
particolari problemi, come hanno provato alcuni esperimenti
effettuati su rocce terrestri e buone quantità di esplosivo.
Secondo questo scenario, se contaminazione c’è stata, questa
potrebbe essersi verificata ben prima che l’uomo comparisse e
fosse in grado di mandare astronavi nello spazio. Menomale, ora
stiamo un po’ meglio!
La storia biologica di Marte e della Terra potrebbe essere più
intrecciata di quanto sembri, perché sicuramente i due pianeti si
sono scambiati milioni di tonnellate di rocce nel corso di miliardi
di anni.
E allora, per concludere in bellezza aumentando l’incertezza e
il mistero, facciamoci una domanda: chi ha contaminato chi? La
Terra primordiale, molto più massiccia e grande, si è
probabilmente raffreddata più lentamente di Marte. L’impatto
violento con quel pianeta primordiale che ha poi generato la Luna
ha rallentato lo sviluppo di condizioni adatte alla vita di qualche
altro milione di anni.
Se il più piccolo e freddo Marte ha quindi sperimentato
condizioni biologiche prima della Terra, è probabile che i primi
microrganismi siano nati proprio qui.
E se i meteoriti marziani avessero inseminato la giovane e
ancora desertica Terra con le prime forme di vita?
Se un giorno trovassimo dei microbi marziani fossilizzati più
antichi di quelli terrestri e sorprendentemente simili, non ci
sarebbe da stupirsi poi più di tanto.

172
Nel prossimo volume
Neofiti: Osservare i pianeti

Costellazioni: Cani da Caccia e Cefeo

Astrofotografia: Imaging deep-sky: strumentazione e tecnica


di ripresa

Ricerca: Introduzione alla spettroscopia

Astrofisica: Le ere dell’Universo e la nucleosintesi


primordiale

Astronautica: L’esplorazione di Saturno e dei pianeti remoti

Attualità: La materia oscura

Per consigli, critiche, suggerimenti o per inviare materiale


(immagini, articoli) scrivetemi a [email protected]

Per vedere tutti i miei libri, elettronici e cartacei


cliccare qui

Se vi siete persi gli altri volumi di astronomia


per tutti, li trovate qui

173

Potrebbero piacerti anche