Archivio mensile:maggio 2011

Erutta il vulcano piu alto d’Europa in Russia – Nuovo rischio di sospensione voli?

Il più alto vulcano d’Europa, il Kliuchevskaia Sopka (4750 metri) in Kamciatka, ha cominciato ad eruttare innalzando una colonna di ceneri oltre 5 km sopra al livello del mare. visibili anche da lunghe distanze.  Per il momento pare che non vi siano pericoli in quanto la zona non è densamente abitata, ma si teme che vi possano essere problemi per i motori degli aerei. Il vulcano è considerato uno dei piu attivi al mondo ed erutta ogni 6 anni circa anche se l’ultima eruzione risale al novembre 2010. Segui la discussione sul forum

Un pò di dati sul vulcano russo (By Viking87):

Country:                    Russia
Subregion Name:            Kamchatka Peninsula (Russia)
Volcano Number:            1000-26=
Volcano Type:            Stratovolcano
Volcano Status:            Historical
Last Known Eruption:    2010
Summit Elevation:            4835 m    15,863 feet
Latitude:                    56.057°N    56°3’24″N
Longitude:                    160.638°E    160°38’18″E

Kliuchevskoi è il vulcano più alto e più attivo del Kamchatka. Fin dalla sua origine circa 6000 anni fa,
il bellissimo simmetrico, stratovulcano 4.835 metri di altitudine basaltica ha prodotto frequenti eruzioni di moderato volume sia esplosivo che effusivo, senza grandi periodi di inattività. Più di 100 eruzioni si sono verificati a Kliuchevskoi negli ultimi circa 3000 anni, con più crateri e coni laterali che si verificano lungo fessure radiali. Eruzioni storiche hanno avuto origine soprattutto dal cratere sommitale, ma hanno incluso anche numerosi grandi eruzioni esplosive ed effusive dai crateri laterali.

 


 

 

Annunci

Massa(Materia) Oscura e Energia Oscura.

Anche se hanno nomi simili, l’energia oscura e la massa o materia oscura, sono due cose sostanzialmente diverse.
Vediamo le differenze.

Osservando la curva di rotazione delle galassie a spirale, ci si è resi conto che le stelle ai bordi del disco non seguono delle leggi di rotazione “kepleriane” come ci si attenderebbe se la maggior parte della massa delle galassie fosse concentrata nel “bulbo”; come conseguenza di ciò è evidente che, oltre alla massa “luminosa” concentrata nelle stelle, debba esserci una consistente quantità di materia attorno alle galassie, che non emette luce. Altrettanto, osservando gli ammassi di galassie, ci si è resi conto che molte galassie hanno velocità mutue così elevate che farebbero “disgregare” gli ammassi stessi in pochi miliardi di anni, cosa che è palesemente falsa, visto che gli ammassi sono tuttora esistenti. Ancora una volta la spiegazione è che esiste della “gravità aggiuntiva” negli ammassi, tale da tenere assieme le galassie. Questa gravità è rappresentata da materia che però non appare ai telescopi.
Questi e altri indizi hanno portato a formulare la teoria dell’esistenza di “materia oscura” nel cosmo, di cui si vedono gli effetti gravitazionali sugli oggetti luminosi, ma che non emette luce. Sulla natura di questa materia esistono svariate teorie, nessuna delle quali attualmente verificata: si potrebbe trattare di pianeti, buchi neri, stelle fredde e comunque agglomerati di materia ordinaria, in uno stato che non emette luce, oppure di particelle subatomiche dotate di massa e della cui esistenza non esistono prove certe al momento. Uno dei migliori candidati fino a qualche anno fa erano i neutrini, della cui esistenza si è certi da una cinquantina d’anni, che si sa permeano l’universo ma di cui non era nota la massa. I recenti esperimenti giapponesi al Super-Kamiokande hanno però appurato che i neutrini hanno massa troppo piccola per essere la spiegazione definitiva al problema della materia oscura.

Quello della “energia oscura” è un problema del tutto diverso, e “esploso” nel mondo scientifico da pochi anni, da quando, all’inizio del millennio, alcuni esperimenti scientifici di osservazione di supernovae lontane hanno appurato che l’universo è in espansione accelerata. È infatti noto fin dagli anni ’20 del 1900 che l’universo è in espansione (legge di Hubble), ma si era sempre pensato che questa espansione dovesse essere decelerata. Del resto il ragionamento appariva semplice: siccome su scale di distanza galattiche l’unica forza che agisce con intensità non trascurabile è la gravità e siccome il modello di Einstein della gravità prevede che essa sia solo attrattiva, essa si deve opporre all’espansione dell’universo, decelerandola.
Ora, le supernovae sono stelle che esplodono, e quelle di una particolare classe, detta Ia, seguono una curva di luce molto precisa, che ha un valore di luminosità nel punto di massimo che è quasi costante. Di conseguenza, osservando supernovae lontane si può stimarne la distanza sia in base alla legge di Hubble, che prevede il redshift delle righe spettrali in base alla velocità di allontanamento, sia in base all’attenuazione della luce dovuta alla distanza. Mettendo insieme questi parametri ci si è accorti che le supernovae lontane sono più lontane di quanto ci si aspetti, e dunque che l’universo si sta espandendo più rapidamente del dovuto. Sono state avanzate diverse ipotesi per spiegare il fenomeno (da errori sistematici sulle misure, al fatto che le suprenovae lontane possano seguire curve di luce leggermente differenti rispetto a quelle vicine, ecc…) ma l’ipotesi al momento data per più probabile è che vi sia una qualche forza repulsiva che agisce in tutto l’universo e che lo sta spingendo ad accelerare la sua espansione. Questa energia che dovrebbe avere un effetto anti-gravitazionale è di natura sconosciuta, anche se i teorici hanno già notato come una leggera modifica alle equazioni di Einstein (che peraltro egli stesso aveva già introdotto e poi rinnegato) potrebbe portare l’effetto repulsivo cercato. In ogni modo, resta del tutto un mistero su cosa provochi questo fenomeno, per cui si è coniato il termine “energia oscura”, non perché essa non emette luce (come nel caso della “materia oscura”), ma perché è ignoto di cosa si tratti.

Al mio amico Creedence.

La Materia Oscura
La materia oscura costituisce l’85% di tutta la MATERIA
nell’Universo, ma non si sa di cosa sia fatta!
“Determinare la natura della materia e dell’energia oscura
è ampiamente riconosciuto come uno dei problemi piùimportanti della Fisica e dell’Astronomia contemporanea”
Robert Caldwell, (2009)

 

 

Solamente il 4% del contenuto totale di ENERGIA
dell’Universo è visibile sottoforma di stelle e gas!

 

 

Contenuto attuale dell’Universo

Circa il 22% del contenuto totale di ENERGIA dell’Universo
è materia oscura. L’altro “settore oscuro” è l’energia oscura.

 

 

Già negli anni ’30 è stato notato che l’Ammasso Coma
(Dist. 320 Mln anni luce) sembrava contenere molta più massa
per via dinamica (160 volte) di quella che si poteva dedurre
dall’emissione luminosa delle galassie visibili (L ≈ M3.5).

 

 

Qualche anno dopo, le osservazioni delle curve di rotazione
delle galassie (M31, M33) hanno evidenziato che queste
ruotano molto più velocemente a grandi distanze radiali come
se la massa maggiore si trovasse nelle regioni più esterne.

 

 

Ogni elemento chimico ha la sua impronta caratteristica
Un gas riscaldato emette linee di emissione (chiare)
Lo stesso gas se interposto tra una sorgente luminosa
continua e l’osservatore produce linee di assorbimento (scure)
alla stessa lunghezza d’onda.

 

 

 

 

 

 

 

Deve esistere una grande quantità di massa oscura negli aloni
Rapporto 6:1 Massa oscura = massa non visibile su tutto
lo spettro e.m.

 

 

Materia oscura o nuove teorie della gravità? (Es. MOND-MOG)
Le osservazioni con le lenti gravitazionali di ammassi di galassie e i test sulla GR tendono a favorire l’ipotesi della
materia oscura gas

 

 


La luce proveniente da una galassia distante è distorta, piegata, da un campo intermedio creato da un vicino ammasso (Einstein 1911).

 

Di cosa è costituita la materia oscura?
1) Materia ordinaria (“barionica”) poco o non visibile?
2) Materia non-ordinaria (“esotica”)?
Materia barionica: MACHO RAMBO
Mini Buchi Neri
Materia esotica: WIMP
SUPER-WIMP
ASSIONI
Neutrini?

 

 

 

La materia oscura NON può essere di natura
barionica:
1) abbondanze non corrette per gli elementi
leggeri (H,D,He,Li)
2) non compatibile con diverse osservazioni
astrofisiche e cosmologiche (es. CMB di WMAP)

 

 


La radiazione cosmica di fondo è la radiazione fossile emessa al
tempo della ricombinazione quando il plasma ionizzato con
elettroni e protoni liberi nell’Universo primordiale si raffredda al
punto da permettere la formazione di idrogeno neutro. I fotoni
della CMB sono distribuiti in temperatura in modo quasi omogeneo
nel cielo, ma si trovano piccole fluttuazioni dell’ordine di 10-5 .
Quando è stata emessa la CMB la temperatura era di 3000 K e
l’età dell’Universo di 400 000 anni. Ora la temperatura è di circa
2.7 K (picco CMB: 1.87 mm, 160.4 Ghz).

 

La materia oscura è “fredda”, ovvero le particelle costituenti devono muoversi a bassa velocità (<0.1c)
rispetto alla velocità della luce c (Cold Dark Matter,
CDM) Questo fatto escluderebbe i neutrini!

 

 

Come si definisce la materia esotica? NON-barionica
Modello Standard delle particelle elementari

 

 

Le forze fondamentali della natura
La forza forte è molto intensa, ma a corto raggio (10-13
cm) ed è responsabile di tenere uniti i nuclei degli atomi. E’
principalmente attrattiva, ma in alcuni casi può diventare
repulsiva.
La forza elettromagnetica è la responsabile della
interazione tra cariche elettriche o l’interazione tra magneti:
il comportamento chimico degli atomi e delle molecole
Le forze fondamentali della natura
regola molecole.
E’ a lungo raggio, ma 100 volte più debole della forza forte.
La forza debole è la responsabile del decadimento
radioattivo dei nuclei e delle interazioni dei neutrini. E’ a
corto raggio (10-16 cm) e molto debole. Materia oscura?
La forza gravitazionale è debole ma a lungo raggio. E’
sempre attrattiva e agisce tra tutta la materia nell’Universo
poichè la sua sorgente è la massa.

 

 

 

 

Forza nucleare debole: decadimento radioattivo e neutrini:

 

 

Candidati NON barionici possibili per la materia
oscura
1) WIMP (Weakly Interacting Massive Particle)
Dalla Supersimmetria deriva il prototipo ideale di
WIMP

 

 

Perchè il Neutralino è il candidato ideale della CDM?
Nel modello WIMP le particelle nell’Universo primordiale
erano in equilibrio termico e chimico con tutte le altre
particelle standard. Con l’espansione dell’Universo,
l’energia non era più sufficiente a crearne di nuove e la
densità era bassa al punto da non permettere più la loro
annichilazione (10 ns). A questo punto la densità delle
WIMP si è congelata fino a oggi:

 

 

Altri candidati NON barionici possibili per la materia
oscura
2) SUPER-WIMP
Le WIMP posono essere particelle instabili che decadono
in particelle massive interagenti solo gravitazionalmente
(es. gravitino: partner supersimmetrico del gravitone)

 

 

Altri candidati NON barionici possibili per la materia
oscura
3) ASSIONI
Particelle proposte nel 1977 (R. Peccei e H. Quinn)
per risolvere il problema della violazione della
simmetria CP forte in cromodinamica quantistica.
Spiega l’assenza del momento di dipolo elettrico del
neutrone (misura della separazione delle cariche).

 

 

Riassumiamo i principali candidati NON barionici
possibili per la materia oscura

 

 

 

 

Come trovare evidenze sperimentali
dei possibili candidati della materia
oscura?
1) PROVE INDIRETTE
Ricerca dei prodotti di annichilazione o decadimento
delle particelle CDM, come fotoni, antimateria e
neutrini di opportuna energia.
Sorgenti astrofisiche: centro degli aloni galattici e
galassie nane. I prodotti hanno energie di 1/10 della
massa delle particelle CDM (1 GeV – 10 TeV).
Limiti: troppi gradi di libertà permettono di aggiustare
i dati per ottenere la CDM voluta!
Le osservazioni astrofisiche dei prossimi 5-10 anni
saranno utili principalmente per determinare la
DISTRIBUZIONE della CDM.

 

 

Come trovare evidenze sperimentali
dei possibili candidati della materia
oscura?
2) PROVE DIRETTE
Ricerca dell’energia (piccola) depositata nei nuclei di
un materiale rivelatore “target” dovuta ad un evento
di interazione con una particella CDM (esperimenti
condotti in laboratori sotterranei)
Questi esperimenti hanno l’obiettivo di determinare la
NATURA della CDM.
Il progresso fatto negli ultimi 20 anni è stato
spettacolare: sensibilità > 3 ordini di grandezza.
Ma ancora nessuna evidenza significativa di CDM.
Serve una frequenza di eventi almeno 5 σ oltre il
fondo!

 

 

 

 

Come trovare evidenze sperimentali
dei possibili candidati della materia
oscura?
3) Acceleratori di particelle
Large Hadron Collider (LHC Cern – Ginevra)
Energie: 7-14 TeV sufficienti per poter creare e
individuare alcuni candidati CDM.
Entro 5-10 anni si devono trovare evidenze di candidati
CDM. Serviranno anche conferme indipendenti da altri
rivelatori (tempo di osservazione:<1μs).
Alternative: gravitini o gravità modificata (es. MOG)!
Problemi: conciliare le altre osservazioni cosmologiche.
Rimaniamo in attesa della scoperta!
http://www.sciencedaily.com /news/space_time/dark_m atter/

 

 

Quale è il ruolo dinamico della materia oscura?
Costituisce l’impalcatura, la rete di connessione e di
aggregazione di tutta la materia ordinaria

 

 

Simulazione Millenium: N-corpi con: N=10 miliardi
25 Tera Bytes, 1 mese di calcolo (Aprile, 2005).
Max Planck Society’s Supercomputing Centre in Garching, Germany

 

 

Aggiornamento al 14 Aprile 2011
XENON 100 (LNGS):
L’esperimento in funzione ai Laboratori del Gran Sasso
dell’Istituto Nazionale di Fisica Nucleare (INFN)
conferma con i suoi nuovi risultati (3 eventi candidati in
100 giorni) di essere l’apparato piu’ sensibile al mondo
nella ricerca delle WIMP.

 

Vai alla Discussione

Dossier Volo AF447 Precipitato nell’Oceano Atlantico – Parte I

Da semplice appassionato di aereonautica quale sono, rimasi particolarmente impressionato  (come il resto del mondo d’altronde.) dal forte rimbombo delle notizie che circolavano quella mattina del 1 Giugno 2009: il volo di linea internazionale   in servizio dall’aeroporto Galeão di Rio de Janeiro, Brasile, all’aeroporto Charles de Gaulle di Parigi, Francia era scomparso sopra l’oceano Atlantico. Si trattava di un Airbus A330-200 della compagnia aerea Air France, registrato F-GZCP, nel dettaglio AIR FRANCE 447 (o in sigla AF447) primo volo del 25 febbraio 2005[1]), con 216 passeggeri e 12 membri dell’equipaggio a bordo (3 piloti)”

Cercando in internet sono ancora presenti gli allarmati titoli delle piu importanti testate giornalistiche:

Tragedia aerea, sparito Airbus Air France La Farnesina: «A bordo 10 italiani»

Volo Air France sparito sull’oceano

Ancora a tutt’oggi non è ben chiaro cosa accadde…le notizie si accavallavano a centinaia…una dopo l’altra, alcune totalmente in contrapposizione alle altre..tanta confusione, mentre si consumavano le fatidiche ore di attesa necessarie per dichiarare l’aereo ufficialmente scomparso.

In seguito alle notizie riportate, emerse che l’aereo in questione prima di sparire dai monitor lanciò attraverso il sistema ACARS una serie di anomalie con tempistiche molto ravvicinate tra di loro e da quel momento si fecero strada tutte le ipotesi piu disparate per giustificare la scomparsa del velivolo, da un presunto attentato avvenuto a bordo fino ad arrivare ad ipotizzare che l’aereo fosse stato colpito da fulmini. L’acars quindi fu il primo sistema a rivelare qualche piccolo indizio, unico sistema..perchè nessuno, a bordo, probabilmente ebbe mai il tempo di chiedersi cosa stesse accadendo.“L’ACARS (acronimo di Aircraft Communication Addressing and Reporting System) è un sistema di datalink tra aeromobile e stazione di terra. Tale flusso di dati può avvenire via satellite o in frequenza.I dati inviati possono riguardare semplici testi o parametri di volo automaticamente inviati dall’aeromobile.” (http://it.wikipedia.org/wiki/ACARS)

Qualsiasi cosa fosse avvenuta in quota, quindi,  doveva essere avvenuta per forza di cose in maniera molto rapida e repentina…un susseguirsi di eventi che non lasciò alcun margine di intervento ai piloti, né in termini di riequilibriatura dell’assetto né in termini di comunicazioni SOS. Questo aspetto ha contribuito a creare attorno al terribile incidente un velo di mistero parificabile solamente a incidenti come Ustica e come l’incidente che vide la fine di una intera classe politica polacca. Contestualmente a questo susseguirsi di considerazioni,  il prima possibile e compatibilmente con le condizioni meteo,  partirono le ricerche dei resti dell’aereo scomparso che furono molto difficoltose sia a livello di geolocalizzazione che a livello di recupero visto che comunque l’aereo si sarebbe ovviamente ritrovatoimmerso a grandi profondità.In data 3 Maggio 2011, quindi ben dopo due anni dall’incidente, è stata recuperata anche la sceonda scatola nera, grazie ad un sottomarino appositamente preparato.

Con l’utilizzo di tecnologie sonar si è potuto scoprire tanto sulle modalità di impatto dell’aereo con l’acqua. Giro in questo articolo, la foto di quanto rilevato dal sonar e l’immagine successivamente elaborata dalla commissione di indagine relativa all’identificazione dei vari reperti trovati:

Rilevazione dei reperti – scansione Sonar

 

L’elaborazione con descrizione dei reperti trovati sul fondo dell’oceano:

In seguito al ritrovamento dei primi reperti ed in seguito all’analisi dei dati di volo, si è potuto quindi arrivare a conoscere qualcosa di piu su ciò che accadde a bordo dell’Airbus in questione; per esempio, sono state prima di tutto analizzate le tipologie di materiali impiegati per la composizione di alcune parti dell’aereo..Infatti risultano costruite con materiali a nido d’ape a bassa densita o materiali compositi e comprendono la cupola, le parti della cabina, il vano di carico, l’ala, il cupolino basso ventre e il resto della piattaforma mobile dell’equipaggio.

Guardando la foto sopra allegata, viene comunque ovvio pensare che l’identificazione corretta di tutti i reperti sia stato oggetto di particolareggiatissime analisi, in quanto molti detriti è stato possibile identificarli solamente in base a informazioni parziali su di essi, quali numeri di serie stampigliati, comparazioni di forme e colori dei rivestimenti, documentazioni ufficiali sulla costruzione dell’aereo. Purtroppo da questo aspetto possiamo ben immaginare che l’aereo si sia totalmente sbriciolato.

La cosa tristemente interessante che viene rilevata riguarda il posizionamento dei salvagente, che erano ancora tutti all’interno dei loro involucri. Da questo aspetto, insieme ad altri importanti elementi che via via analizzeremo, viene subito in mente che nè i passeggeri nè l’equipaggio di bordo, abbia potuto rendersi conto di ciò che stesse avvenendo…

Altro aspetto che viene indicato all’interno del documento parzialmente pubblicato (parzialmente in quanto ancora in sede di analisi), riguarda il posizionamento delle maschere d’ossigeno. E’ cosa nota, che qualora si verificasse a bordo di un aereo una forte decompressione, le procedure comprendano due “manovre” essenziali:la prima riguarda la discesa ad un livello di volo sotto i 10.000 piedi al fine di poter respirare aria ai giusti valori di ossigeno, la seconda invece riguarda l’automatica espulsione dalle loro sedi originarie delle mascherine d’ossigeno con relativa attivazione dei circuiti di erogazione. Da quanto rilevato, risulterebbe evidente che le mascherine non erano tutte nella loro posizione d’utilizzo, evidenziando quindi un’attivazione parziale del sistema..inoltre, a sostegno di questa evidenza, è stato riportato che alcuni contenitori avevano ancora ben integre le spine d’attivazione, segno che quindi erano ancora “armate” e quindi non attivate/utilizzate. Anche le cinture di sicurezza dei sedili dell’equipaggio (quindi hostess, stuart e piloti) sono risultate essere non allacciate e quindi non utilizzate.

Oltre a queste considerazioni, la commissione di collaudo ha effettuato un’ulteriore valutazione riguardante le parti di fusoliera che son state ritrovate e di cui riporto alcune foto:

Parte della fusoliera, dovrebbe essere una porzione dell’ala..si noti che sono stati divelti completamente i flap!!

 

Carrelli..o meglio ciò che ne è rimasto…incredibile…

Da quel che si vede nella foto della sezione d’ala e in quella dei carrelli, appare evidente che vengono mostrati danni dovuti a carichi eccessivi, soprattuto per quanto riguarda le superfici aereodinamiche. A detta degli inquirenti (e qui purtroppo dobbiamo affidarci a ciò che proviene dai loro rapporti) pare che le deformazioni dei particolari aereodinamici ritrovati evidenziano degli eccessivi carichi dovuti a carichi provenienti dal basso (dell’aereo) verso l’alto.

Altro aspetto interessante che è emerso è che alcune superfici d’appendice, risultassero ancora nella loro posizione di riposo, ma il dato piu spaventoso e che meglio forse rende la gravità di quanto accaduto, riguarda il timone posteriore…nel rapporto verrebbe indicato che  l’asse centrale della cerniera del timone ha subito un carico relativo oltre ai 35G!!! Nonostante questo, le dinamiche dell’incidente non sono apparse compatibili e riconducibili al distacco del timone come motivazione principale in quanto una certa simmetricità nei danni ha fornito evidenze riguardanti l’assenza di importanti forze laterali, cosa che invece sarebbe senz’altro presente nell’eventualità di distacco del timone.Quello che è poi stato rilevato è che l’aereo al momento dell’impatto avesse un rateo di discesa molto rapido.La strumentazione di bordo riguardo al vibrosbandometro ha dato evidenza che l’aereo si trovava in leggero sbandamento ma soprattutto…che l’aereo è precipitato con il naso all’insu e non con una picchiata come siamo soliti pensare.

Ebbene si..l’aereo è caduto guardando verso il cielo…ed essendo che, come nelle foto allegate in precedenza, i detriti sono stati trovati tutti in un raggio piu o meno raggruppato, appare evdente come l’aereo al momento dell’impatto fosse intatto!

Ma cosa ha creato quindi una variazione d’assetto cosi veloce e rapida e cosa può essere accaduto precisamente al momento in cui si son verificate le condizioni che hanno generato l’incidente?

Una parziale risposta è arrivata dall’esito delle autopsie sui corpi ritrovati..Le autopsie sono state eseguite su 50 corpi..45 passeggeri, 4 assistenti di volo ed il capitano. Tutte le lesioni, fratture (soprattutto a carico della colonna vertebrale) sono compatibili con una forte accelerazione verso l’alto, rispettto ad una persona seduta anche se l’autopsia del capitano non permette una certezza nella posizione del capitano nel momento dell’impatto.

Quindi..non solo l’aereo è precipitato “guardando il cielo”…ma addirittura emergono questi aspetti importantissimi che ricapitolo:

1) l’aereo al momento dell’impatto era intatto

2) Non sono stati lanciati “myday”

3) Non sono stati indossati i giubbotti di salvataggio

4) L’aereo è precipitato a naso in su

5) Le autopsie rilevano che le lesioni sono compatibili con una forte accelerazione verso l’alto.

Da qui si può desumere quindi che l’aereo, durante la normale navigazione di crociera, all’improvviso si fosse impennato…come fa la vostra mano quando la tenete fuori dal finestrino dell’auto ed andate a forte velocità. Immaginate…

Questi aspetti quindi, lasciano fuori dalle indagini qualsiasi dubbio su bombe e attentati missilistici.

Grazie per averci seguito.  A breve la parte II.

Per discuterne con noi:  vai al topic sul forum

 

 

 

 

 

 

Eruzione Grimsvotn: Voli sospesi

Aggiornamento 27/05/2011: Eruzione Vulcano: si torna alla normalità

Aggiornamento 25/05/2011: Vulcano, due aeroporti chiusi in Germania, Berlino rischia

Aggiornamento 24/05/2011: British e Klm cancellano i voli per la Scozia

Il vulcano GRIMSVOTN ha eruttato alle ore 19.25 Z il 21 Maggio 2011.La nube vulcanica conseguentemente emessa ha già raggiunto l’altitudine di 30.000 piedi , la zona di pericolo è stata valutata compresa nel range fino all’altitudine totale di 55.000 piedi! In data odierna, il 22 Maggio 2011, i dati pervenuti alle ore 6.00 Z hanno stimato che il pennacchio di ceneri potrebbe essere arrivato fino alla quota di 17.000 metri (FL560). L’aereoporto di Keflavik ha sospeso le operazioni di volo alle ore 10.00 circa con la speranza di riprendere il traffico al piu presto. Tutti i voli a lunga distanza in arrivo o in partenza da Keflavik sono stati cancellati, mentre tutti gli altri aereoporti islandesi sono sotto sorveglianza.Gli scienziati avevano ammesso che sarebbe stato improbabile che l’eruzione del vulcano provocasse una situazione di difficoltà nel traffico aereo paragonabile a quella del vulcano Eyjafol dell’anno scorso.Eppure dopo circa un’ora dall’eruzione, la nube di cenere aveva raggiunto gli 11.000 metri, come segnalato dall’Istituto metereologico islandese.Il 22 maggio la CFMU ha comunicato che la nube di cenere comincerà a farsi vedere in  Scozia da Martedì 24 Maggio e ad  ovest della Francia;  infine nella Spagna settentrionale da Giovedi se l’intensità dell’eruzione  continua ai livelli attuali. Secondo i dati del NOAA non ci sono venti significativi ad alte quote. Pubblichiamo quindi un grafico contenente l’area di concentrazione delle ceneri:

 

 

 

 

 

Segui la discussione sul forum

By Gundam79: Teoria delle stringhe

PREMESSA
La forza di gravità è di gran lunga la più debole delle quattro interazioni fondamentali: a distanze atomiche o molecolari risulta quindi del tutto trascurabile rispetto alle forze nucleari ed elettromagnetiche. Tuttavia, a distanze macroscopiche la gravità diventa la forza dominante, determinando il nostro peso, la forma e la struttura del sistema solare, delle galassie e, più in grande ancora, del nostro Universo.
Su dimensioni che vanno dalla scala cosmica al decimo di millimetro, tutti i fenomeni gravitazionali noti sono magnificamente descritti dalla teoria della relatività generale di Einstein, che si riduce alla teoria classica di Newton (le leggi della meccanica a cui facciamo normalmente riferimento) per velocità molto minori di quella della luce e campi gravitazionali deboli. La stessa teoria, però, non ci dice che cosa succede a scale estremamente piccole o, il che è equivalente, a energie estremamente alte: per questo è necessario costruire una teoria quantistica del campo gravitazionale. Lo stesso percorso ha guidato la quantizzazione delle altre interazioni fondamentali (elettromagnetica, debole e forte) fino alla costruzione del cosiddetto Modello Standard delle particelle elementari, che descrive con successo tutti i “mattoni fondamentali” della materia e i mediatori dell’interazione nucleare forte ed elettrodebole.
Ma perché ci interessa la gravità su scala ultramicroscopica? La risposta è proprio nella teoria della relatività generale, che prevede situazioni in cui l’Universo stesso è racchiuso in dimensioni microscopiche con un’elevatissima densità di energia.
Una condizione simile, ad esempio, è quella del nostro Universo subito dopo il Big Bang, circa 13,5 miliardi di anni fa, e gli effetti di gravità quantistica sono essenziali per spiegarne l’evoluzione.
In tutte le teorie quantistiche, i processi che descrivono le interazioni tra particelle sono di tipo probabilistico e le probabilità, per avere significato fisico, devono assumere valori finiti, al massimo pari a uno (la teoria, cioè, deve essere normalizzata). Tuttavia, il carattere puntiforme delle interazioni tra particelle elementari porta a delle divergenze, ossia probabilità di valore infinito, che per il Modello Standard è possibile eliminare con la cosiddetta procedura di rinormalizzazione. Nel caso della teoria quantistica del campo gravitazionale, però, le divergenze sono ineliminabili.
Come già proposto da Gabriele Veneziano, fisico italiano al Cern di Ginevra, buona parte dei fisici teorici ritiene che il problema delle divergenze possa superarsi con la teoria delle stringhe: oggetti unidimensionali, come laccetti chiusi o aperti, di estensione molto piccola, le cui interazioni non sono puntiformi e non provocano quindi la comparsa di infiniti. Le stringhe possono vibrare (fig. b a p. 42) come le corde di un violino e a ogni “nota” vibrata corrisponde una particella elementare: un singolo modo vibrazionale di un unico oggetto fondamentale, la stringa. Il passaggio da particella puntiforme a stringa implica quindi l’unificazione di tutte le particelle elementari. Tra i diversi modi di vibrazione compare anche il gravitone, il quanto del campo gravitazionale, che risulta così compreso in una teoria quantistica che unifica la gravitazione alle altre forze fondamentali.
Avendo un’estensione estremamente ridotta (dell’ordine della lunghezza di Planck, pari a 10-36 m), le stringhe appaiono come particelle puntiformi anche ai nostri microscopi più potenti, cioè i grandi acceleratori capaci di sondare distanze fino a un miliardesimo di miliardesimo di metro. Che cosa prevede la teoria delle stringhe a questa scala? Le stringhe, che appaiono puntiformi, riescono a riprodurre correttamente l’insieme di particelle e di interazioni del Modello Standard?
Su questo problema stanno lavorando molti gruppi di ricerca, e i risultati ottenuti, seppure incoraggianti, non permettono ancora una risposta definitiva.

A bassissime energie, nel limite classico in cui spariscono gli effetti quantistici, la teoria delle stringhe contiene effettivamente il campo elettromagnetico (con le sue generalizzazioni, previste dal Modello Standard) e il campo gravitazionale della relatività generale. In questo limite, la teoria ha ispirato la costruzione di nuovi e interessanti modelli cosmologici. In quanto teoria quantistica, essa soffre del fatto (comune anche al Modello Standard) che le sue predizioni possono essere calcolate solo in modo approssimato, tramite la cosiddetta teoria delle perturbazioni. Pur con queste difficoltà, tuttavia, la teoria delle stringhe ha potuto dare una prima spiegazione microscopica della termodinamica dei buchi neri. Essa, inoltre, prevede fenomeni nuovi, i cui effetti potrebbero essere rilevati con il nuovo acceleratore di particelle Lhc (Large Hadron Collider) che entrerà in funzione al Cern di Ginevra nel 2008. Le previsioni della teoria delle stringhe includono:
1. Una nuova simmetria della natura, chiamata supersimmetria. Essa agisce tra bosoni (ad esempio i fotoni e i gluoni, mediatori rispettivamente dell’interazione elettomagnetica e forte) e fermioni (come quark e leptoni, i mattoni fondamentali di tutta la materia) scambiando gli uni con gli altri: se la simmetria fosse esatta, per ogni bosone dovrebbe esistere un fermione di uguale massa. Tuttavia, questo non si verifica per le particelle elementari descritte dal Modello Standard e osservate negli esperimenti, il che implica una rottura della supersimmetria, come succede già per altre simmetrie del Modello Standard. Il meccanismo di questa rottura rappresenta una delle principali difficoltà nel confronto con i dati sperimentali.
Pur non verificata sperimentalmente, la supersimmetria è un ingrediente matematico necessario nella teoria delle stringhe (da qui il termine “superstringhe”): essa prevede l’esistenza di nuove particelle, compagne supersimmetriche di quelle descritte nel Modello Standard, che potremo forse rivelare alle energie accessibili a Lhc. A basse energie le superstringhe riproducono la supergravità, che generalizza la gravità di Einstein con l’aggiunta del gravitino, il fermione partner supersimmetrico del gravitone.
2. Dimensioni “nascoste” dello spaziotempo. Per essere matematicamente consistente, la teoria quantistica delle superstringhe deve avere 6 dimensioni spaziali “extra” oltre alle 4 dello spaziotempo usuale. Queste dimensioni extra sono compatte, cioè arrotolate su se stesse: per esempio possono descrivere dei piccolissimi cerchi o sfere, ma anche infiniti altri spazi compatti, osservabili solo a energie molto elevate o a distanze infinitesime.
A tutte queste “compattificazioni” corrispondono particolari proprietà per le particelle a basse energie, ed è possibile trovare particolari spazi 6-dimensionali a cui corrispondono proprietà molto simili a quelle del Modello Standard. È però ancora del tutto ignoto il meccanismo con il quale la teoria “sceglie” un particolare spazio 6-dimensionale.
3. Modifiche alla legge di Newton. La teoria delle stringhe include anche altri oggetti estesi multidimensionali, le cosiddette p-brane (membrane p-dimensionali), e recentemente è stata avanzata l’ipotesi che lo spaziotempo usuale sia proprio una 4-brana fluttuante in uno spazio a 10 dimensioni, nel quale le 6 dimensioni extra siano “permeabili” solo alla forza gravitazionale. In questo caso, si prevedono deviazioni dalla legge di Newton su scala submillimetrica, che sono attualmente sotto investigazione da parte di numerosi gruppi sperimentali.

By Elhoah: Per non dimenticare…

L’automobile spinta dall’etere di Nikola Tesla

La città di Buffalo, nel nord dello stato di New York negli USA, fu silenziosa testimone di un fatto straordinario nel corso di una settimana durante l’estate del 1931. Nonostante la depressione economica avesse compromesso la produzione e i commerci, la città nondimeno rimaneva una fucina di attività. Un giorno, tra le migliaia di veicoli che ne percorrevano le vie, una lussuosa automobile si fermò accanto, al marciapiede presso il semaforo di un incrocio. Un passante notò come si trattasse di una berlina Pierce-Arrow ultimo modello, coi fari che s’integravano con grazia nei parafanghi nel tipico stile di questa marca. Quello che caratterizzava l’auto in quella fredda giornata estiva era l’assoluta assenza di emissione di vapore o fumi dal tubo di scarico. Il passante si avvicinò al guidatore e attraverso il finestrino aperto commentò l’assenza di fumi dallo scarico. Il guidatore ringraziò il passante per i complimenti sottolineando che era così perché l’automobile “non aveva motore”.
Questa dichiarazione non è stravagante o maliziosa come potrebbe sembrare. C’era una certa verità in essa. Infatti, la Pierce-Arrow non aveva un motore a combustione interna; aveva invece un motore elettrico. Se l’autista si fosse preoccupato di completare la sua spiegazione al passante, avrebbe potuto dirgli che il motore elettrico non era alimentato da batterie – da nessun tipo di “carburante”.
L’autista era Petar Savo, e nonostante stesse guidando quell’auto non era il responsabile delle sue incredibili caratteristiche. Queste erano il lavoro dell’unico passeggero, un uomo che Petar Savo conosceva come uno “zio”: non altri che il genio dell’elettricità Nikola Tesla (18 56-1943).
Negli anni ’90 del 19′ secolo Nikola Tesla aveva rivoluzionato il mondo con le sue invenzioni per sfruttare l’elettricità, dandoci il motore elettrico a induzione, la corrente alternata (AC), la radiotelegrafia, il radiocomando a distanza, le lampade a fluorescenza ed altre meraviglie scientifiche. In realtà fu la corrente alternata polifase di Tesla e non la corrente continua di Thomas Edison ad inaugurare la moderna epoca tecnologica.
Tesla non rimase a dormire sugli allori ma continuò a fare scoperte fondamentali nei campi dell’energia e della materia. Scoprì i raggi cosmici decenni prima di Millikan e fu il primo a sviluppare i raggi-X, il tubo a raggi catodici e altri tipi di valvole.

 

Comunque, la scoperta potenzialmente più significativa di Nikola Tesla fu che l’energia elettrica può essere propagata attraverso la Terra ed anche attorno ad essa in una zona atmosferica chiamata cavità di Schumann. Essa si estende dalla superficie del pianeta fino alla ionosfera, all’altezza di circa 80 chilometri . Le onde elettromagnetiche di frequenza estremamente bassa, attorno agli 8 hertz (la risonanza di Schumann, ovvero la pulsazione del campo magnetico terrestre) viaggiano, praticamente senza perdite, verso ogni punto del pianeta. Il sistema di distribuzione dell’energia di Tesla e la sua dedizione alla free energy significavano che con l’appropriato dispositivo elettrico sintonizzato correttamente sulla trasmissione dell’energia, chiunque nel mondo avrebbe potuto attingere dal suo sistema.
Lo sviluppo di una simile tecnologia rappresentava una minaccia troppo grande per gli enormi interessi di chi produce, distribuisce e vende l’energia elettrica.
La scoperta di Tesla finì con la sospensione dell’appoggio finanziario alle sue ricerche, l’ostracismo da parte della scienza ufficiale e la graduale rimozione del suo nome dai libri di storia. Dalla posizione di superstar della scienza nel 1895, Tesla nel 1917 era virtualmente un “signor nessuno”,, costretto a piccoli esperimenti scientifici in solitudine. Nei suoi incontri annuali con la stampa in occasione del suo compleanno, una figura sottile nel cappotto aperto di stile anteguerra avrebbe annunciato ai giornalisti le scoperte e gli sviluppi delle sue idee. Era un triste miscuglio di ego e genio frustrato.
Nel 1931, Nikola Tesla compì 75 anni. In una rara dimostrazione di omaggio da parte dei media, la rivista Time gli dedicò la copertina e un profilo biografico. L’anziano ingegnere e scienziato appariva emaciato anche se non sofferente, i suoi capelli ancora di un nero lucido e lo stesso sguardo lontano nei suoi occhi di sognatore.

Le Auto Elettriche Rimangono Indietro
All’inizio del ventesimo secolo, per le automobili elettriche le prospettive erano luminose. Futuristi come Jules Verne avevano anticipato veicoli elettrici alimentati da batterie che erano meccanicamente più semplici, silenziosi, inodori, facili da adoperare e con meno problemi di qualunque automobile con motore a benzina.
Nell’automobile con motore a benzina occorreva regolare la valvola a farfalla, l’anticipo dell’accensione, pompare sull’acceleratore e far girare il motore con una manovella. In un’auto elettrica bastava soltanto girare una chiave e premere l’acceleratore. Rilasciando l’acceleratore l’auto rallentava immediatamente.
Se necessario, in un’epoca in cui vi erano poche officine per auto, un normale elettricista poteva eseguire la manutenzione del semplice motore a corrente continua. Non vi era olio da cambiare, né radiatore da riempire, né pompe della benzina o dell’acqua da sistemare, nessun problema di carburazione, nessuna marmitta che si arrugginiva, nessun differenziale o trasmissione da controllare, e nessun inquinamento! Il grasso e l’olio erano limitati a un paio di cuscinetti a sfere del motore elettrico e ad alcuni raccordi del telaio.
Per le loro consegne i grandi magazzini impiegavano camion elettrici. I medici iniziarono a recarsi alle visite al domicilio dei pazienti con “l’elettrica”, sostituendo il proprio cavallo e calesse con qualcosa di altrettanto semplice da mantenere. Le donne preferivano le auto elettriche per la facilità di guida. Poiché le vetture elettriche erano limitate in velocità e autonomia dalle loro batterie, diventarono popolari come trasporti cittadini.

Al di fuori delle città, le strade dell’America di allora erano così primitive che diventarono riservate ai veicoli con motore a combustione interna, più veloci, con autonomia maggiore e in rapido progresso. Così, negli USA vi fu una specie di età dell’oro per i veicoli elettrici dopo che il resto del mondo iniziò ad abbandonarli. Detroit Electric, Columbia, Baker, Rauch & Lang e Woods furono le principali aziende tra quelle che producevano questo tipo di veicoli elettrici; si svilupparono nella loro nicchia di mercato con una serie di carrozzerie formali, spesso eleganti.
Il tallone d’Achille delle vetture elettriche, comunque, fu sempre la densità energetica delle sue batterie, ovvero la sua scarsità. Le batterie erano dei tipo al piombo, pesanti e ingombranti, e sottraevano molto spazio prezioso. Il peso eccessivo riduceva la maneggevolezza e limitava le prestazioni, anche per gli standard di quegli anni. I veicoli elettrici non potevano superare i 70- 80 Km/h , poiché a queste velocità la batteria si poteva distruggere in un attimo. Spunti attorno ai 60 Km/h si potevano sostenere per tempi brevissimi, e la tipica gamma di velocità dei percorsi era di 25- 35 Km/h . Le batterie richiedevano ricariche ogni notte e l’autonomia massima superava difficilmente i 160 chilometri . Nessun costruttore di veicoli aveva mai installato un generatore elettrico di corrente continua, che avrebbe potuto restituire piccole quantità di energia alle batterie mentre il veicolo era in movimento, aumentandone così l’autonomia. Vi furono promesse su future potenti batterie innovative sin dai tempi di Edison, ma alla fine non se ne vide traccia.
Non appena la velocità e l’affidabilità delle automobili a benzina migliorarono, le auto elettriche furono abbandonate e rimasero le preferite dai pensionati e dalle signore anziane. L’introduzione della messa in moto elettrica nelle auto a benzina mise il chiodo finale alla bara delle auto elettriche.

La Comparsa di Nikola Tesla
Negli anni ’60 un ingegnere aeronautico di nome Derek Alilers incontrò Petar Savo e sviluppò una lunga amicizia con lui. Durante il loro sodalizio durato dieci anni, Savo gli parlò del suo illustre “zio” Nikola Tesla e delle sue realizzazioni negli anni ’30. (Savo era un giovane parente di Tesla anche se non un nipote, ma si riferiva a lui come “zio”.)
Nel 1930 Nikola Tesla chiese a suo “nipote” Petar Savo di venire a New York. Savo (nato in Jugoslavia nel 1899, quindi 43 anni più giovane di Tesla) era stato nell’esercito austriaco ed era un esperto pilota, così colse fervidamente l’opportunità di lasciare la Jugoslavia (paese natale di Nikola Tesla). Si trasferì negli USA stabilendosi a New York.
Nel 1967, in una serie di interviste, Savo descrisse la sua parte nell’episodio dell’auto elettrica di Tesla.
Durante l’estate del 1931, Tesla invitò Savo a Buffalo, nello stato di New York, per mostrargli e collaudare un nuovo tipo di automobile che aveva sviluppato di tasca sua. Casualmente, Buffalo è vicina alle cascate del Niagara – dove era entrata in funzione nel 1895 la stazione idroelettrica a corrente alternata di Tesla che lo aveva innalzato al culmine della stima da parte della scienza ortodossa. La Westinghouse Electric e la Pierce-Arrow avevano preparato questa automobile elettrica sperimentale seguendo le indicazioni di Tesla. (George Westinghouse aveva acquistato da Tesla i brevetti sulla corrente alternata per 15 milioni di dollari all’inizio del 20′ secolo.)
La Pierce-Arrow adesso era posseduta e finanziata dalla Studebacker Corporation, e utilizzò questo solido appoggio finanziario per lanciare una serie di innovazioni. Tra il 1928 e il 1933 l ‘azienda automobilistica presentò nuovi modelli con motori ad 8 cilindri in linea e 12 cilindri a V, i futuristici prototipi Silver Arrows, nuovi stili e miglioramenti di tecnica ingegneristica. La clientela reagì positivamente e le vendite della Pierce-Arrow aumentarono la quota aziendale nel mercato delle auto di lusso, nonostante nel 1930 quest’ultimo fosse in diminuzione. In una situazione così positiva, progetti “puramente teorici” come l’auto elettrica di Tesla erano all’interno di questa sfera concettuale. Nella tradizionale mistura di arroganza e ingenuità dell’azienda, niente sembrava impossibile.
Così, per le sperimentazioni era stata selezionata una Pierce-Arrow Eight del 1931, proveniente dall’area di collaudo dell’azienda a Buffalo, nello stato di New York. Il suo motore a combustione interna era stato rimosso, lasciando intatti la frizione, il cambio e la trasmissione verso l’asse posteriore. La normale batteria da 12 volt rimase al suo posto, ma alla trasmissione era stato accoppiato un motore elettrico da 80 cavalli.

Tradizionalmente, le auto elettriche montavano motori a corrente continua alimentati da batterie, dato che quella continua è il solo tipo di corrente che le batterie possono fornire. Si sarebbe potuto utilizzare un convertitore corrente continua/corrente alternata, ma a quei tempi tali dispositivi erano troppo ingombranti per essere montati su un’automobile.
Il crepuscolo delle auto elettriche era già passato da tempo, ma questa Pierce-Arrow non venne dotata di un semplice motore a corrente continua. Si trattava di un motore elettrico a corrente alternata progettato per raggiungere 1.800 giri al minuto. Il motore era lungo 102 centimetri con un diametro di 76, senza spazzole e raffreddato ad aria per mezzo di una ventola frontale, e presentava due terminali di alimentazione indirizzati sotto il cruscotto ma lasciati senza collegamento. Tesla non disse chi costruì il motore elettrico, ma si ritiene che fu una divisione della Westinghouse. Sul retro dell’automobile era stata fissata un’antenna di 1,83 metri .

L’Affare “Etere-Arrow”
Petar Savo raggiunse il suo famoso parente, come quest’ultimo gli aveva chiesto, e a New York salirono assieme su un treno diretto verso il nord dello stato omonimo. Durante il viaggio l’inventore non commentò la natura dell’esperimento.
Arrivati a Buffalo, si recarono presso un piccolo garage dove trovarono la nuova Pierce-Arrow. Il Dr. Tesla sollevò il cofano e fece qualche regolazione sul motore elettrico a corrente alternata sistemato al suo interno. In seguito si recarono a predisporre gli strumenti di Tesla. Nella camera di un hotel delle vicinanze il genio dell’elettricità si mise a montare il suo dispositivo. In una valigia a forma di cassetta si era portato dietro 12 valvole termoioniche. Savo descrisse le valvole “di costruzione curiosa”, sebbene in seguito almeno tre di esse siano state identificate come valvole rettificatrici 70L7-GT. Furono inserite in un dispositivo contenuto in una scatola lunga 61 centimetri , larga 30,5 e alta 15. Non era più grande di un ricevitore radio ad onde corte. Al suo interno era predisposto tutto il circuito elettronico comprese le 12 valvole, i cablaggi e le resistenze. Due terminali da 6 millimetri di diametro e della lunghezza di 7,6 centimetri sembravano essere le connessioni per quelli del motore.
Ritornati all’auto del l’esperimento, misero il contenitore in una posizione predisposta sotto il cruscotto dalla parte del passeggero. Tesla inserì i due collegamenti controllando un voltmetro.

“Ora abbiamo l’energia”, dichiarò, porgendo la chiave d’accensione a suo nipote. Sul cruscotto vi erano ulteriori strumenti che visualizzavano valori che Tesla non spiegò.
Dietro richiesta dello zio, Savo mise in moto. “Il motore è partito”, disse Tesla. Savo non sentiva alcun rumore. Nonostante ciò, coi pioniere dell’elettricità sul sedile del passeggero, Savo selezionò una marcia, premette sull’acceleratore e portò fuori l’automobile.
Quel giorno Petar Savo guidò questo veicolo senza combustibile per lungo tempo, per circa 80 chilometri attorno a Buffalo, avanti e indietro nella campagna. Con un tachimetro calibrato a 190 chilometri orari a fondo scala, la Pierce-Arrow venne spinta fino a 145 km/h , e sempre con lo stesso livello di silenziosità del motore.
Mentre percorrevano la campagna Tesla diventava sempre più disteso e fiducioso sulla sua invenzione; cominciò così a confidare a suo nipote alcuni suoi segreti. Quel dispositivo poteva alimentare le richieste di energia del veicolo per sempre, ma poteva addirittura soddisfare il fabbisogno energetico di un’abitazione – e con energia in avanzo.
Pur se riluttante, inizialmente, a spiegarne i principi di funzionamento, Tesla dichiarò che il suo dispositivo era semplicemente un ricevitore per una “misteriosa radiazione, che proviene dall’etere” la quale “era disponibile in quantità illimitata”.

Riflettendo, mormorò che “il genere umano dovrebbe essere molto grato per la sua presenza”.
Nel corso dei successivi otto giorni Tesla e Savo provarono la Pierce-Arrow in percorsi urbani ed extraurbani, dalle velocità estremamente lente ai 150 chilometri all’ora. Le prestazioni erano analoghe a quelle di qualunque potente automobile pluricilindrica dell’epoca, compresa la stessa Pierce Eight col motore da 6.000 cc di cilindrata e 125 cavalli di potenza.
Tesla raccontò a Savo che presto il ricevitore di energia sarebbe stato utilizzato per la propulsione di treni, natanti, velivoli e automobili.
Alla fine della sperimentazione, l’inventore e il suo autista consegnarono l’automobile in un luogo segreto, concordato in precedenza – il vecchio granaio di una fattoria a circa 30 chilometri da Buffalo. Lasciarono l’auto sul posto, ma Tesla si portò dietro il suo dispositivo ricevitore e la chiave d’accensione.
Questo romanzesco aspetto dell’affare continuò. Petar Savo raccolse delle indiscrezioni secondo le quali una segretaria aveva parlato delle prove segrete ed era stata licenziata. Ciò spiegherebbe un impreciso resoconto sulle sperimentazioni che apparve su diversi quotidiani.
Quando chiesero a Tesla da dove arrivasse l’energia, data l’evidente assenza di batterie, egli rispose riluttante: “Dall’etere tutto attorno a noi”.
Alcuni suggerirono che Tesla fosse pazzo e in qualche modo collegato a forze sinistre e occulte. Tesla fu incensato. Rientrò assieme alla sua scatola misteriosa al suo laboratorio di New York. Terminò così la breve esperienza di Tesla nel mondo dell’automobile.
Questo incidente dell’infrazione nella sicurezza può essere apocrifo, dato che Tesla non disdegnava di utilizzare la pubblicità per promuovere le sue idee ed invenzioni, sebbene quando questi dispositivi mettevano in pericolo lo status quo dell’industria egli aveva ogni buona ragione per essere circospetto nei suoi rapporti.
L’azienda Pierce-Arrow aveva già toccato il culmine del suo successo nel 1930. Nel 1931 era in calo. Nel 1932 l ‘azienda perse 3 milioni di dollari. Nel 1933 vi furono problemi amministrativi anche nell’azienda madre Studebacker che vacillò sull’orlo della liquidazione. L’interesse passò dall’innovazione alla pura sopravvivenza, e qui la Pierce-Arrow abbandona il nostro racconto.

Un mistero all’interno di un enigma
Circa un mese dopo la pubblicazione dell’episodio, Petar Savo ricevette una telefonata da Lee DeForest, un amico di Tesla e pioniere nello sviluppo delle valvole termoioniche. Egli chiese a Savo se i test lo avessero soddisfatto. Savo rispose con entusiasmo e DeForest lodò Tesla come il più grande scienziato vivente al mondo.
In seguito, Savo chiese a suo “zio” sugli sviluppi del ricevitore energetico in altre applicazioni. Tesla rispose che era in contatto con uno dei principali cantieri nautici per realizzare una nave con un dispositivo simile a quello dell’automobile elettrica sperimentale. Tuttavia, non gli si potevano chiedere maggiori dettagli dato che era ipersensibile riguardo alla sicurezza del suo dispositivo – e non si può dargli torto. In passato, potenti interessi avevano cercato di ostracizzare Tesla, ostacolando ogni suo sforzo per promuovere ed applicare le proprie tecnologie.
Chi scrive non è a conoscenza di alcun documento pubblico che descriva un esperimento nautico, o se quest’ultimo accadde. Non venne divulgata alcuna informazione.
Il New York Daily News del 2 aprile 1934 riportava un articolo intitolato “Il sogno di Tesla di un’energia senza fili vicino alla realtà“, che descriveva un “esperimento programmato per spingere un’automobile utilizzando la trasmissione senza fili di energia elettrica”. Questo successe dopo l’episodio e non vi era menzione di “free energy”.
Nel periodo in cui l’automobile dovrebbe essere stata svelata, la Westinghouse Corporation , sotto la presidenza di F. A. Merrick, pagò per la sistemazione di Tesla al New Yorker, il più nuovo e lussuoso hotel di New York. In esso l’anziano scienziato visse gratuitamente per tutto il resto della sua vita. Tesla venne anche reclutato dalla Westinghouse per ricerche non ben specificate sulle trasmissioni senza fili ed egli interruppe le sue dichiarazioni pubbliche sui raggi cosmici.
Forse che la Westinghouse comprò il riluttante silenzio di Tesla sulle sue scoperte free energy? Oppure venne finanziato per proseguire dei progetti segreti talmente speculativi da non costituire una minaccia per il complesso industriale nell’immediato futuro? Cala il sipario su un mistero all’interno di un enigma.

onore a te grande Uomo…..

PS una volta contraddissi il mio prof in merito alle scoperte di Tesla, soprattutto per i suoi esperimenti in New Jersey, affermando io che era praticamente impossibile trasmettere energia elettrica senza l’ausilio di cavi o raccordi, per cui ritenevo inutile il proseguire le ricerche del Genio per costatare un fantomatica possibilità di trasmissione dell’energia tra due punti distanti tot metri…il mio prof disse che avevo ragione , che sarebbe impossibile trasmettere energia senza collegamenti terrestri, questo perchè non serve trasmetterla, è già presente ovunque, ne facciamo parte anche noi

By Duellum71: Come lo “Stato di Hoyle” rende possibile la nascita della vita


Reazione di fusione stellare che porta alla formazione di Carbonio. Per decenni gli scienziati non sono mai riusciti ad effettuare i calcoli precisi dietro questa reazione

Riassunto: Dopo decenni senza successo, gli scienziati hanno calcolato lo stato di Hoyle. Lo stato di Hoyle è una forma ricca di energia del nucleo di carbonio ed è la chiave per comprendere la reazione di fusione che porta da gas elio in carbonio. Senza questo tipo di nucleo di carbonio, la vita non potrebbe esistere.

Dopo aver provato e riprovato senza successo per decenni, gli scienziati sono finalmente riusciti a calcolare lo “Stato di Hoyle”. Un calcolo basilare per capire e convalidare i modelli che abbiamo sull’origine della vita. “I tentativi per calcolare lo Stato di Hoyle sono stati senza successo dal 1954 ad oggi,” ha spiegato il Dr. Ulf-G.Meißner, dell’Università di Bonn. “Ma adesso ce l’abbiamo fatta!”

Lo stato di Hoyle è uno stato energicamente ricco di un nucleo di carbonio. E’ un passaggio importantissimo perché permette di spiegare l’origine stessa del carbonio e quindi è fondamentale per capire la vita terrestre che si costruisce partendo proprio da questo elemento. Il passaggio è da 3 nuclei di elio a 1 nucleo più grande di carbonio. Questa reazione di fusione avviene all’interno delle stelle più pesanti. Se lo “Stato di Hoyle” non esistesse, si sarebbero potuto formare solo pochissime tracce di elementi più pesanti come il carbonio, ma anche l’ossigeno, l’azoto ed il ferro… Senza questo tipo particolare di nucleo di carbonio, la vita come la conosciamo non sarebbe stata possibile.

L’esistenza e validità dello Stato di Hoyle è stata verificata sperimentalmente sin dal 1954, ma nessuno era mai riuscito a calcolarlo.
Questo tipo di carbonio consiste in solo 3, molto flessibili, nuclei di elio, legati insieme in una specie di nucleo nebuloso diffuso. E non avviene individualmente, ma avviene soltanto nella presenza di altre forme di carbonio.


Professor Sir Fred Hoyle (1915-2001), ha previsto lo stato di Hoyle nel 1950. Immagine di credito: Università di Cardiff

“Sarebbe come cercare di analizzare un segnale radio mentre il trasmettitore principale ed i trasmettitori secondari continuano a inferire gli uni con gli altri.” ha spiegato il Prof. Dr. Evgeny Epelbaum, dell’istituto della Fisica Teoria dell’Università Rurh di Bochum. Il principale trasmettitore è il nucleo di carbonio stabile di cui sono fatti gli esservi viventi. “Ma siamo interessati in uno dei nuclei instabili e ricchi di energia; cosi abbiamo separato in qualche modo il trasmettitore più secondario e debole dal segnale del trasmettitore principale. “

Quello che ha permesso questo calcolo è stato il miglioramento dell’approccio che i ricercatori hanno usato per permettere di calcolare tutte le forze nucleari coinvolte. Una grossa mano l’ha sicuramente data anche JUGENE, il supercomputer della Forschungszentrum Jülich. Questo supercomputer, basato sull’architettura Blue Gene sviluppata da IBM arriva ad una velocità di 1 PetaFLOPS. A questo, che è uno dei supercomputer più potenti al mondo, è servito ben 1 settimana per fare tutti i calcoli necessari. I risultati hanno confermato i dati sperimentali osservati cosi bene che i ricercatori hanno potuto affermare con successo di aver finalmente calcolato lo Stato di Hoyle.


La reazione di fusione che porta da gas elio in carbonio avviene all’interno delle stelle calde pesanti. Immagine di Credito: ESA / PACS / SPIRE / Consorzi MESS

“Adesso possiamo analizzare questa eccitante ed essenziale forma in cui si può presentare un nucleo di carbonio sotto ogni dettaglio” ha spiegato il Prof. Meibner. “Cercheremmo di determinare quanto è grande e qual’è la sua struttura. Questo significa anche che adesso possiamo fare un passo in avanti per capire come sono nati gli elementi chimici.”

Nel futuro, questo potrebbe anche permetterci di rispondere a domande molto più filosofiche usando la scienza. per decennio, lo Stato di Hoyle era un ottimo esempio per una teoria che spiega che le costanti naturali devono avere precisamente i loro valori sperimentali e non altri diversi, perché altrimenti non saremmo qui per osservare l’universo (il principio antropico). Il principio antropico venne enunciato in ambito fisico e cosmologico per sottolineare che tutte le osservazioni scientifiche sono soggette ai vincoli dovuti alla nostra esistenza di osservatori. Si è poi sviluppato come una ipotesi che cerca di spiegare le attuali caratteristiche dell’universo.

“Per lo Stato di Hoyle, questo signiica che deve avere esattamente la quantità di energia che ha, altrimenti non esisterebbe” ha spiegato il Prof. Meibner. “Adesso possiamo calcolare se, in un mondo diverso, con altri parametri, lo stato di Hoyle avrebbe un energia diversa quando si compara la massa di nuclei di elio”.
Se cosi fosse, questo confermerebbe sperimentalmente la teoria del principio antropico.

Fonte: http://www.astrobio.net/pressrelease/3959/how-the-hoyle-state-made-life-possible
Fonte: http://www.astrobio.net/pdffiles/news_3959.pdf
Fonte: http://www3.uni-bonn.de/Press-releases/fundamental-question-on-how-life-started-solved