venerdì 3 settembre 2010

Tao livello 0: il metamistero che non può sparire

Nel 2002 Physics World pubblicò una graduatoria degli esperimenti ritenuti più belli in tutta la storia della fisica; il vincente fu l'esperimento di Young esteso come esperimento della doppia fenditura e applicato alla luce o a elettroni, uno dei fondamenti sperimentali che hanno generato lo sviluppo della Meccanica Quantistica.
L’esperimento originale eseguito da Thomas Young il 24 novembre 1803 verteva sulla determinazione se la luce fosse rappresentata da onde o da corpuscoli (particelle, come suggerito da Newton).
L’esperimento di Young era molto semplice.


Un raggio di sole veniva fatto passare attraverso un foro praticato in un cartoncino, quindi raggiungeva un secondo schermo, con due fori. La luce che attraversava i due fori del secondo schermo finiva infine su uno schermo, dove creava una figura di luci e ombre che Young spiegò come conseguenza del fatto che la luce si diffonde attraverso i due fori in forma di onde. Queste onde danno origine, nei punti in cui si sommano, a fasce chiare (interferenza costruttiva), mentre nei punti dove non sisommano a fasce scure (interferenza distruttiva).
L’esperimento di Young venne accettato come dimostrazione del fatto che la luce si irradia per mezzo di onde. Infatti se la luce fosse stata costituita da particelle, non si sarebbe osservata questa alternanza di luci e ombre, ma si sarebbero osservate solo due bande luminose, una per foro. L'esperimento confermava le previsioni dell'elettromagnetismo classico di Maxwell dove sono previste soluzioni di propagazione ondosa del campo elettromagnetico.

Nel 1900 Max Planck, premio Nobel per Fisica 1918, ipotizzò sulla base di altri dati sperimentali quali l'effetto fotoelettrico spiegato da Einstein in un fondamentale articolo del 1905 - per il quale ricevette in Premio Nobel per la Fisica 1921 - che la luce fosse composta da particelle, o quanti di energia.
L'esperimento fu ripetuto sia con la luce sia con elettroni, con tecniche che possono lanciare un fotone o un elettrone alla volta:


Il risultato è che incrementando (da sinistra verso destra) l'intensità dei fotoni o degli elettroni si passa da un comportamento particellare ad uno ondulatorio. Inoltre, ad alte intensità, se le fenditure aperte sono due si ottiene il comportamento ondulatorio, se ne è aperta solo una si ottiene il comportamento particellare.
Gli elettroni lanciati in un esperimento della doppia fenditura producono una figura d’interferenza sullo schermo rilevatore (in questo caso uno schermo simile a quello di un televisore) e devono quindi muoversi sotto forma di onda. Tuttavia, all’arrivo, generano un solo punto di luce, comportandosi quindi come particelle. Si è quindi portati a concludere che gli elettroni viaggiano come onde, ma giungono all’arrivo come particelle.
Se l’elettrone fosse una particella potremmo dedurre che ogni particella passa attraverso uno o l’altro dei due fori presenti nell’esperimento; tuttavia, la figura d’interferenza che si genera sullo schermo dimostra che si tratta di onde che attraversano i due fori contemporaneamente.
In un'altra configurazione sperimentale si pone non un rivelatore unico per le due fenditure ma due rivelatori singoli su ognuna delle fenditure. Se il rivelatore è unico si ottiene il risultato ondoso, se sono due si ottiene quello corpuscolare, e dalll'attivazione di quale rivelatore si può dedurre da quale fenditura è passata la particella.
Le entità quantistiche quindi si dimostrano capaci di passare attraverso le due fenditure nello stesso istante; non solo, hanno anche una sorta di consapevolezza del passato e del futuro, cosicché ognuna di esse può scegliere di dare il suo contributo alla figura d’interferenza nel punto corretto, quello che contribuisce alla creazione della figura, anziché alla sua distruzione.

Il risultato di questi esperimenti fu conclusivo nel formulare il dualismo onda-particella o principio di complementarietà, formulato da Niels Bohr, secondo cui il comportamento rivelato dipende dalla configurazione sperimentale usata per misurarlo, e quindi, in ultima analisi, dall'osservatore.
Secondo le parole di Richard Feynman nell’esperimento della doppia fenditura e nella dualità onda/particella è racchiuso "the quantum mystery which cannot go away” (Feynman, 1977), ovvero il “mistero centrale” della meccanica quantistica. Si tratta di un fenomeno “in cui è impossibile trovare un corrispettivo e una spiegazione classica, e che ben rappresenta il nucleo della meccanica quantistica".


Da questo fondamentale esperimento nacquero due formulazioni duali della Meccanica Quantistica: quella della meccanica ondulatoria sviluppata da Erwin Schrödinger, premio Nobel per la Fisica 1933, e quella particellare formulata da Werner Heisenber, premio Nobel per la Fisica 1932. Entrambe le teorie portano a due equazioni agli autovalori , una sotto forma di equazione d'onda e l'altra sotto forma di equazione agli operatori per la funzione ampiezza di probabilità, che descrive in modo statistico/probabilistico le proprietà delle entità quantistiche.

La dualità onda/particella è stata oggetto da sempre di intense discussioni, delle quali quella storicamente più rilevante tra il 1930 e il 1980 è denominata Interpretazione di Copenaghen, secondo la quale la coscienza, tramite l’esercizio dell’osservazione, determina almeno in parte la realtà.
L’interpretazione di Copenhagen, formulata da Niels Bohr e Werner Heisenberg durante la loro collaborazione a Copenhagen nel 1927, spiega l’esperimento della doppia fenditura nel modo seguente:

• l’elettrone lascia il cannone elettronico come particella;
• si dissolve immediatamente in una serie di onde di probabilità sovrapposte, ovvero una sovrapposizione di stati;
• le onde passano attraverso ambedue le fenditure e interferiscono reciprocamente fino a creare una nuova sovrapposizione di stati;
• lo schermo rilevatore, compiendo una misurazione del sistema quantistico, fa collassare la funzione d’onda in una particella, in un punto ben definito dello schermo;
• subito dopo la misurazione, l’elettrone ricomincia a dissolversi in una nuova sovrapposizione di onde.

Secondo l’interpretazione di Copenhagen l’esistenza oggettiva di un elettrone in un certo punto dello spazio, per esempio in una delle due fenditure, indipendentemente da una osservazione concreta, non ha alcun senso. L’elettrone sembra manifestare un’effettiva esistenza solo quando l’osserviamo. La realtà viene creata, almeno in parte, dall’osservatore.

Nel 1978 John A. Wheeler propose una geniale versione mentale dell'esperimento, della doppia fenditura denominata l’esperimento della scelta ritardata partendo dagli esperimenti che mostrano che, quando si colloca un rilevatore sulle fenditure e si analizza da quale fenditura passa il fotone, la figura d’interferenza scompare.
Nell’esperimento della scelta ritardata il rilevatore viene collocato in un punto intermedio tra le due fenditure e il rilevatore finale, in modo da osservare quale traiettoria viene assunta da ogni singolo fotone dopo il passaggio tra le due fenditure, ma prima di giungere al rilevatore finale. La teoria quantistica dice che se si spegne il rilevatore intermedio e non si analizzano le traiettorie dei fotoni, questi formeranno una figura d’interferenza. Se però si osservano i fotoni per determinare da che fenditura sono passati, anche se l’osservazione è compiuta dopo che l’hanno attraversata, non ci sarà figura d’interferenza. La “scelta ritardata” entra in gioco appunto perché è possibile decidere se analizzare il fotone (decisione effettuata casualmente da un computer) dopo che il fotone è passato attraverso la/le fenditura/e. La decisione, secondo la teoria quantistica, sembra influenzare il modo in cui il fotone si comporta nel momento in cui passa per la/le fenditura/e, ovvero una frazione infinitesimale di tempo prima dell’osservazione.
Nelle parole di Wheeler: "Così si decide se il fotone è venuto da una rotta o da entrambe le rotte dopo che ha già fatto il suo viaggio".
L'enorme importanza concettuale dell'esperimento di Wheeler ha stimolato una serie di esperimenti per realizzarlo, il più conclusivo dei quali è stato realizzato dal gruppo di Ottica Quantistica del CNRS guidato da Alain Aspect con tecniche interferometriche utilizzando laser a singoli fotoni.




Il risultato è contro ogni sensocomune classico anche nella dualità onda/particella, il comportamenti rivelato dipende non solo dalla configurazione dello schermo ma anche da quella effettuata dopo che la particella ha passato lo schermo, con un effetto di connessione retrocausale, che opera a ritroso nel tempo.
Nelle parole di Wheeler:abbiamo una strana inversione del normale ordine di tempo. Noi, ora, spostando lo specchio in o out otteniamo un effetto inevitabile su ciò che abbiamo il diritto di dire la storia già passata di quel fotone

Tra le varie teorie proposte per cercare di spiegare questo comportamento la più affascinante è la MWI (Many Worlds Interpretation) proposta da Everett agli inizi degli anni ‘50 e sostenuta da Wheeler.
Tale teoria consiste nell’idea che ogni qualvolta il mondo deve affrontare una scelta a livello quantistico (ad esempio, se un elettrone può scegliere in quale fenditura passare nel noto esperimento della doppia fenditura), l’universo si divide in due (ovvero in tante parti quante sono le scelte possibili), di modo che vengano realizzate tutte le possibili opzioni (nell’esperimento di cui sopra, in un mondo l’elettrone passa attraverso la fenditura A, nell’altro attraverso la fenditura B).


mercoledì 1 settembre 2010

il non-tempo del Tao

metaTao: il Tao del Tao

M.C. Escher, Eye, 1946
Nel linguaggio comune è consueta la situazione in cui un termine descrittivo/applicativo (detto termine soggetto) viene applicato ad un altro termine (oggetto) entro il suo ambito di definizione/applicazione per formare un predicato.
Ad esempio il termine soggetto "produzione" può essere applicato al termine oggetto "mele" ottenendo il termine "produzione di mele", un predicato ben-formato e con significato.
Un caso particolare è quando il termine soggetto e oggetto coincidono, ovvero quando il termine soggetto viene applicato a se stesso.
Nell'esempio otteniamo "produzione di produzioni", un termine che ha ancora significato e potrebbe riferirsi allo studio generale delle tecniche di produzione.
Quando un termine soggetto viene applicato a se stesso è d'uso indicarlo con il prefisso meta (dal greco: μετά = "dopo", "oltre", "con", "adiacente", "auto"): metatermine.
Nell'esempio fatto una produzione di produzioni è detta metaproduzione.
Non tutti i termini con il prefisso meta hanno naturalmente questo significato; ad esempio una metafora non è esattamente una "fora di fore" ma un tropo; la metafisica non è propriamente la fisica applicata alla fisica.
Nelle metadescrizioni è fondamentale distinguere tra i due livelli di discorso, quello a livello degli elementi oggetto e quello relativo ai metaelementi che li descrivono. Nasce qui un'ulteriore distinzione tra livelli, quella logica oltre a quella gerarchica.
I livelli logici possono essere organizzati gerarchicamente, mentre i livelli gerarchici possono essere anche livelli di salto logico diverso.
La distinzione fondamentale tra livelli gerarchici e logici è che le classi che rappresentano i primi sono autocontenute una nell'altra ma sempre sullo stesso piano logico: ogni classe è un'estensione della precedente ma sempre allo stesso livello logico, come la biologia contiene la chimica, la chimica la fisica etc mentre le classi corrispondenti ai livelli logici non sono sullo stesso piano, tra di loro c'è un salto logico e non solo un'estensione di nuovi elementi: una metaclasse non è semplicemente un'estensione delle classi che la compongono ma una classe con caratteristiche e proprietà logiche/funzionali completamente nuove e diverse dalle classi che la compongono.
In figura abbiamo una classe C2 con elementi C1, mappata su una meta-classe C4 che contiene come elementi delle classi C3, di cui C2 è un elemento; questa viene mappata ulteriormente su una meta-meta-classe superiore etc. Ad ogni classe corrisponde un livello logico 1, 2 etc
Alcuni esempi di metatermini sono i metadati, dati che organizzano dati, le metateorie, una teoria su un'altra teoria, anche su se stessa quale la metamatematica, dove si possono definire dei metateoremi - ad esempio sulla teoria della dimostrazione dei teoremi in matematica, o la metalogica, una metateoria logica che studia la logica, in particolare la logica matematica.
Un ambito di descrizione dove la distinzione tra livelli logici è essenziale è nel campo della linguistica, lo studio dei linguaggi naturali (Italiano, Inglese et.) e artificiali, ovvero i linguaggi di programmazione (C, LISP, HTML etc.). Infatti se un libro sul C è scritto in inglese non c'è possibilità di confusione tra il linguaggio naturale narrante soggetto (inglese) e il linguaggio oggetto descritto (C), ma quando un libro in inglese parla dell'inglese, ad esempio un libro di linguistica inglese, si p0ssono presentate diversi problemi di confusione tra quando un termine inglese è utilizzato come metatermine del metalinguaggio soggetto e quando invece è un termine del linguaggio oggetto della descrizione. In questo caso l'uso dei metatermini tra linguaggio e metalinguaggio e la distinzione tra livelli logici di discorso è essenziale.
Nella teoria sistemica un sistema è composto comunemente da elementi, ma più in generale può contenere altri sistemi, e in questo caso è un metasistema, così come un processo di sistema può essere composto da altri processi, e in questo caso è un metaprocesso. La distinzione tra i livelli logici in cui opera la descrizione di sistema/processo è essenziale per non generare confusioni o paradossi.

martedì 31 agosto 2010

falso Tao

René Magritte, Falso specchio, 1928

lunedì 30 agosto 2010

Tao livello 0: relatività del Tao e Tao relativo

Nel 1905, in quello che si può definire con le stesse parole che lo stesso Einstein utilizzò per i Principia di Newton come il "singolo maggior contributo prodotto da un singolo individuo nella storia della fisica", Einstein introduceva un nuovo e rivoluzionario paradigma ponendo le basi della Relatività Ristretta.



ON THE ELECTRODYNAMICS OF MOVING BODIES

By A. EINSTEIN

June 30, 1905

It is known that Maxwell’s electrodynamics—as usually understood at the
present time—when applied to moving bodies, leads to asymmetries which do
not appear to be inherent in the phenomena. Take, for example, the reciprocal
electrodynamic action of a magnet and a conductor. The observable phenomenon
here depends only on the relative motion of the conductor and the
magnet, whereas the customary view draws a sharp distinction between the two
cases in which either the one or the other of these bodies is in motion. For if the
magnet is in motion and the conductor at rest, there arises in the neighbourhood
of the magnet an electric field with a certain definite energy, producing
a current at the places where parts of the conductor are situated. But if the
magnet is stationary and the conductor in motion, no electric field arises in the
neighbourhood of the magnet. In the conductor, however, we find an electromotive
force, to which in itself there is no corresponding energy, but which gives
rise—assuming equality of relative motion in the two cases discussed—to electric
currents of the same path and intensity as those produced by the electric
forces in the former case.


Einstein iniziava dalla considerazione che mentre per la meccanica classica newtoniana le trasformazioni che legano spazio e tempo tra due sistemi di riferimento inerziali, ovvero che hanno tra loro una velocità relativa costante, senza accelerazioni, erano le trasformazioni di Galileo, dove il tempo e lo spazio sono assoluti. In altri termini le leggi della meccanica newtoniana sono invarianti rispetto alle trasformazioni di Galileo, ovvero co-variano con esse, mentre questo non è il caso con le leggi dell'elettromagnetismo classico.
Einstein dimostrò che per l'elettromagnetismo le trasformazioni corrette, ovvero che rendono invarianti le equazioni di Maxwell, sono le trasformazioni di Lorentz che, a differenza di quelle di Galileo, non hanno tempo e spazio assoluti ma relativi: entrambi dipendono dal rapporto tra la velocità relativa tra i due sistemi di riferimento in rapporto a quella della luce.
Quando le trasformazioni di Lorentz vengono applicate alla meccanica newtoniana creando la meccanica relativistica, avvengono una serie di fenomeni contrari al sensocomune, il quale è basato sull'esperienza di oggetti grandi (rispetto al nucleo atomico) e lenti (rispetto alla velocità della luce) tipico della fisica classica, quali la contrazione delle lunghezze e la dilatazione dei tempi misurati tra due sistemi di riferimento che viaggino tra loro a velocità relative prossime a quella della luce.
Un tipico apparente paradosso dovuto alla relatività del tempo è il paradosso dei gemelli, un tipico esperimento concettuale o mentale (Gedankenexperiment), ovvero un esperimento che si ritiene impossibile effettuare sperimentalmente, o per la sua struttura intrinseca o per tecnologie insufficienti, ma il cui risultato, anche solo concettuale, è significativo: di due gemelli sulla terra uno parte con un'astronave e arriva a velocità prossime a quella della luce. Quando ritorna sulla terra trova che il gemello è invecchiato, o relativamente lui è ringiovanito. Questa è una conseguenza diretta della relatività ristetta ampiamente confermata sperimentalmente. Il paradosso consisterebbe che anche il gemello sull'astronave potrebbe affermare che è l'altro gemello ad essere andato via con la terra alla velocità della luce, per cui al ritorno entrambi dovrebbero essere ringiovaniti. Il paradosso è solo apparente e presuppone che la situazione dei due gemelli sia simmetrica mentre non è: solo il gemello sulla terra è sempre rimasto in un sistema inerziale, mentre quello sull'astronave in almeno due momenti, all'accelerazione e alla decelerazione, è stato in un sistema non-inerziale.
L'estensione della relatività ristretta a sistemi non-inerziali e all'ultima parte della fisica classica ancora non integrata relativisticamente, la teoria della gravità, è stata effettuata da Einstein nel 1916 come teoria della Relatività Generale, fondamentale per ogni modello cosmologico dell'Universo.
Per velocità che diventano piccole rispetto a quelle della luce le trasformazioni di Lorentz si riducono a quelle di Galileo, e la meccanica relativistica si riduce a quella newtoniana; in questo caso la teoria della relatività ristretta è da considerarsi come un'estensione della fisica classica.

http://www.ias.edu/

Tao pura-mente acustico

mercoledì 25 agosto 2010

Tao livello 0: l'Osservatore del Tao e il Tao che Osserva

Nella definizione di sistema è centrale il ruolo svolto dal soggetto Osservatore.

E' l'osservatore infatti che stabilisce quali e quanti siano gli elementi del sistema, quali relazioni/processi osservare e definisce il confine del sistema. Inoltre per conoscere e definire il sistema - misurarlo a livello 0 - l'osservatore deve interagire con esso, e quindi necessariamente modificarlo, per cui il sistema conosciuto non è più quello originale ma solo quello rilevato dall'osservatore. Inoltre lo stesso sistema osservato può interagire con l'osservatore. Si deve quindi considerare un sistema totale più ampio a livello superiore composto da osservatore-sistema osservato.

Questa considerazione apparentemente lapallisiana non è così scontata dato che ad oggi persiste il mito che la realtà oggetto della descrizione scientifica, ed in particolare delle "scienze dure" quali la fisica - descritte nel linguaggio formale della matematica - sia "oggettiva", ovvero non dipenda dal soggetto osservante. In questo mito l'osservatore non modifica mai il sistema osservato osservandolo, e può quindi conoscere sempre la realtà fisica "originale".
Questa grossolana confusione di uno dei fondamenti del metodo scientifico galileiano

ovvero che il risultato di un esperimento per essere considerato valido deve essere indipendente e concorde tra tutti i soggetti che lo effettuano, è il risultato della seicentesca separazione cartesiana tra res extensa e res cogitans, mente e corpo, soggetto e oggetto al livello 0 fisico.

"Nessuna quantità di esperimenti potrà dimostrare che ho ragione; un unico esperimento potrà dimostrare che ho sbagliato."

Albert Einstein, lettera a Max Born del 4 dicembre 1926

Il mito dell'oggettività, almeno a livello 0, è inoltre conseguenza dell'enorme successo fino al 1900 della fisica classica newtoniana (meccanica classica e gravitazione) e waxwelliana (elettromagnetismo classico) nello spiegare praticamente tutti i fenomeni fisici osservati, dal moto dei pianeti alla propagazione della luce. Ancora oggi la quasi totalità delle tecnologie sviluppate nell'800 e 900, dalla meccanica all'elettronica, hanno come fondamento diretto queste due teorie classiche, che sono alla base della nostra esperienza "soggettiva" della realtà del livello 0 fisico.


Nella fisica classica l'osservatore non esiste, o meglio non ha alcuna influenza, se non per il fatto che tutte le leggi/equazioni sono definite in un dato sistema di riferimento, specificando la posizione e il tempo di riferimento da cui si osserva. Tutte le leggi della fisica classica sono invarianti per qualunque sistema di riferimento nello spazio e nel tempo, ovvero sono valide per qualsiasi osservatore in qualsiasi luogo e in ogni tempo. Lo spazio e il tempo sono quindi ritenuti assoluti.
Il paradigma concettuale della fisica classica è stato radicalmente rivoluzionato dall'inizio del 900 quando si sono esaminati teoricamente e sperimentalmente "luoghi" della fisica non ancora precedentemente studiati, in particolare quelli delle alte velocità/energie (paragonabili a quella della luce) e delle picodimensioni, quale l'interno del nucleo atomico e dei suoi costituenti.
Nelle due teorie sviluppate durante il 900 per questi ambiti di fenomeni, la teoria della Relatività Ristretta e la Meccanica Quantistica, il ruolo dell'osservatore è centrale e smentisce ogni possibilità di credenze come "realtà oggettiva" e di sensocomune già a livello 0.

Nella figura vengono riportati gli ambiti di applicazione per le varie teorie. Orizzontalmente è riportata la dimensione degli oggetti d, in verticale la loro velocità v. Come limite superiore di velocità è riportata la velocità della luce c e come limite superiore di dimensione al di sotto del quale intervengono i fenomeni quantistici è riportata la lunghezza (diametro) di un nucleo atomico Lp. Per dimensioni superiori a Lp e velocità inferiori ad approssimamente la metà di quella della luce c/2, ovvero nel mondo della nostra esperienza, vale la fisica classica CF; per dimensioni inferiori a Lp e velocità inferiori a c/2 vale la fisica quantistica QF; per dimensioni maggiopri di Lp e velocità superiori a c/2 vale la fisica relativistica RF; infine per dimensioni minori di Lp e velocità superiori a c/2 valgono entrambe le teorie quantistica e relativistica, ovvero la fisica quanto-relativistica Q-R F.
L'integrazione tra Meccanica Quantistica e Teoria della Reletività è stata iniziata dal lavoro di Paul Dirac nel 1928 e proseguita con lo sviluppo delle Teorie Quantistiche dei Campi.

Alcuni esperimenti rilevanti che dimostrano il ruolo centrale e particolare dell'Osservatore fuori dalla fisica classica del sensocomune dell'esperienza quotidiana sono:

Syntropy

per una introduzione ai temi del livello 0:

"Meccanica Quantistica (MQ)" - Antonella Vannini e Ulisse Di Corpo