Teoria

Presupposti Teorici della Noetica

Presupposti teorici della noetica

Presupposti Teorici della Noetica

Al di là dei fenomeni visibili

Per capire i presupposti teorici della Scienza Noetica è necessario fare riferimento ai principi della fisica quantistica.
La fisica quantistica corrisponde al ramo della fisica che studia il mondo subatomico, costituito dalle particelle elementari, quali fotoni, protoni, elettroni, e tutto ciò che è infinitamente piccolo.

Nella prima metà del XX secolo, un gruppo di fisici scoprì che nel mondo delle particelle subatomiche accadevano fenomeni paradossali che non potevano essere spiegati con le leggi della meccanica classica.

Per lungo tempo la fisica classica ha confinato questi fenomeni nella sfera di tutto ciò che è estremamente piccolo e che obbedisce a leggi differenti da quelle che governano il mondo della materia grande e visibile. La scienza del mondo piccolo e la scienza del mondo grande apparivano quindi inconciliabili.

La fisica classica affonda le sue radici nelle leggi newtoniane del moto e della gravità, che descrivevano un universo uniforme, costituito da regioni spazio-temporali in cui i corpi si muovono obbedendo tutti alle medesime leggi fisiche. La fisica di Newton propone la visione di un mondo in cui lo spazio e il tempo sono entità assolute e immobili e la materia è stabile, autonoma e circoscritta da precisi confini; un cambiamento nella materia accade solo in concomitanza di un evento fisico, come una forza o un urto.

Newton fu considerato come lo scienziato capace di spiegare la natura secondo principi razionali, abbandonando qualsiasi spiegazione occulta.

La scienza newtoniana si appoggiava alla concezione meccanicistica della realtà proposta da Cartesio, che stabiliva una profonda divisione tra soggetto e oggetto; la res cogitans (pensiero) era considerata separata e indipendente dalla res extensa (materia).

L’indagine del reale è compiuta attraverso il metodo sperimentale: tralasciando il ruolo del soggetto che conduce l’esperimento viene sancito il primato della materia, considerata l’esclusivo oggetto di indagine.

Il modello meccanicistico conferisce alla materia un’esistenza oggettiva e osservabile, che sussiste indipendentemente dal soggetto. La natura, inoltre, obbedisce a leggi deterministiche, per le quali ad una determinata causa corrisponde sempre un determinato effetto.

Nel XX secolo la teoria della relatività di Einstein rivelò l’inadeguatezza dei concetti newtoniani di spazio e tempo assoluti, che furono sostituiti dall’idea di un unico tessuto spazio-temporale, in cui lo spazio ed il tempo si influenzano reciprocamente. Le teorie rivoluzionarie di Einstein scossero fortemente il modello meccanicistico, che fu completamente smantellato dalle successive scoperte della meccanica quantistica.

I presupposti su cui si fonda la scienza noetica derivano dalle due teorie che hanno demolito il paradigma meccanicistico, guadagnandosi un ruolo da protagonista nella scienza del pensiero fisico moderno. Queste sono la teoria dei quanti e la teoria della relatività, sviluppate nei primi trent’anni del Novecento; la prima si occupa dello studio delle unità elementari costituenti la materia e l’energia e la seconda unifica i concetti di spazio, tempo e struttura dell’Universo. Entrambe si oppongono al concetto di un’esistenza oggettiva della realtà, introducendo la rivoluzionaria idea che la conoscenza del mondo, dell’oggetto, sia imprescindibile dal soggetto osservante.

Presupposti teorici della Noetica:
la materia è energia e la realtà è un evento probabile

La teoria della relatività di Einstein scardina il principio newtoniano secondo il quale un corpo libero allo stato di riposo è privo di energia. Einstein sostiene invece che i corpi, anche a riposo, possiedono dell’energia. La sua popolare equazione E=mc² costituisce un importante punto di svolta nella storia della fisica, poiché in essa viene sancita l’equivalenza tra massa ed energia: la massa è tutt’ora considerata come una forma di energia.

Nel 1905, nel tentativo di completare la teoria dei quanti introdotta da Planck cinque anni prima, Einstein formulò una legge in grado di fornire una spiegazione efficace per l’effetto fotoelettrico, che si realizza quando una luce cade su una lastra di metallo provocando da parte di quest’ultima l’emissione di uno sciame di elettroni. Einstein spiegò il fenomeno, che fino ad allora costituiva un’incognita per la fisica classica, ipotizzando che la luce non consistesse in un flusso continuo di energia, bensì fosse composta da singole particelle di energia a cui diede il nome di fotoni.

Nei primi trent’anni del Novecento, due fisici di nome Heisenberg e Bohr, alle prese con lo studio dei quanti, svilupparono un sistema che condizionò fortemente il progresso scientifico, affermando che nel mondo subatomico governavano le leggi della probabilità e della casualità; le idee dei due fisici nate attorno alla natura probabilistica delle microparticelle divennero note come “Interpretazione di Copenaghen”.

La fisica quantistica studia i fenomeni del microcosmo partendo dal presupposto che una realtà obiettiva e definita a priori non esista.

E’ possibile studiare le particelle subatomiche solo osservando il loro comportamento in massa con altre particelle dello stesso tipo e non singolarmente, poiché le caratteristiche di una singola unità, come posizione e velocità, non potrebbero in alcun modo essere definite, dal momento che il loro verificarsi è assolutamente casuale.

Il principio di indeterminazione, formulato da Heisenberg nel 1927, prova che gli antichi paradigmi del determinismo e della causalità non sono più in grado di spiegare i fenomeni del mondo fisico. Esso dimostra l’impossibilità di determinare con esattezza e simultaneamente la posizione e la velocità di un elettrone, poiché nel momento stesso in cui la sua posizione viene osservata la velocità cambia e quanto più si riesce a stabilire la sua velocità tanto più la sua posizione diviene indeterminata (*); in questo modo la logica della sequenza causa-effetto viene completamente soppiantata da un’idea di realtà descritta in termini di probabilità e statistica.

La materia dunque non possiede le caratteristiche di stabilità e solidità, dal momento che ogni particella subatomica esiste unicamente come possibilità di realizzarsi in una qualsiasi delle sue probabili esistenze.


(*) Seguendo l’esempio di Heisenberg (1927), ipotizziamo di voler osservare con un microscopio la traiettoria di un elettrone in movimento. Per vederlo sarebbe necessario l’intervento di un fotone, che, urtando con l’elettrone, modificherebbe la sua traiettoria originale. Riusciremmo ad osservare la sua posizione, perdendo però la traiettoria; se usassimo un fotone con bassa frequenza per non compromettere la traiettoria, la grande lunghezza d’onda del fotone renderebbe imperfette le immagini del microscopio, che riuscirebbe a stabilire, seppur approssimativamente, la traiettoria, ma non la posizione dell’elettrone.


Presupposti teorici della Noetica:
la teoria del tutto

Con la teoria delle stringhe, o teoria del tutto, la fisica quantistica ha ulteriormente avvalorato l’idea di una realtà priva di particelle stabili e definite; secondo questo modello, infatti, la struttura interna delle particelle non è statica, come in principio si credeva, bensì vibrante. Le stringhe sono descritte come minuscoli anelli di energia vibrante che, attraverso le loro differenti vibrazioni, conferiscono forma ad ogni cosa. Metaforicamente, questi filamenti di energia, vibrando come corde di violino, generano con le loro differenti “note” l’armoniosa sinfonia dell’intero universo; la frequenza della vibrazione crea e modifica la forma delle particelle che costituiscono la materia, conferendole la forma con cui essa appare ai nostri occhi.

La teoria delle stringhe propone una realtà indeterminata, che si caratterizza grazie ad un’incessante danza di energie in continua trasformazione.

Un aspetto sorprendente della fisica quantistica risiede nel fenomeno dell’entaglement, o della non-località. Bohr scoprì che quando due particelle subatomiche entrano in contatto, stabiliscono una relazione di influenza reciproca indipendentemente dalla distanza che le separa, diventando come un’unica particella. Una volta entrate in un rapporto di entaglement, le particelle continueranno a scambiarsi informazioni e le azioni dell’una eserciteranno un’istantanea influenza sulle azioni dell’altra, oltrepassando i confini di qualsiasi distanza che intercorra tra loro; ciò che accade a una particella condiziona quello che accade alla “particella gemella”.

Le implicazioni di questo principio sono di notevole entità: l’influenza non sembra in alcun modo limitata dallo spazio o dal tempo e le particelle non hanno un’esistenza indipendente, ma si trovano in uno stato di reciproca interconnessione.

In opposto alla visione dei fisici che, pur accettando il principio di non-località, lo considerano come fenomeno appartenente esclusivamente al mondo subatomico, Tom Rosenbaum, professore di fisica all’Università di Chicago, e la sua allieva Sayantani Ghosh, nel 2002 dimostrarono che anche gli atomi e le schegge di cristallo della grandezza di un’unghia possono essere influenzati non-localmente.

Il mondo descritto dalla fisica quantistica ci appare come un gioco di probabilità, in cui tutto è dominato dalla casualità e in cui le particelle elementari sono costituite da un’energia che viene continuamente ridistribuita, rendendole quindi inconoscibili.

Ciò che prima era considerato oggettivo, nella fisica quantistica diviene infinitamente variabile e intrinsecamente connesso a tutti gli esseri.

Le particelle subatomiche comunicano attraverso un continuo scambio di energia. Immaginando due di queste particelle che si scambiano energia come fossero palline da tennis, possiamo visualizzare la particella “virtuale” che si genera nel mezzo di questa trasmissione energetica e informativa. Queste particelle temporanee compaiono e scompaiono in frazioni di secondo, generando un traffico continuo composto da fluttuazioni casuali di energia; i loro movimenti sono noti come Campo del Punto Zero, così definito in virtù della loro persistenza anche alla temperatura dello zero assoluto, quando cioè la materia dovrebbe cessare ogni movimento.

Questi interminabili scambi generano un’energia piccolissima se considerati individualmente, ma se immaginati nella loro azione collettiva, formerebbero un immensa e infinita riserva energetica.

Nell’analisi di Lynn Mc Taggart (2008) è ipotizzato che i fenomeni paradossali che accadono nel mondo quantico potrebbero essere spiegati attraverso la costante relazione che le particelle subatomiche intrattengono con il Campo del Punto Zero; in particolare il principio di non-località troverebbe una sua spiegazione nel fatto che se tutta la materia si trova in costante interazione con il Campo del Punto Zero è ipotizzabile che essa sia tutta interconnessa e correlata grazie all’energia continuamente presente sullo sfondo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.