Fisica atomica e principio di causalità
 

Il concetto di causalità

Storicamente, l’uso del concetto di causalità per la legge di causa ed effetto è relativamente recente. Nella filosofia antica la parola "causa" aveva un significato assai più generale di quanto non abbia oggi. Per esempio gli scolastici, ricollegandosi ad Aristotele, parlavano di quattro forme di "causa": la causa formalis, che oggi si designerebbe piuttosto come la struttura o il contenuto ideale di una cosa; la causa materialis, vale a dire la materia di cui la cosa consiste; la causa finalis, il fine per il quale la cosa è creata, ed infine la causa efficiens. Soltanto quest'ultima corrisponde press'a poco a quello che noi oggi intendiamo con la parola causa.

L'evoluzione del concetto di "causa"; si è compiuta, nel corso dei secoli, in intima connessione con il mutamento di tutta la realtà colta dalla mente umana e con il sorgere della scienza della natura all'inizio dell'età moderna. Man mano che il processo materiale acquistava sempre maggiore realtà, anche la parola causa veniva riferendosi a quell'evento materiale che precedeva l'evento da spiegare e che lo aveva in qualche modo prodotto. Perciò anche in Kant, il quale in molti punti non fa che trarre le conseguenze filosofiche dallo sviluppo delle scienze da Newton in poi, la parola "causalità" viene già usata nel senso in cui ci ha abituato il XIX secolo: "Quando apprendiamo che qualcosa accade, noi presupponiamo sempre qualcos'altro da cui quell'accadimento consegua secondo una regola". Così, a poco a poco, il principio di causalità si restrinse sempre più, fino a divenire equivalente all'idea che l'accadimento naturale sia determinato univocamente, che, cioè, l'esatta conoscenza della natura o, per lo meno, di un suo ben definito settore, sia sufficiente, almeno teoricamente, per predire il futuro. La fisica newtoniana era appunto costruita in modo che, conoscendo lo stato di un sistema ad un certo tempo, si poteva calcolare in precedenza il movimento futuro del sistema stesso. La concezione che in natura le cose stiano fondamentalmente proprio così, fu formulata forse nel modo più generale e comprensibile da Laplace attraverso la finzione di un demone che, a un dato momento, conoscesse la posizione e il moto di tutti gli atomi e che quindi dovesse essere in grado di precalcolare l'intero futuro dell'universo. Se la parola "causalità" si interpreta in modo così stretto, si parla anche di "determinismo" e si intende dire che esistono leggi fisse di natura le quali, partendo dallo stato attuale di un sistema, determinano univocamente il suo stato futuro.

Le leggi statistiche

Fin dai suoi inizi la fisica atomica ha sviluppato certe idee che non rientrano propriamente in questa immagine. Esse non la contraddicono in linea di principio, ma l'indirizzo di pensiero della teoria atomica dovette distinguersi subito dal determinismo. Già nell'antico atomismo di Democrito e Leucippo si assume che i processi in grande hanno luogo perché molti processi irregolari avvengono in piccolo. Che le cose possano stare sostanzialmente in questi termini è provato da innumerevoli esempi della vita quotidiana. Per l'agricoltore, ad esempio, è sufficiente stabilire che una nube precipita e irriga il terreno, e nessuno ha bisogno di sapere nei particolari come siano cadute le gocce d'acqua. Oppure, per fare un altro esempio: noi sappiamo con esattezza che cosa intendiamo con la parola granito, anche se non ci sono esattamente note la forma e la composizione chimica di ogni singolo cristallo, il loro rapporto di mescolanza ed il loro colore. Noi quindi usiamo sempre concetti che si riferiscono al comportamento in grande, senza interessarci dei singoli processi in piccolo.

Questo concetto dell'azione statistica associata di molti piccoli eventi singoli ha già costituito, nell'antico atomismo, la base per la spiegazione dell'universo ed è stato generalizzato nell'idea che tutte le qualità sensibili delle materie siano prodotte indirettamente dalla posizione e dal moto degli atomi. Già in Democrito si trova enunciato il principio: "Solo in apparenza una cosa è dolce o amara, solo in apparenza ha un colore; in realtà esistono solo gli atomi e lo spazio vuoto" Se in tal modo i fenomeni percepibili con i sensi si spiegano mediante l'azione associata di moltissimi procedimenti singoli in piccolo, ne segue quasi necessariamente che si considerino anche le leggi della natura solo come leggi statistiche. Certo anche le leggi statistiche possono portare a proposizioni il cui grado di probabilità è talmente alto da confinare con la sicurezza. Ma teoricamente possono sempre sussistere eccezioni. Il concetto di legge statistica è considerato spesso contraddittorio. Si dice, per esempio, che ci si può sì immaginare che i processi naturali siano determinati da leggi, oppure che si svolgano senza alcun ordine, ma che col termine di legge statistica non si riesce a immaginare assolutamente niente. Come risposta bisognerà ricordare che noi, nella vita quotidiana, abbiamo a che fare ad ogni passo con leggi statistiche, che poniamo a base della nostra azione pratica. Quando, ad esempio, un tecnico costruisce una centrale idroelettrica, calcola una quantità di pioggia media annuale, quantunque non possa avere alcuna idea di quando e quanto pioverà.

Le leggi statistiche significano in generale che il sistema fisico in questione è solo incompletamente conosciuto. L'esempio più noto è il gioco dei dadi. Dato che nessuna faccia del dado è privilegiata rispetto alle altre e che noi non possiamo quindi predire in alcun modo su quale faccia esso cadrà, si può assumere che per un sesto di un grandissimo numero di giocate esca, per esempio, il cinque.

Con l'avvento dell'età moderna, si è ben presto cercato di spiegare, non solo qualitativamente, ma anche quantitativamente, il comportamento delle sostanze attraverso il comportamento statistico dei loro atomi. Già Robert Boyle ha mostrato che le relazioni tra pressione e volume in un gas possono comprendersi intendendo la pressione come risultato dei molti urti dei singoli atomi contro la parete del recipiente. Analogamente si sono spiegati i fenomeni termodinamici assumendo che gli atomi si muovano più celermente in un corpo caldo che in uno freddo. Si è riusciti a dare a questa proposizione una forma matematica quantitativa, rendendo cosi comprensibili le leggi della termologia.

Questo uso della legge statistica ha ottenuto la sua forma definitiva nella seconda metà del secolo scorso, mediante la cosiddetta meccanica statistica. In questa teoria, che nei suoi principi prende le mosse semplicemente dalla meccanica newtoniana, si sono studiate le conseguenze risultanti da una conoscenza incompleta di un sistema meccanico complesso. Non si abbandonò quindi, teoricamente, il determinismo puro e si immaginò che, nei suoi particolari, l'evento fosse completamente determinato secondo la meccanica newtoniana; ma si aggiunse l'idea che le proprietà meccaniche del sistema non fossero conosciute del tutto. Gibbs e Boltzmann riuscirono a sistemare adeguatamente in formule matematiche il tipo di conoscenza incompleta. In particolare, Gibbs introdusse, per la prima volta, un concetto fisico (la temperatura) che può venir applicato ad un oggetto naturale solo quando la nostra conoscenza dell'oggetto sia incompleta. Se, ad esempio, ci fossero noti il moto e la posizione di tutte le molecole di un gas, non avrebbe più senso parlare della temperatura del gas. Il concetto di temperatura può applicarsi solo quando il sistema sia conosciuto incompletamente e da questa incompleta conoscenza si vogliano trarre conclusioni statistiche.

Carattere statistico della teoria dei quanti

Quantunque, dopo le scoperte di Gibbs e di Boltzmann, si sia introdotta in tal modo nella formulazione delle leggi fisiche la conoscenza incompleta di un sistema, non si è tuttavia rinunciato teoricamente al determinismo fino alla celebre scoperta di Max Planck, con cui ha avuto inizio la teoria dei quanti.

In un primo tempo Planck aveva trovato, nel suo lavoro intorno alla teoria delle radiazioni, soltanto un elemento di discontinuità nei fenomeni di radiazione. Egli aveva dimostrato che un atomo radiante non perde la sua energia in modo continuo, ma discontinuamente, a scatti. Questa perdita di energia discontinua e a scatti porta anch'essa, come tutte le idee della teoria atomica, all'ipotesi che l'emissione di radiazioni sia un fenomeno statistico. Ma soltanto nel corso di venticinque anni, è risultato che effettivamente la teoria dei quanti costringe addirittura a formulare le leggi proprio come leggi statistiche e ad abbandonare, anche teoricamente, il determinismo.
La teoria di Planck, dopo i lavori di Einstein, Bohr e Sommerfeld, si è rivelata come la chiave mediante cui è possibile aprire la porta d'accesso all'intero campo della fisica atomica. Grazie al modello atomico di Rutherford-Bohr si sono potuti spiegare i processi chimici e, da quel momento, chimica, fisica e astrofisica si sono fuse insieme. Nella formulazione matematica delle leggi della teoria quantistica ci si è però visti costretti ad abbandonare il determinismo puro.

La divergenza dalla fisica precedente si rileva nelle cosiddette "relazioni di indeterminazione". Si è constatato che non è possibile indicare simultaneamente, con un grado qualunque di esattezza, la posizione e la velocità di una particella elementare. Si può misurare con grande esattezza la posizione, ma allora, per l'intervento dello strumento di misurazione, dilegua, fino ad un certo grado, la conoscenza della velocità; oppure, inversamente, dilegua la conoscenza della posizione, attraverso una esatta misurazione della velocità, di modo che, con la costante di Planck, viene dato un limite inferiore al prodotto delle due inesattezze. Questa formulazione rende chiaro, ad ogni modo, che con i concetti della meccanica newtoniana non si può andare molto lontano; per calcolare infatti un processo meccanico, bisogna appunto conoscere contemporaneamente posizione e velocità in un certo momento; ma proprio questo, secondo la teoria dei quanti, è impossibile.

Un'altra formulazione è stata coniata da Niels Bohr, che ha introdotto il concetto della complementarità. Egli intende con questo che diverse immagini intuitive, con cui noi descriviamo sistemi atomici, sono sì adatte per certi esperimenti, ma si escludono reciprocamente. Così, per esempio, si può descrivere l'atomo di Bohr come un sistema planetario in piccolo: al centro un nucleo atomico e all'esterno gli elettroni ruotanti attorno a questo nucleo. Per altri esperimenti, invece, può essere più opportuno immaginare che il nucleo atomico sia circondato da un sistema di onde permanenti, dove la radiazione emessa dall'atomo dipende dalla frequenza delle onde. Infine si può anche considerare l'atomo come oggetto della chimica, si può calcolare il suo calore di reazione nel combinarsi con altri atomi: ma allora non si può dir nulla, contemporaneamente, intorno al moto degli elettroni. Questi diversi modelli sono quindi giusti quando li si utilizzi al posto giusto, ma si contraddicono fra loro e si chiamano, perciò, reciprocamente complementari. L’indeterminazione da cui ognuna di queste immagini è affetta e che viene espressa mediante la relazione di indeterminazione, basta appunto ad evitare contraddizioni logiche fra le diverse immagini. Da questi accenni risulta comprensibile, anche senza inoltrarsi nel formalismo matematico della teoria dei quanti, che la conoscenza incompleta di un sistema deve essere una componente essenziale di ogni formulazione della teoria quantistica. Le leggi quantistiche devono essere di tipo statistico.

Esempio: si sa che un atomo di radium può emettere raggi alfa. La teoria dei quanti può dire con quale probabilità per unità di tempo la particella alfa abbandona il nucleo, ma non può predire l'istante esatto: esso è, per principio, indeterminato. Non si può nemmeno ritenere che in futuro si trovino nuove leggi che ci permettano di determinare l'istante esatto; ché, se ciò fosse possibile, non si capirebbe come mai la particella alfa possa anche venir considerata come un'onda che si propaga dal nucleo atomico; la si può infatti dimostrare sperimentalmente anche come tale. I diversi esperimenti che dimostrano sia la natura ondulatoria, sia quella corpuscolare della materia atomica, ci costringono, con i loro paradossi, a formulare delle leggi statistiche. Nei processi in campo macroscopico questo elemento statistico della fisica atomica non ha in generale importanza, perché nel processo macroscopico deriva dalle leggi statistiche una probabilità così elevata, da permetterci di dire che il processo è, praticamente, determinato. Tuttavia s'incontrano spesso casi in cui l'evento in campo macroscopico dipende dal comportamento di uno o di pochi atomi; in tal caso anche il processo in grande può essere predetto solo statisticamente.

Esempio: la bomba atomica. In una bomba normale si può precalcolare, sulla base del peso e della composizione chimica della sostanza esplosiva, la forza dell'esplosione. Nella bomba atomica invece si può indicare un limite superiore ed uno inferiore della forza d'esplosione, ma il precalcolarla esattamente, è, per principio, impossibile, poiché essa dipende dal comportamento di pochi atomi nel processo di accensione. Analogamente, anche in biologia, vi sono processi nei quali gli sviluppi macroscopici sono governati da processi che avvengono in singoli atomi; ciò sembra avverarsi in particolare nei mutamenti genici del processo ereditario. Questi due esempi illustrano le conseguenze pratiche del carattere statistico della teoria dei quanti.
 



Sommario