Fisica atomica e principio di
causalità
Il concetto di causalità
Storicamente, luso del concetto di causalità per la legge di causa ed effetto è
relativamente recente. Nella filosofia antica la parola "causa" aveva un
significato assai più generale di quanto non abbia oggi. Per esempio gli scolastici,
ricollegandosi ad Aristotele, parlavano di
quattro forme di "causa": la causa formalis, che oggi si
designerebbe piuttosto come la struttura o il contenuto ideale di una cosa; la
causa materialis, vale a dire la materia di cui la cosa consiste; la
causa finalis, il fine per il quale la cosa è creata, ed infine la causa
efficiens. Soltanto quest'ultima corrisponde press'a poco a quello che noi oggi
intendiamo con la parola causa.
L'evoluzione del concetto di "causa"; si è compiuta, nel corso dei secoli, in
intima connessione con il mutamento di tutta la realtà colta dalla mente umana e con il
sorgere della scienza della natura all'inizio dell'età moderna. Man mano che il processo
materiale acquistava sempre maggiore realtà, anche la parola causa veniva riferendosi a
quell'evento materiale che precedeva l'evento da spiegare e che lo aveva in qualche modo
prodotto. Perciò anche in Kant, il quale in molti punti non fa che trarre le conseguenze
filosofiche dallo sviluppo delle scienze da Newton in poi, la parola
"causalità" viene già usata nel senso in cui ci ha abituato il XIX secolo:
"Quando apprendiamo che qualcosa accade, noi presupponiamo sempre qualcos'altro da
cui quell'accadimento consegua secondo una regola". Così, a poco a poco, il
principio di causalità si restrinse sempre più, fino a divenire equivalente all'idea che
l'accadimento naturale sia determinato univocamente, che, cioè, l'esatta conoscenza della
natura o, per lo meno, di un suo ben definito settore, sia sufficiente, almeno
teoricamente, per predire il futuro. La fisica newtoniana era appunto costruita in modo
che, conoscendo lo stato di un sistema ad un certo tempo, si poteva calcolare in
precedenza il movimento futuro del sistema stesso. La concezione che in natura le cose
stiano fondamentalmente proprio così, fu formulata forse nel modo più generale e
comprensibile da Laplace attraverso la finzione di un demone che, a un dato momento,
conoscesse la posizione e il moto di tutti gli atomi e che quindi dovesse essere in grado
di precalcolare l'intero futuro dell'universo. Se la parola "causalità" si
interpreta in modo così stretto, si parla anche di "determinismo" e si intende
dire che esistono leggi fisse di natura le quali, partendo dallo stato attuale di un
sistema, determinano univocamente il suo stato futuro.
Le leggi statistiche
Fin dai suoi inizi la fisica atomica ha sviluppato certe idee che non
rientrano propriamente in questa immagine. Esse non la contraddicono in linea di
principio, ma l'indirizzo di pensiero della teoria atomica dovette distinguersi subito dal
determinismo. Già nell'antico atomismo di Democrito e Leucippo si assume che i processi
in grande hanno luogo perché molti processi irregolari avvengono in piccolo. Che le cose
possano stare sostanzialmente in questi termini è provato da innumerevoli esempi della
vita quotidiana. Per l'agricoltore, ad esempio, è sufficiente stabilire che una nube
precipita e irriga il terreno, e nessuno ha bisogno di sapere nei particolari come siano
cadute le gocce d'acqua. Oppure, per fare un altro esempio: noi sappiamo con esattezza che
cosa intendiamo con la parola granito, anche se non ci sono esattamente note la forma e la
composizione chimica di ogni singolo cristallo, il loro rapporto di mescolanza ed il loro
colore. Noi quindi usiamo sempre concetti che si riferiscono al comportamento in grande,
senza interessarci dei singoli processi in piccolo.
Questo concetto dell'azione statistica associata di molti piccoli eventi singoli ha già
costituito, nell'antico atomismo, la base per la spiegazione dell'universo ed è stato
generalizzato nell'idea che tutte le qualità sensibili delle materie siano prodotte
indirettamente dalla posizione e dal moto degli atomi. Già in Democrito si trova enunciato il principio: "Solo
in apparenza una cosa è dolce o amara, solo in apparenza ha un colore; in realtà
esistono solo gli atomi e lo spazio vuoto" Se in tal modo i fenomeni percepibili
con i sensi si spiegano mediante l'azione associata di moltissimi procedimenti singoli in
piccolo, ne segue quasi necessariamente che si considerino anche le leggi della natura
solo come leggi statistiche. Certo anche le leggi statistiche possono portare a
proposizioni il cui grado di probabilità è talmente alto da confinare con la sicurezza.
Ma teoricamente possono sempre sussistere eccezioni. Il concetto di legge statistica è
considerato spesso contraddittorio. Si dice, per esempio, che ci si può sì immaginare
che i processi naturali siano determinati da leggi, oppure che si svolgano senza alcun
ordine, ma che col termine di legge statistica non si riesce a immaginare assolutamente
niente. Come risposta bisognerà ricordare che noi, nella vita quotidiana, abbiamo a che
fare ad ogni passo con leggi statistiche, che poniamo a base della nostra azione pratica.
Quando, ad esempio, un tecnico costruisce una centrale idroelettrica, calcola una
quantità di pioggia media annuale, quantunque non possa avere alcuna idea di quando e
quanto pioverà.
Le leggi statistiche significano in generale che il sistema fisico in questione è solo
incompletamente conosciuto. L'esempio più noto è il gioco dei dadi. Dato che nessuna
faccia del dado è privilegiata rispetto alle altre e che noi non possiamo quindi predire
in alcun modo su quale faccia esso cadrà, si può assumere che per un sesto di un
grandissimo numero di giocate esca, per esempio, il cinque.
Con l'avvento dell'età moderna, si è ben presto cercato di spiegare, non solo
qualitativamente, ma anche quantitativamente, il comportamento delle sostanze attraverso
il comportamento statistico dei loro atomi. Già Robert
Boyle ha mostrato che le relazioni tra pressione e volume in un gas possono
comprendersi intendendo la pressione come risultato dei molti urti dei singoli atomi
contro la parete del recipiente. Analogamente si sono spiegati i fenomeni termodinamici
assumendo che gli atomi si muovano più celermente in un corpo caldo che in uno freddo. Si
è riusciti a dare a questa proposizione una forma matematica quantitativa, rendendo cosi
comprensibili le leggi della termologia.
Questo uso della legge statistica ha ottenuto la sua forma definitiva nella seconda metà
del secolo scorso, mediante la cosiddetta meccanica statistica. In questa teoria, che nei
suoi principi prende le mosse semplicemente dalla meccanica newtoniana, si sono studiate
le conseguenze risultanti da una conoscenza incompleta di un sistema meccanico complesso.
Non si abbandonò quindi, teoricamente, il determinismo puro e si immaginò che, nei suoi
particolari, l'evento fosse completamente determinato secondo la meccanica newtoniana; ma
si aggiunse l'idea che le proprietà meccaniche del sistema non fossero conosciute del
tutto. Gibbs e Boltzmann riuscirono a sistemare adeguatamente in
formule matematiche il tipo di conoscenza incompleta. In particolare, Gibbs introdusse,
per la prima volta, un concetto fisico (la temperatura) che può venir applicato ad un
oggetto naturale solo quando la nostra conoscenza dell'oggetto sia incompleta. Se, ad
esempio, ci fossero noti il moto e la posizione di tutte le molecole di un gas, non
avrebbe più senso parlare della temperatura del gas. Il concetto di temperatura può
applicarsi solo quando il sistema sia conosciuto incompletamente e da questa incompleta
conoscenza si vogliano trarre conclusioni statistiche.
Carattere statistico della teoria dei quanti
Quantunque, dopo le scoperte di Gibbs e di Boltzmann, si sia introdotta in tal modo
nella formulazione delle leggi fisiche la conoscenza incompleta di un sistema, non si è
tuttavia rinunciato teoricamente al determinismo fino alla celebre scoperta di Max Planck,
con cui ha avuto inizio la teoria dei quanti.
In un primo tempo Planck aveva trovato, nel suo
lavoro intorno alla teoria delle radiazioni, soltanto un elemento di discontinuità nei
fenomeni di radiazione. Egli aveva dimostrato che un atomo radiante non perde la sua
energia in modo continuo, ma discontinuamente, a scatti. Questa perdita di energia
discontinua e a scatti porta anch'essa, come tutte le idee della teoria atomica,
all'ipotesi che l'emissione di radiazioni sia un fenomeno statistico. Ma soltanto nel
corso di venticinque anni, è risultato che effettivamente la teoria dei quanti costringe
addirittura a formulare le leggi proprio come leggi statistiche e ad abbandonare, anche
teoricamente, il determinismo.
La teoria di Planck, dopo i lavori di Einstein, Bohr e Sommerfeld, si è rivelata come la chiave
mediante cui è possibile aprire la porta d'accesso all'intero campo della fisica atomica.
Grazie al modello atomico di Rutherford-Bohr si sono potuti spiegare i processi chimici e, da
quel momento, chimica, fisica e astrofisica si sono fuse insieme. Nella formulazione
matematica delle leggi della teoria quantistica ci si è però visti costretti ad
abbandonare il determinismo puro.
La divergenza dalla fisica precedente si rileva nelle cosiddette "relazioni di
indeterminazione". Si è constatato che non è possibile indicare simultaneamente,
con un grado qualunque di esattezza, la posizione e la velocità di una particella
elementare. Si può misurare con grande esattezza la posizione, ma allora, per
l'intervento dello strumento di misurazione, dilegua, fino ad un certo grado, la
conoscenza della velocità; oppure, inversamente, dilegua la conoscenza della posizione,
attraverso una esatta misurazione della velocità, di modo che, con la costante di Planck,
viene dato un limite inferiore al prodotto delle due inesattezze. Questa formulazione
rende chiaro, ad ogni modo, che con i concetti della meccanica newtoniana non si può
andare molto lontano; per calcolare infatti un processo meccanico, bisogna appunto
conoscere contemporaneamente posizione e velocità in un certo momento; ma proprio questo,
secondo la teoria dei quanti, è impossibile.
Un'altra formulazione è stata coniata da Niels Bohr, che ha introdotto il concetto della complementarità.
Egli intende con questo che diverse immagini intuitive, con cui noi descriviamo sistemi
atomici, sono sì adatte per certi esperimenti, ma si escludono reciprocamente. Così, per
esempio, si può descrivere l'atomo di Bohr come un sistema planetario in piccolo: al
centro un nucleo atomico e all'esterno gli elettroni ruotanti attorno a questo nucleo. Per
altri esperimenti, invece, può essere più opportuno immaginare che il nucleo atomico sia
circondato da un sistema di onde permanenti, dove la radiazione emessa dall'atomo dipende
dalla frequenza delle onde. Infine si può anche considerare l'atomo come oggetto della
chimica, si può calcolare il suo calore di reazione nel combinarsi con altri atomi: ma
allora non si può dir nulla, contemporaneamente, intorno al moto degli elettroni. Questi
diversi modelli sono quindi giusti quando li si utilizzi al posto giusto, ma si
contraddicono fra loro e si chiamano, perciò, reciprocamente complementari.
Lindeterminazione da cui ognuna di queste immagini è affetta e che viene espressa
mediante la relazione di indeterminazione, basta appunto ad evitare contraddizioni logiche
fra le diverse immagini. Da questi accenni risulta comprensibile, anche senza inoltrarsi
nel formalismo matematico della teoria dei quanti, che la conoscenza incompleta di un
sistema deve essere una componente essenziale di ogni formulazione della teoria
quantistica. Le leggi quantistiche devono essere di tipo statistico.
Esempio: si sa che un atomo di radium può emettere raggi alfa. La teoria
dei quanti può dire con quale probabilità per unità di tempo la particella alfa
abbandona il nucleo, ma non può predire l'istante esatto: esso è, per principio,
indeterminato. Non si può nemmeno ritenere che in futuro si trovino nuove leggi che ci
permettano di determinare l'istante esatto; ché, se ciò fosse possibile, non si
capirebbe come mai la particella alfa possa anche venir considerata come un'onda che si
propaga dal nucleo atomico; la si può infatti dimostrare sperimentalmente anche come
tale. I diversi esperimenti che dimostrano sia la natura ondulatoria, sia quella
corpuscolare della materia atomica, ci costringono, con i loro paradossi, a formulare
delle leggi statistiche. Nei processi in campo macroscopico questo elemento statistico
della fisica atomica non ha in generale importanza, perché nel processo macroscopico
deriva dalle leggi statistiche una probabilità così elevata, da permetterci di dire che
il processo è, praticamente, determinato. Tuttavia s'incontrano spesso casi in cui
l'evento in campo macroscopico dipende dal comportamento di uno o di pochi atomi; in tal
caso anche il processo in grande può essere predetto solo statisticamente.
Esempio: la bomba atomica. In una bomba normale si può precalcolare, sulla
base del peso e della composizione chimica della sostanza esplosiva, la forza
dell'esplosione. Nella bomba atomica invece si può indicare un limite superiore ed uno
inferiore della forza d'esplosione, ma il precalcolarla esattamente, è, per principio,
impossibile, poiché essa dipende dal comportamento di pochi atomi nel processo di
accensione. Analogamente, anche in biologia, vi sono processi nei quali gli sviluppi
macroscopici sono governati da processi che avvengono in singoli atomi; ciò sembra
avverarsi in particolare nei mutamenti genici del processo ereditario. Questi due esempi
illustrano le conseguenze pratiche del carattere statistico della teoria dei quanti.