The International Research Area on Foundations of the Sciences

English Version

Newsletter
Chosen News from the World of Science

Show All [Per la visione completa del testo cliccare su "Show All"]

Newsletter n° 3
Febbraio 2016

Scarica la versione pdf

SOMMARIO

NOTIZIE DAL MONDO DELLA SCIENZA
I. SCOPERTA DI NUOVI ELEMENTI DELLA TAVOLA PERIODICA DI MENDELEEV
II. OLTRE IL MODELLO STANDARD: FISICA QUANTISTICA E FISICA DELLE ALTE ENERGIE.
III. FISICA DELLA LUCE.
IV. ASTROFISICA E MISSIONI SPAZIALI.
V. NEUROSCIENZE.
VI. TEORIA DELL’EVOLUZIONE
VII. STORIA SPERIMENTALE DELLA SCIENZA.
OSSERVAZIONI FILOSOFICHE E TEOLOGICHE
I. IL BOSONE DI HIGGS
II. IL MODELLO STANDARD E IL SUO SFONDO MECCANICISTA
III. OLTRE IL MODELLO STANDARD: LA TEORIA QUANTISTICA DEI CAMPI E UNA VISIONE DINAMICA DELL’UNIVERSO
IV. IL VUOTO QUANTISTICO E LE SUE INFINITE POSSIBILI ROTTURE SPONTANEE DI SIMMETRIA
V. LA DUALITA’ PARTICELLA-ONDA NELLA MECCANICA QUANTISTICA E NELLA TEORIA QUANTISTICA DEI CAMPI
VI. IL VUOTO QUANTISTICO E LA CREATIO EX NIHILO
BIBLIOGRAFIA
EVENTI DEL 2015
EVENTI DEL 2016

EVENTI IRAFS

NOTIZIE DAL MONDO DELLA SCIENZA

Il 2016 si è subito aperto con l’importante notizia della scoperta di 4 elementi pesanti della tavola periodica. Di seguito ricordiamo le notizie che hanno scandito il 2015.

I. SCOPERTA DI NUOVI ELEMENTI DELLA TAVOLA PERIODICA DI MENDELEEV

1. Sono stati scoperti gli elementi numero 113 (ununtrio), 115 (ununpentio) , 117 (Ununseptio) e 118 (ununoctio), metalli sintetici dalla vita brevissima: (http://www.iupac.org/news/news-detail/article/discovery-and-assignment-of-elements-with-atomic-numbers-113-115-117-and-118.html)

II. OLTRE IL MODELLO STANDARD: FISICA QUANTISTICA E FISICA DELLE ALTE ENERGIE.

2. 6 Ottobre 2015: l’Accademia Reale Svedese delle Scienze ha ufficialmente annunciato che il Premio Nobel per la Fisica del 2015 è stato assegnato ai fisici: Takaaki Kajita, dell’Università di Tokyo in Giappone e Arthur B. McDonald della Queen’s University di Kingston in Canada. Il motivo è di aver dimostrato sperimentalmente che il neutrino cambia natura ed è quindi dotato di massa, confutando in tal maniera il Modello Standard, se inteso come fisica fondamentale della materia. Le parole usate dall’Accademia Reale Svedese nel comunicato stampa ufficiale sono infatti le seguenti:
“Per la fisica delle particelle si tratta di una scoperta storica. Il suo Modello Standard dei più interni comportamenti della materia è stato incredibilmente di successo, poiché ha resistito a tutte le prove sperimentali per oltre vent’anni. Tuttavia, poiché esso richiede che i neutrini siano senza massa, le nuove osservazioni hanno mostrato chiaramente che il Modello Standard non può essere la teoria completa dei costituenti fondamentali dell’universo. (…) Ora gli esperimenti continuano e un’intensa attività è in corso in tutto il mondo, al fine di catturare neutrini ed esaminare le loro proprietà. Ci si attende che nuove scoperte sui loro più nascosti segreti cambino la nostra attuale comprensione della storia, della struttura e del destino futuro del nostro universo”. http://www.nobelprize.org/nobel_prizes/physics/laureates/2015/press.html

3. 12 marzo 2015: Il secondo run di LHC inaugurava la nuova era della fisica “oltre il Modello Standard” (http://home.web.cern.ch/about/updates/2015/04/proton-beams-are-back-lhc): l’energia a cui sono sottoposti i fasci di protoni sarà doppia a quella della precedente stagione e precisamente pari a 6,5 TeV per fascio (si ricorda che il Bosone di Higgs fu scoperto nel 2012 all’energia di 4 TeV per fascio, per un totale di 8 TeV). 13 TeV per i due fasci di particelle da far scontrare, dunque, per cercare di completare la conoscenza oltre il Modello Standard e avventurarsi verso lo studio della Materia e della Energia oscura, che dovrebbero costituire il 95% della natura. Il 3 giugno sono state realizzate le prime collisioni: si attendono ora i primi risultati.

4. La materia oscura potrebbe interagire con altra materia oscura in modo diverso dall’interazione gravitazionale:  (http://www.lescienze.it/news/2015/04/15/news/materia_oscura_lente_gravitazionale_scontro_galassie-2565392/ ; http://mnras.oxfordjournals.org/content/449/4/3393.abstract?sid=c4c11c33-9954-47e7-9525-67ab89dee9f1 ).
Osservando l’ammasso di galassie Abell 3927 gli astronomi hanno rilevato la presenza di una lente gravitazionale (un particolare effetto di ingrandimento spiegato nella Relatività generale e dovuto alla deviazione della luce causata dalla presenza di una massa consistente) che distorceva l'immagine di una galassia molto più lontana di quell'ammasso. Questa lente gravitazionale non era, però, prodotta né dalle quattro galassie osservate, né da alcuna altra galassia, e la sua fonte, invisibile, risultava leggermente spostata. L'unica spiegazione del fenomeno è che, durante la collisione delle galassie, gli ammassi di materia oscura associati ad ogni galassia abbiano interagito fra loro: così, la materia oscura di una di esse sarebbe rimasta indietro a causa di una sorta di attrito.

III. FISICA DELLA LUCE.

5. Marzo 2015: Mettere d’accordo Maxwell (luce come onda) e Einstein (luce come corpuscolo) è lo scrupolo e il sogno di tanti ricercatori da circa un secolo. È ora stato annunciato che onda e corpuscolo sono stati finalmente osservati insieme (http://www.lescienze.it/news/2015/03/02/news/filmata_duplice_natura_luce_ondulatoria_corpuscolare-2504610/). Il rilevamento del duplice comportamento della natura della luce è stato fatto con un microscopio elettronico cha ha captato l'interazione tra radiazione elettromagnetica in un nanocavo e un fascio di elettroni. Finora solo il cinema aveva provato a “dire qualcosa” e a indicare almeno una “esperienza significativa” (se non un vero e proprio esperimento). Infatti nel 1976 un film di Merli, Missiroli e Pozzi vinse il Prize for the Physics per aver mostrato l’interazione anche nel caso della materia a livello elementare (elettroni: https://www.bo.imm.cnr.it/users/lulli/downintel/). Più recentemente Tonomura, utilizzando un microscopio elettronico, ha filmato per un minuto le frange di interferenza di un singolo elettrone, facendo apparire nello stesso momento i due aspetti della materia. Ecco il link al video di Tonomura: https://www.youtube.com/watch?v=jvO0P5-SMxk.

6. Gennaio 2015: A Berkeley è stato riprodotto l’esperimento di Michelson e Morley su scala quantistica, con risultati oltre 100 volte più precisi dei precedenti (http://www.nature.com/nature/journal/v517/n7536/full/nature14091.html ; http://www.media.inaf.it/2015/01/29/qubit-spazio-isotropo/). L'esperimento di Michelson e Morley è uno dei più celebri della storia della scienza, mediante il quale fu scoperta l’invarianza della velocità della luce indipendentemente dalla direzione di propagazione dalla luce, fu dimostrato che non esiste un mezzo per la luce denominato “etere” e che lo spazio è isotropo. L’isotropia dello spazio (ovvero, lo spazio è identico in tutte le direzioni) è la premessa alla invarianza di Lorentz, usata da Einstein nella Relatività Speciale e poi nella Fisica Quantistica delle Alte Energie. Il recente esperimento realizzato da una equipe di fisici a Berkeley dimostra che lo spazio non presenta “schiacciature” sfruttando il moto della Terra (come Michelson e Morley supponevano spazia). Per esso si sono usati elettroni (Michelson e Morley invece usavano fotoni) e il famoso effetto entanglement quantistico. Di quest’ultimo i ricercatori hanno sfruttato l’oscillazione in fase degli elettroni in due configurazioni, come nel qubit dei computer quantistici.

IV. ASTROFISICA E MISSIONI SPAZIALI.

7. Sabato 14 giugno 2015È rientratol’equipaggio di Missione Futura, che era stato lanciato in orbita con destinazione Stazione Spaziale Internazionale, nel febbraio 2015, sotto il comando dell’astronauta italiana Samantha Cristoforetti (http://samanthacristoforetti.esa.int/).
Tra gli esperimenti compiuti nella Stazione spaziale quello inerente la riduzione di massa minerale ossea, indotta dalla permanenza nello spazio o per invecchiamento sulla terra, con studio delle relative azioni di contrasto, e quello sull’influenza della microgravità sull’espressione genica per comprendere come curare patologie legate al citoscheletro delle cellule.

8. Telescopio Spaziale Hubble. Lanciato fuori dall’atmosfera terrestre il 24 aprile 1990, si è celebrato nel 2015 il 25esimo anniversario del Telescopio Spaziale Hubble, quello che ci ha mostrato magnifiche immagini dell’universo, arrivando a “vedere” a una distanza spazio-temporale prossima (12 miliardi di anni-luce) a quella del big bang, stimata dell’ordine di 13,5 miliardi di anni-luce: (http://www.esa.int/Our_Activities/Space_Science/Celestial_fireworks_celebrate_Hubble_s_25th_anniversary ; http://www.rainews.it/dl/rainews/articoli/telescopio-spaziale-Hubble-25-anni-storia-iniziative-spazio-esa-nasa-5659c909-af0c-4f63-b0a0-10cf7e2f534d.html ).
Hubble continuerà a lavorare ancora per qualche anno: il suo successore sembra essere il James Webb Space Telescope, il cui lancio è previsto dalla Nasa per il 2018.

9. I “telescopi gravitazionali” sono telescopi predisposti alla ricerca di onde gravitazionali, le onde previste dalla Teoria della Relatività generale e finora mai osservate con certezza. Tra i più noti telescopi di questo tipo sono LIGO (ad Hanford e Livingston, USA) e Virgo (a Cascina, Pisa, Italia): http://www.media.inaf.it/2015/05/11/come-ti-trovo-le-sorgenti-di-onde-gravitazionali/. Ora anche negli Stati Uniti e in Canada partirà un grande programma per la ricerca di onde gravitazionali a bassa frequenza, con due dei più potenti radiotelescopi predisposti allo scopo: il Green Bank Telescope e l'Osservatorio di Arecibo (http://www.media.inaf.it/2015/03/31/a-caccia-di-onde-gravitazionali/). Questi strumenti dovranno integrare le osservazioni del telescopio PLANCK. Il primo problema è costituito dalla variabilità delle sorgenti supposte per generare onde gravitazionali. Si aggiunge la difficoltà di dover reperire tali sorgenti in uno spazio grande 20 volte il diametro lunare e in un tempo relativamente breve.

Immagine da Hubble

Foto scelta per la celebrazione del 25esimo anniversario del Telescopio spaziale Hubble: è un luogo di formazione di nuove stelle, situato in Gum 29, circa 20 000 anni luce di distanza nella costellazione di Carina.

V. NEUROSCIENZE.

10. Tatto e cervello. Le informazioni sensoriali e quelle propriocettive sembrerebbero non viaggiare, come si credeva, su canali separati per venire poi integrate in aree cerebrali superiori: http://www.lescienze.it/news/2015/04/13/news/tatto_integrazione_percezione_neuroni_somatosensoriale-2562212/ ). Già la corteccia somatosensoriale primaria è infatti in grado di elaborarle in modo ben più complesso di quanto si pensasse. Per l'esatta percezione di un oggetto (percezione aptica) sono necessari gli stimoli cutanei e quelli propriocettivi. Per capire come potessero interagire, sono stati fatti esperimenti sulle scimmie identificando le aree cerebrali coinvolte toccando qualcosa: si è visto che la percezione del movimento e quella tattile sono trasportate dallo stesso gruppo di neuroni. Questa scoperta aiuterà a connettere in maniera migliore le protesi bioniche al cervello, per produrre comportamenti più naturali.

11. Una nuova tecnica di Brain-imaging per comprendere le differenze funzionali del cervello autistico:
(http://brain.oxfordjournals.org/content/early/
2015/03/19/brain.awv051
; http://www.lescienze.it/news/2015/03/23/news/connessioni_corteccia_cerebrale_autismo-2536151/). Le informazioni potrebbero essere utili anche nella comprensione di altri disturbi come l’iperattività e i disturbi di attenzione (A.D.H.D.).

12. Coordinamento tra il cervello e il sistema linfatico, scoperto un gruppo di ricercatori dell'Università della Virginia a Charlottesville (http://www.nature.com/nature/journal/v523/n7560/full/nature14432.html).
I ricercatori hanno invertito la procedura standard, che prevedeva il sezionamento delle meningi e la successiva osservazione. In questo modo hanno potuto rilevare le minute strutture del sistema linfatico a livello cerebrale. La scoperta potrebbe modificare profondamente l’approccio a malattie come la sclerosi multipla e l’Alzheimer.

Il sistema linfatico umano

VI. TEORIA DELL’EVOLUZIONE

13. Ben prima di Homo habilis i nostri progenitori si forgiavano utensili da lavoro. Finora si pensava che il più antico utensile della storia umana fosse quello ritrovato nella località di Gona, in Etiopia, risalente a 2,6 milioni di anni fa, agli albori della nostra specie. Alla Stony Brook University, l’Università di Stato di New York, hanno scoperto che invece il più antico strumento da lavoro risale a 3,3 milioni di anni fa, trovato in una regione del Kenia. Si torna indietro di altri 700.000 anni, all’era cenozoica degli Australopitechi:
(http://www.focus.it/cultura/curiosita/australophitecus-lucy-e-gli-utensili-di-pietra ; http://blogs.scientificamerican.com/observations/2015/04/15/archaeologists-take-wrong-turn-find-worlds-oldest-stone-tools/ ). Ciò sembra coerente con il dato secondo cui il più antico fossile di Homo abilis rinvenuto mostra affinità con Australopitecus (http://www.focus.it/scienza/scienze/il-piu-antico-fossile-di-homo-habilis-mai-ritrovato )

VII. STORIA SPERIMENTALE DELLA SCIENZA.

14. Alcuni dei più grandi astronomi del diciassettesimo secolo descrissero accuratamente l’apparizione in cielo di una nuova stella nel 1670. Si è a lungo pensato che fosse una nova, ma l’ipotesi non convinceva fino in fondo. Ora si è scoperto che Nova Vul 1670 era in realtà un tipo più raro e violento di collisione stellare: http://www.eso.org/public/archives/releases/sciencepapers/eso1511/eso1511a.pdf, http://www.media.inaf.it/2015/03/23/svelato-il-mistero-dellesplosione-stellare-del-1670/)

OSSERVAZIONI FILOSOFICHE E TEOLOGICHE

I. IL BOSONE DI HIGGS

Nel 2013 il Premio Nobel per la fisica era andato a François Englert e Peter Higgs, due dei fisici teorici (il terzo, Robert Brout deceduto nel 2011) che con i loro modelli matematici avevano ipotizzato l’esistenza del Bosone di Higgs, individuato al CERN di Ginevra nel 2012. Le alte energie ora raggiunte dall’LHC Large Hadron Collider sono necessarie per studiare le particelle subatomiche. Tra queste, per quelle composte, parte della massa è la cosiddetta “massa a riposo”, derivata dalla massa delle particelle costituenti. Nel caso del protone, ad esempio, la massa a riposo del protone è data dalla somma delle masse a riposo dei costituenti (patroni o quark), ma anche delle loro energie di legame all’interno del protone, esattamente come la massa di un nucleo è la somma delle masse dei nucleoni (protoni e neutroni) e delle loro energie di legame. La massa del protone, di cui la gran parte della materia degli atomi e dunque dei nostri corpi è costituita, risulta complessivamente di circa 1GeV/c2 (1 giga-elettron-volt, 1 miliardo di eV, 109eV). Se si sommano, però, le masse a riposo dei tre quark componenti non si arriva nemmeno a un centesimo della massa del protone, costituita allora per 99% di energia.

Si capisce quindi perché, quando si vuole produrre una particella fondamentale, artificialmente nei nostri acceleratori, occorre arrivare ad energie almeno del medesimo ordine di grandezza della massa della particella desiderata, energie ottenute accelerando fasci di particelle-antiparticelle dotate di massa (elettroni-antielettroni o protoni-antiprotoni in LHC), facendoli poi scontrare, per raddoppiare l’energia (per questo devono avere cariche elettriche opposte, altrimenti si respingerebbero). Il campo di Higgs con relativo bosone è necessario per mantenere la legge di conservazione della carica quando i campi di due particelle senza massa interagiscono (p.es., i campi di bosoni che, per il fondamentale teorema di Goldstone, dovrebbero di per sé, tutti, non avere massa, come è il caso di fotoni e gluoni), per generare, innanzitutto, la tremenda massa dei bosoni Z (equivalente a quella di un atomo di ferro) e W± e, quindi, in ultima istanza, la massa di tutti i quark e leptoni (elettroni, muoni, neutrini) di cui tutta la materia ordinaria è costituita.

In altre parole, le masse sono generate quando nel vuoto quantistico (VQ) si produce il campo di Higgs, una specie di mezzo viscoso che “frena” la propagazione dei campi di forze che interagiscono con esso, così che essi manifestano una sorta di “inerzia” e quindi di massa dei relativi quanti (p.es., dei bosoni Z e W±, della forza debole per mezzo dei quali quark e neutrini interagiscono). Al contrario, altri campi di bosoni – come quelli elettromagnetici, i cui quanti sono i fotoni, per mezzo dei quali, per esempio, quark (e quindi protoni) e elettroni interagiscono negli atomi, o il campo della forza forte i cui quanti (bosoni) sono i gluoni per mezzo dei quali i quark interagiscono nei nucleoni (protoni e neutroni) e quindi nel nucleo degli atomi – non si accoppiano col campo di Higgs, e quindi restano senza massa. In breve, la massa di tutte le particelle elementari è proporzionale al grado di accoppiamento dei loro campi con il campo di Higgs, con un ruolo-chiave dei campi dei bosoni Z-W± e quindi della fisica del neutrino.

Con il bosone di Higgs e il suo campo, almeno del tipo scoperto finora, si spiegano perciò le simmetrie più profonde che conosciamo in natura, almeno a livello di materia ordinaria. Se le future ricerche aiuteranno a completare la conoscenza andando oltre il Modello Standard, che di per sé, cosmologicamente, “spiega” neanche il 5% della materia, quella appunto “ordinaria”, potremo “gettare luce” sulla costituzione ultima della materia stessa. Quella cioè che metaforicamente chiamiamo, “materia oscura”, per significare il mistero che avvolge la massa mancante per giustificare l’attrazione gravitazionale che tiene insieme le galassie e i cluster di galassie; e l’“energia oscura” per significare il mistero che avvolge l’energia mancante per giustificare l’accelerazione dell’espansione dell’universo, avvenuta “di recente” cioè alcuni milioni di anni fa’, al di là di quanto previsto dalla “legge di Hubble”.

La "pizza" cosmica

II. IL MODELLO STANDARD E IL SUO SFONDO MECCANICISTA

Dal punto di vista teorico, la migliore candidata a questo cambio di paradigma nella fisica fondamentale è la cosiddetta “Teoria Quantistica dei Campi” (Quantum Field Theory, QFT). Finora questa teoria è stata concepita come un’estensione della “Meccanica Quantistica” (MQ), ovvero la cosiddetta “seconda quantizzazione” dovuta a Dirac e Feynman. In questa interpretazione, nello studio delle interazioni fondamentali della “Elettrodinamica Quantistica” (QED) e della Cromodinamica Quantistica (QCD) si continua, fondamentalmente, a lavorare nello schema meccanicistico della Meccanica Classica Newtoniana (particelle isolate da forze nel vuoto meccanico) che, da Laplace in poi, nello studio delle interazioni dinamiche dei sistemi a molti corpi, fa uso sistematico dei cosiddetti “metodi perturbativi”. Essi, studiano il comportamento delle particelle usando la cosiddetta “condizione asintotica”. Ovvero, nei calcoli si suppongono infinitamente distanti spazio-temporalmente gli oggetti interagenti, quindi di fatto isolandoli dalle interazioni, quindi “tagliandole via”, così da ricreare la condizione dell’isolamento newtoniano. La supposizione è che questa condizione, necessaria per i calcoli, non falsifichi i fenomeni osservati. Conseguenza di questo approccio è la distinzione assoluta fra particelle e forze di interazione che costituisce il cuore anche del Modello Standard. Si pensi allo strumento di calcolo fondamentale dei diagrammi di Feymann in QED e QCD, dove le particelle (fermioni) vengono rappresentate da linee rette e i quanti dei campi di forze che mediano le loro interazioni (bosoni di gauge) come linee ondulate, e l’intensità di accoppiamento delle interazioni dagli angoli dei diagrammi. Il modello intuitivo è che le particelle interagiscono meccanicamente, scambiandosi quanti di forza, un po’ come due pattinatori sul ghiaccio si allontanano o si avvicinano senza toccarsi scambiandosi un pallone da basket – mantenendo dunque il principio dell’isolamento delle particelle.

Diagrammi di Feynman

In altri termini, nel Modello Standard la distinzione ontologica particella-forza viene riproposta interpretando in questi termini la differenza di per sé solo statistica, fra fermioni e bosoni, come differenza fra particelle che costituiscono “i mattoni” della materia ordinaria (quark e leptoni (elettroni, neutrini, etc.)), divisi in tre famiglie o generazioni, le tre prime colonne della figura sottostante), e quanti dei campi delle tre forze quantistiche: elettromagnetica, e nucleare forte e debole (fotoni, gluoni, e bosoni Z e W±, rispettivamente), con l’aggiunta del bosone e quindi del campo di Higgs (le ultime due colonne della figura).

Il Modello Standard

 

Fra parentesi, grazie al principio dell’interazione col campo di Higgs, che spiega perché i fotoni non hanno massa e i bosoni Z-W± sì, le forze elettromagnetiche e debole, sono state unificate nella forza elettrodebole che così media tutte le interazioni fra quark e leptoni (elettroni, muoni e neutrini). Per questa scoperta, Steven Weisenberg, Sheldon L. Glashow e Abdus Salam, che hanno proposto il modello teorico, e Carlo Rubbia con Simon van der Meer per aver sperimentalmente validato sperimentalmente il modello al LEP – il progenitore di LHC al CERN di Ginevra – che usava fasci di elettroni-antielettroni invece che di protoni-antiprotoni ad alta energia, hanno ricevuto il Nobel, rispettivamente, nel 1979 e nel 1984. Grazie a questo straordinario successo si decise così di costruire LHC per cercare e trovare il bosone di Higgs. Il resto è storia di oggi.

III. OLTRE IL MODELLO STANDARD: LA TEORIA QUANTISTICA DEI CAMPI E UNA VISIONE DINAMICA DELL’UNIVERSO

Nel Modello Standard, però, i neutrini dovrebbero avere massa nulla, mentre invece non l’hanno, come si vede anche dalla figura. Ecco dunque il senso profondo del Premio Nobel a Kajita e McDonald che hanno sperimentalmente osservato che i neutrini hanno massa e cambiano continuamente natura, confutando così il Modello Standard come fisica fondamentale della materia, sebbene esso continui ad essere straordinariamente valido per la materia ordinaria. Nella scienza, infatti, ogni vero progresso consiste nella confutazione della teoria precedente, ma solo nelle sue false pretese di “completezza”, di essere “l’ultima parola” in qualche campo, così è confutata nella sua falsa pretesa “metafisica”, non scientifica di essere una verità “ultima” in qualcosa. Questa evidenza delle “oscillazioni del neutrino” fra un tipo e l’altro, unita alla crescente disaffezione per i metodi perturbativi, per il fatto che è impossibile considerare realisticamente un sistema quantistico come “isolato” dalle oscillazioni del VQ in cui è immerso “dall’interno”, portano al crescente interesse verso il paradigma alternativo della QFT. Sebbene non si possa ancora parlare di “cambio di paradigma”. Una mole immensa di lavoro teorico e sperimentale è ancora da svolgere, come sottolineava l’Accademia di Stoccolma.

In ogni caso, nella QFT, ogni particella, fermionica o bosonica che sia, è considerata come quanto del relativo campo di forze. Dove esistono, cioè, campi di forze materiali (fermionici) e campi di forze d’interazione (bosonici). In questo quadro, le oscillazioni fra diversi tipi di neutrini, consisterebbero in altrettante transizioni di fase del campo neutrinico. D’altra parte, l’associazione di qualsiasi mole di materia a un campo di forze e quindi l’esistenza del VQ come totalità dei campi di forza quantistici, come universale “serbatoio di energia” che tutto dinamicamente include, deriva immediatamente dal Terzo Principio della Termodinamica.

Esso afferma che per qualsiasi sistema fisico è impossibile raggiungere lo zero assoluto. Questo significa che vicino all’assoluto 0°K, vi è una non corrispondenza fra la variazione di energia contenuta in un corpo, è il supplemento di energia “da fuori”. Si può evitare questo paradosso, allora, solo supponendo che questo misterioso supplemento di energia “interna” sia il vuoto. In questo quadro, allora, ogni sistema fisico a qualsiasi livello di complessità, è immerso “dal di dentro” nel VQ. Nessun sistema quantistico, in particolare, che costituisce il “dentro” di qualsiasi corpo è un sistema “chiuso” isolato come nella meccanica classica e nella MQ.

Intuitivamente, il VQ può essere interpretato come una sorta di “riserva universale di energia”, di tutte le forme di energia dell’universo (o di altri possibili universi). La temperatura del VQ è infatti >0°K, anche se si tratta di “energia vincolata” come in termodinamica statistica in un Sistema all’equilibrio, per l’assoluta mancanza di “ordine”. Esso dunque tutto include, e connette dinamicamente tutto.  Da questo sostrato dinamico, tutte le particelle e tutti i loro sistemi emergono come altrettante “rotture spontanee di simmetria” (Spontaneous Symmetry Breakdowns, SSB)del VQ stesso, al suo “stato fondamentale” (energia minima >0°K) – cioè, senza input energetici “da fuori”: non c’è alcun “fuori” al VQ, perché tutto è “dentro” il VQ.

Per non confonderci “filosoficamente”, siccome siamo abituati a considerare, per il nostro background pitagorico-platonico “simmetria” come sinonimo di “ordine”, “una rottura di simmetria del disordine” può sembrarci una contraddizione. Ma non lo è perché il “rumore” “il disordine” è quanto di più simmetrico esiste, dove “tutto è uguale a tutto”, p.es., nel disordine “meccanico” esiste una simmetria rotazionale delle direzioni del moto: ogni direzione equivale a un’altra. Così queste SSB del “disordine” producono “ordine”, cioè “diversità” e perciò anche “identità”, cosa impossibile finché tutto era “indifferenziato”.

IV. IL VUOTO QUANTISTICO E LE SUE INFINITE POSSIBILI ROTTURE SPONTANEE DI SIMMETRIA

Dinamicamente, dunque ogni SSB dei campi quantistici del QV, corrisponde all’istaurarsi di domini locali di coerenza di fase fra campi di forze, ognuno con i suoi quanti, così da costituire un unico “sistema dinamico” con le sue particelle, “liberando” allo stesso tempo una parte di energia dalla riserva di energia “vincolata” del VQ, così che possa essere fatto del “lavoro” fisico. Intuitivamente, è un po’ come quando una corda di chitarra che suona un “la” fa vibrare visibilmente un diapason distante che già micro-vibrava alla stessa frequenza, mentre non fa vibrare una forchetta vicina che micro-vibrava su frequenze diverse. Attenzione: ciò che rende possibile la trasmissione di energia “libera” capace cioè di produrre del lavoro nel diapason e non nella forchetta, sono i “modi”, la “forma” delle loro oscillazioni “coerenti in fase” le une con le altre, rendendo “entangled” i due oggetti distanti, rendendoli cioè un unico sistema dinamico, prima che il segnale fisico dell’aria che vibra arrivi.  Questo a livello macroscopico.

A livello microscopico, nella fisica quantistica relativistica, la propagazione della coerenza di fase di un campo è praticamente istantanea, e non dipende dal segnale fisico, così che è il secondo ad essere “canalizzato” dalla prima. I quanti di questi modi coerenti, che appaiono necessariamente nelle equazioni e sono sperimentalmente osservati e misurati, sono un altro tipo di bosoni, chiamati “bosoni di Nambu-Goldstone” (Nambu-Goldstone bosons. NGB) per la loro dipendenza dal Teorema di Goldstone, già ricordato, e sono i silenziosi protagonisti di tutti i Premi Nobel citati in questa memoria.

Sono, tuttavia, un altro tipo di bosoni, perché, malgrado seguano la stessa distribuzione statistica dei bosoni-di-gauge delle forze fondamentali, nondimeno non sono quanti mediatori di un’altra forza fondamentale. In altri termini, essi non mediano alcuno scambio di energia, ma sono quanti dei modi coerenti di oscillazione di qualsiasi campo di forza, grazie ai quali qualsiasi scambio di energia può accadere. In soldoni, non sono, in linea di principio – ovvero quando le nuove simmetrie cui danno luogo sono perfette – quanti di “energia” (materia), ma di “forma”, e per questa loro strana natura sono definiti “quasi particelle”. Infatti, essi svaniscono senza residui e senza violare il Primo Principio della Termodinamica (bilancio energetico) quando il sistema dinamico che essi “ordinano” viene distrutto, per questo vengono definiti i solito nella letteratura scientifica “quasi-particelle”. Per esempio, in un cristallo gli NGB sono chiamati “fononi” ed essi spariscono, non appena la struttura cristallina viene distrutta, il che avviene per esempio in un diamante, ad una temperatura sopra i 4000 °C.

Gli NGB, infatti prendono nomi diversi a seconda dei differenti campi di forza di cui essi “controllano” i possibili modi coerenti di interazione stabile fra i campi. Così nella QFT della fisica della materia condensata (atomica e molecolare), più vicina alla nostra esperienza ordinaria, gli NGB sono chiamati, per esempio nella fisica (meccanica) dello stato solido, appunto, “fononi”. Essi infatti determinano la “rottura della simmetria di Gailei” nella propagazione del moto vibratorio delle molecole. Essi infatti determinano, o la loro propagazione longitudinale, corrispondente macroscopicamente allo “stato liquido”, o la loro propagazione longitudinale e trasversa, corrispondente allo “stato solido”. In quest’ultima situazione, nel caso di un reticolo rigido cristallino di atomi/molecole oscillanti, i loro modi coerenti di oscillazione determinano la loro distribuzione regolare (periodica) nel reticolo.

Nel caso dei magneti, gli NGB sono chiamati “magnoni” perché la simmetria che essi rompono è quella rotazionale del campo elettromagnetico, così che la magnetizzazione punti in un’unica specifica direzione e, macroscopicamente, il metallo acquisti proprietà magnetiche.

Nella materia organica e nell’acqua in cui soltanto le molecole biologiche sono attive (e questa è la ragione per cui i nostri corpi sono fatti all’80% di acqua e il 90% delle nostre molecole è di acqua), le strutture complesse delle biomolecole che ne fanno cellule, tessuti e organi, e la sequenza ordinata di reazioni chimiche che costituiscono le singole funzioni biologiche, sono ultimamente derivate, a livello fondamentale da NGB chiamati qui “polaroni”. Infatti, ciò che caratterizza ambedue questi tipi di molecole, di acqua e organiche, è il loro forte campo di “dipolo elettrico”. In tal modo l’ipotesi che è alla base della QFT applicata alla materia vivente è che la materia organica “al livello dinamico fondamentale può essere considerata come un insieme di dipoli elettrici la cui simmetria rotazionale è rotta” (E. Del Giudice).

V. LA DUALITA’ PARTICELLA-ONDA NELLA MECCANICA QUANTISTICA E NELLA TEORIA QUANTISTICA DEI CAMPI

In questo nuovo quadro teorico, la stessa dualità particella-onda della MQ acquisisce un significato dinamico. Le “onde” della MQ, infatti, più precisamente, la “funzione d’onda di Schrödinger-De Broglie” è un’entità statistica, strettamente legata alle misure di un osservatore, non un’entità dinamica come le oscillazioni di un campo di forza. Al contrario, nel quadro teorico della QFT, sia la dualità particella-onda come entità dinamiche (quanti e relativi campi), sia il fenomeno dell’entanglement quantistico che è in relazione al comportamento ondulatorio di un sistema dinamico e non meccanico, derivano naturalmente e senza stranezze anche per il senso comune (si pensi al fenomeno della risonanza). Infatti quando i campi materiali e i loro quanti oscillano con una fase definita (sono entangled), non ha senso descrivere il sistema in termini di particelle (né l’entanglement come particelle che “si sentono” a distanza). In tal caso, sono i comportamenti collettivi quelli che hanno senso, con l’emergenza di nuove proprietà rispetto alla “somma” delle particelle (si pensi ai cristalli o ai ferro-magneti).

Viceversa, quando la fase coerente è perduta, è sensato descrivere l’aggregato – non più l’unico sistema dinamico – in termini di particelle individuali. In tal caso, anche la “misura di probabilità” e quindi le proprietà statistiche dei sistemi quantistici risultano determinate dinamicamente e non dalla scelta dell’osservatore.

Questo cambio di prospettiva ontologico ed epistemologico ha ovviamente delle conseguenze anche molto pratiche. Per mantenere la coerenza della funzione d’onda di Schrödinger – per esempio per usarla nella computazione quantistica basata sulla MQ, o nella crittografia quantistica molto potente – è necessario isolare il sistema da ogni perturbazione. La conseguenza è che un computer quantistico basato su questi principi deve lavorare praticamente a una temperatura vicinissima a 0°K (-273 °C): una forte limitazione davvero. Si pensi, invece, alla stabilità delle coerenze di fase dinamiche di un diamante: sono stabili fino a 4000°C. Nella QFT, interpretabile come una “teoria di campo termico”, come abbiamo visto, la stabilità di un sistema dipende, infatti, dal suo bagno termico, dal suo “rispecchiarsi” in esso, da cui intrinsecamente dipende anche nel formalismo matematico che la descrive, non dall’assoluto isolamento del sistema. Cioè, tutti i sistemi sono “aperti”: siamo ben lontani dal paradigma newtoniano. Per questa ragione, alla recente “Conferenza di Davos” una delle comunicazioni più interessanti – anche se ben poco pubblicizzata: si pubblicizza solo quello che non serve! – riguardava i computer ottici quantistici come i protagonisti della rivoluzione computazionale di un futuro molto prossimo – il 2020 era la data suggerita –, dato che la nanotecnologia nell’ottica quantistica è uno dei campi applicativi più fecondi della QFT, ormai da svariati decenni.        

Per concludere, dal punto di vista filosofico, l’universo della QFT è un universo dinamico delle “interazioni causali”, molto più vicino a quello aristotelico che all’universo degli “orologiai”, “vedenti” o “ciechi” che siano della meccanica classica e statistica. Il VQ è molto più vicino alla próte dynamis, al “dinamismo primario” – impropriamente tradotto, dal Medio Evo in poi, come “materia prima”, “un essere finito eppure sempre diverso” lo definiva Aristotele – che al “vuoto meccanico” di Newton di cui è esattamente l’opposto. La próte dynamis della filosofia della natura aristotelica è infatti l’intrinseco sostrato di tutte le cose materiali, visto che per lui il “vuoto meccanico” di Democrito era solo un’astrazione matematica che non esisteva in natura. Da questo sostrato dinamico, infatti, “tutte le forme dei corpi sono causate nella materia non come se vi fossero inserite da qualche forma immateriale, ma come da una materia ridotta dalla potenza all’atto, per mezzo di qualche agente fisico” (Tommaso d’Aq., Summa Theologiae I,65,4).

VI. IL VUOTO QUANTISTICO E LA CREATIO EX NIHILO

Per queste ragioni, usando una nozione aristotelica così potente, Tommaso spiegava che il proprio della cristiana “creazione dal nulla” non era da intendersi in forma neo-platonica, comune anche a tutte le religioni non-bibliche, come “porre ordine nel caos” dal di fuori, o come porre dal di fuori “forme nella materia”. La “creazione dal nulla” consiste nell’affermare che “tutto nulla escluso”, anche l’informe dinamismo primario della materia, è “dentro” l’unico atto creativo di Dio. Più esattamente il termine primo dell’atto creativo divino è proprio questo “dinamismo primario” da cui tutto autonomamente deriva, salvo lo spirito umano e di tutte le creature intelligenti, inteso come relazione con Dio (e non come una “cosa pensante”), e su cui la loro libertà personale necessariamente si fonda. E questo atto creativo del mondo materiale è “fuori del tempo” – perché per Agostino e Tommaso come per noi, differentemente da Newton, il tempo è “dentro” non “fuori” l’universo. Così per loro, come per Aristotele e per noi, differentemente da Descartes per il quale Dio “doveva far partire” la macchina inerziale dell’universo, è impossibile dimostrare “da dentro il tempo” che esso ha “un inizio assoluto”.

In breve, lo “In principio” della Bibbia è “atemporale”, è “metafisico”, non “fisico”. Questo è in accordo anche con il senso letterario del testo biblico, dove si cominciano a contare i giorni dopo che Dio ha posto in essere i limiti dell’universo (cielo e terra), per distinguerlo da Lui così da rimanere “fuori” dell’universo, senza metterci niente dentro se non il caos primordiale. Così, posto questo preambolo che è molto preciso nel distinguere questa posizione dalle altre “storie di creazione” delle altre religioni, l’autore biblico può abbondantemente usare queste storie, senza preoccupazioni di coerenza, per tutto il resto degli altri capitoli del Genesi che riguardano le origini, fino al cap. 11. L’inizio del Genesi, recita infatti:

“In principio, il Signore Dio creò il cielo e la terra. Ora la terra era informe e vuota e un vento divino aleggiava sulle acque”, evidentemente increspandole, erano cioè “acque vive” non stagnanti.

Hanno perciò mancato completamente il segno quei fisici, anche illustri, come S. Hawking  (Hawking & Mlodinow, 2010), oppure come L. Krauss  (Krauss, 2012), con la collaborazione di un biologo come l’onnipresente R. Dawkins che ha fatto la post-fazione al libro di Krauss, quando pretendono di spiegare la creatio ex nihilo usando le infinite SSB del QV. Il QV non è “nulla”, proprio come la prote dynamis aristotelica, o “la terra informe e vuota” della Bibbia non sono “niente”. Casomai è il vuoto meccanico newtoniano ad assomigliare al “nulla”.

Ma non è elegante, in tal caso, giocare con l’ignoranza della gente, confondendo vuoto quantistico e vuoto meccanico. In ogni caso, ciò che questi studiosi criticano è la teologia neo-platonica di Dio che come il Demiurgo platonico progetta e crea le cose mettendo da fuori “forme nella sabbia”, una visione incompatibile con una concezione evolutiva della cosmologia e della biologia come quella attuale.

Al contrario, se usiamo lo schema teorico di Tommaso, fisici e scienziati da una parte, e metafisici e teologi dall’altra, possono svolgere i loro rispettivi lavori, nel reciproco rispetto e senza interferenze. I primi infatti devono supporre l’esistenza del VQ e devono riscrivere tutta la fisica fondamentale e tutte le scienze naturali su queste basi. Gli altri devono tentare di trovare una ragionevole risposta a eterne questioni, del tipo “perché esiste qualcosa e non il nulla?” riscrivendo una metafisica e una teologia capaci di interfacciarsi con i progressi e i rischi straordinari, presenti e futuri, della scienza e della tecnologia. Il rischio è infatti che le loro discipline sembrino storie per bambini “che giocano sulla spiaggia”, a persone educate nella scienza. In ogni caso, c’è tantissimo lavoro da fare, nella nostra epoca di “cambio di paradigma”, non solo per i fisici, ma anche per filosofi e scienziati. 

BIBLIOGRAFIA

Hawking, S., & Mlodinow, L. (2010). The grand design. New answers to the ultimate questions of life. London: Bantam Press. (tr. it.: Il grande disegno, Mondadori, Milano, 2012)
Krauss, L. M. (2012). A universe from nothing. Why there is something rather than nothing. Afterward by Richard Dawkins. New York: Free Press. (tr.it., L'universo dal nulla. Le rivoluzionarie scoperte che hanno cambiato le nostre basi scientifiche, Macro Ed., 2013).

EVENTI DEL 2015

Questi sono alcuni dei più importanti eventi nei quali i membri di Irafs sono stati coinvolti.

1. 2015, YEAR OF LIGHT. Un importante congresso si è tenuto a Roma per celebrare l’Anno della Luce, coinvolgendo i maggiori fisici e filosofi del momento. Fiat lux è il titolo, o meglio “Let there be light” (http://www.ilsussidiario.net/News/Scienze/2015/5/28/ANNO-DELLA-LUCE-Il-viaggio-avventuroso-dei-fotoni-dal-Big-Bang-a-Roma/612421/ ). Rimandiamo anche all’interessante approfondimento storico-filosofico del Dizionario interdisciplinare Scienza & Fede, http://www.disf.org/anno-internazionale-della-luce-2015

2. DUBROVNIK, CROATIA,  INTER-UNIVERSITY CENTRE. IUC-2015. INTERNATIONAL CONFERENCE ON: “FORMAL METHODS AND SCIENCE IN PHILOSOPHY. DUBROVNIK (CROATIA), MARCH 26-28, 2015”. The Conference was aimed at presenting a lot of high level contributions in formal philosophy. That is, philosophy using formal methods of logic, overall of modal and philosophical logic, far beyond the results obtained during the last decades, by analytic philosophy using only mathematical and Fregean logic. Two our professors, Gianfranco Basti and Flavia Marcacci presented their contributions at this Conference:
http://www.iuc.hr/IucAdmin/Server/downloads/IUC_2015_PMSPh_Booklet_NovoP.pdf

3. JOAO PESSOA, BRASILE, FEDERAL UNIVERSITY OF PARAIBA.  FIRST INTERNATIONAL CONFERENCE ON: “LOGIC AND RELIGION. JOAO PESSOA (BRAZIL), APRIL 1-5, 2015”. The Conference was aimed at presenting, for the first time in the history, the results of formal philosophy as a theoretical tool for the inter-religious dialogue, for avoiding misinterpretations and language confusions. Several scholars presented high-level papers formalizing different religious doctrines, belonging to the different Traditions to which they belong. Professor Gianfranco Basti presented an Invited Plenary Speech on: “A formalization of Aquinas Theory of Creation as Participation of Being”: http://www.uni-log.org/logic-and-religion-1.html

4. AT UNILOG 2015, 5th WORLD CONGRESS AND SCHOOL OF UNIVERSAL LOGIC, TURKEY ISTANBUL, JUNE 20-30, 2015. Workshop: Representation and Reality: Humans, Animals and Machines. OVERVIEW: Our workshop could be considered as the continuation of a part of the symposium “Computing Nature” organized by Gordana Dodig – Crnkovic and Raffaela Giovagnoli in the AISB/IACAP World Congress 2012 and “Representation of Reality: Humans, Animals and Machines” in the AISB50 Convention at Goldsmith 2014. We aimed at offering a further occasion to discuss the problem of “representation” in humans, other animals and machines. It is closely related to the question what capacities can be plausibly computed and what are the most promising approaches that try to solve the problem. At this Conference, with about 300 speakers from all over the world, Prof. Basti and Prof. Raffaela Giovagnoli, chair of the Workshop, presented two invited papers. http://www.uni-log.org/enter-istanbul

5. SUMMER SCHOOL LILLE   (http://summerschoollille2015.historyofscience.it/index.php/en/ ), 1st International Summer School for Sciences, History and Philosophy of Sciences & Science Education, New Educational and Fundamental Insights for Sciences and History-Epistemology-Philosophy of Sciences, & Science Education, and Roundtable & Open Debate, Exploring Changes in How the Histories and Philosophies of Sciences Have Been Written: Interpreting the Dynamics of Change in these Sciences and Interrelations Amongst Them—Past Problems, Future Cures?. June 22nd-26th | MESHS, Lille, France. With the participation of Joseph Agassi (Israel), Jean Dhombres (France), Helge Kragh (Denmark), Nichoals Maxwell (UK) and Patricia Radelet de Grave (Belgium) as Lecturers and Keynote Speakers. Other lecturer: Raffaele Pisano, Giuseppe Bellavia, Didiel Christeller, Flavia Marcacci, Romano Gatto, Snezana Lawrence and others. The aim of the this first international Summer School (ISSHPSE 2015) is to provide a platform to the young researchers, post-doc, Ph.D. candidates teachers and practitioners from both academia as well as education School to meet and share cutting-edge development in the field. Particularly ISSHPSE 2015 mainly aims to improve-innovate scientific, historical and philosophical techniques of investigations within science.

EVENTI DEL 2016

1. Science, Philosophy, and Religious Commitment: Catholic engagement in philosophy of science. University of St. Thomas, St. Paul, Minnesota, 26-28 June 2016 (http://www.stthomas.edu/philosophy/grants/templeton/project/). L’intento della conferenza è articolare un attento approfondimento e analisi della storia e dello stato attuale della filosofia della scienza tra gli intellettuali cattolici con uno sguardo particolare alle questioni attuali. Invited speakers: Paul Allen, Nicanor Austriaco, Stephen Barr, Gianfranco Basti, Robert Deltete, David Diekema, Flavia Marcacci, Patrick McDonald, Meghan Page, Anne Peterson, Lidia Obojska, Philip Sloan, Brendan Sweetman, Nicholas The.

2. The 7th International Conference of the ESHS will be held in Prague, 22 - 24 September, 2016 (http://www.7eshs2016.cz/)

EVENTI IRAFS

9 febbraio, seminario “Ontos e Logos. Ontologia formale, linguaggi, culture”
h. 15.00-17.30, Aula Papa Francesco

Durante il seminario sarà presentato il volume di G. Basti, S. Mobeen, "Ontologia formale" (Roma: Apes Editrice, 2015), contenente contributi di Habermas, Searle, Ales Bello, Kanakappally, Poli, Mobeen, Giovagnoli.

Modera Philip Larrey (Pontificia Università Lateranense), Introduce A. Iodice (Presidente dell’Istituto di Studi Politici San Pio V). Interventi di
Guido Traversa (Università Europea di Roma) e Daniele Santoro (CNR-IRPPS - Luiss). Discussione introdotta da A. Ales Bello, G. Basti, R. Giovagnoli, B. Kanakappally, C. Ariano.

 

11 aprile, seminario “Logos e Pathos. L’immagine tra filosofia e scienza”
h. 15.00-18.30, Aula Papa Francesco.

Moderano e introducono: Patrizia Manganaro e Gianfranco Basti (Università Lateranense). Interventi di: Roberta Lanfredini (Università di Firenze), Res viva. Il sentire in Maurice Merleau-Ponty, Andrea Pinotti (Università di Milano), Violenza all’immagine, violenza in immagine. Questioni di empatia; Gianitalo Bischi (Università di Urbino), Il logos delle forme: generare immagini dal caos

9 maggio: Seminario “Logos e Pathos. Aspetti epistemologici e terapeutici della cura”. h. 15.00-18.00, Aula Papa Francesco

Modera e introduce: Patrizia Manganaro (Università Lateranense), Empatia e complessità. La svolta fenomenologica della psichiatria. Interventi di: Luigina Mortari (Università di Verona), La pratica di cura: posture dell’esserci; Cristina Trentini (Università di Roma “La Sapienza”), Il sé intersoggettivo tra psicologia e neurobiologia. Origini e sviluppi terapeutici