Fisica

3.4344405594565 (1144)
Inviato da nono 15/04/2009 @ 10:11

Tags : fisica, scienza

ultime notizie
"E' la fisica, Mister President" - La Stampa
Si chiama «Fisica per i presidenti del futuro» e anche chi non ha mai sognato la Casa Bianca, nemmeno per scherzo, si troverà con il cervello sottosopra. Professore, lei è di casa a Washington: è consigliere per i dipartimenti della Difesa e...
"Angeli e Demoni", scienziati spiegano verità su antimateria - Reuters Italia
Le particelle di antimateria sono particelle subatomiche e immagini speculari della materia, ha aggiunto Boris Kayser del Laboratorio dell'Acceleratore Nazionale Fermi, a Batavia in Illinois, e presidente della divisione di Fisica delle particelle alla...
Esami di Stato: angeli e asini - La Tecnica della Scuola
Il voto di condotta e quello di educazione fisica faranno media per l'ammissione agli esami di maturità di quest'anno: lo ribadisce il Ministero dell'istruzione, dell'università e della ricerca con la circolare n. 50 del 20 maggio 2009....
La fisica approda in Puglia a bordo di «Adriatica» - La Gazzetta del Mezzogiorno
BARI - La fisica è approdata oggi in Puglia a bordo della barca a vela «Adriatica», nel porto di Bari. Da domani, nei giorni 19, 20 e 21 maggio si svolgerà presso il Centro Universitario Sportivo (CUS) di Bari l'edizione 2009 dell'iniziativa «Fisica in...
Fisica in barca Europea con Adriatica dei Velisti per Caso - VelaNet
Il CERN di Ginevra sta organizzando, in collaborazione con ADRIATICA, (l'imbarcazione della Per Caso srl), l'evento denominato FISICA IN BARCA EUROPEA (FIBE). Tale evento consiste in un giro didattico a vela con partenza da Lisbona in Portogallo e...
Sesena presenta Tuia, Faraoni, Perpetuini, Mendicino e Kozak - Tutto Mercato Web
Esterno di difesa dalla grande forza fisica e dalle buone qualità tecniche, si fa apprezzare anche per la sua duttilità, può giocare terzino destro, sinistro e centrale. "Davide ha grande corsa e forza fisica, certo è, che confrontarsi con la serie A,...
MotoGp, Le Mans day 1. Pedrosa: ''migliora la condizioni fisica'' - RomagnaOggi.it
"La mia condizione fisica sta migliorando e posso piegare il ginocchio un po' di più adesso", ha dichiarato il catalano. "Tuttavia - ha confessato - non ancora al 100% con la moto perché la mia condizione non è ancora perfetta"....
L'origine dell'obesità sta nell'eccesso di alimentazione - healthnews
Questo fa pensare che l'eccesso di alimentazione sia ancora all'origine dell'aumento di peso, che è stato però controbilanciato dall' aumento dell'attività fisica nel corso degli ultimi 30 anni, secondo Swinburn. Swinburn aggiunge che finora nessuno ha...
Dieta base per gli uomini (1800 kcal) e per donne (1600 kcal ... - AgrigentoWeb.it
Infatti se una qualsiasi lettrice e/o qualsiasi lettore di Agrigentoweb.it ha un'attività fisica molto impegnativa durante il giorno, può benissimo aumentare l'assunzione di alimenti proposti nelle mie diete utilizzando il concetto di Fattore di...
Lo Zen e la fisica delle parole - La Stampa
La prova è nella storia di Luisa Zini, una fisica italiana specializzata in scienza dei materiali che vive negli Usa. «Dopo il PhD in chimica all'Università di Los Angeles, sono finita a Portland - racconta -. Cercavo una comunità di tango argentino,...

Fisica

Rappresentazione a mezzo delle linee di campo del campo elettrostatico di un magnete.

La fisica (dal neutro plurale latino physica, a sua volta derivante dal greco τὰ φυσικὰ , ovvero "le cose naturali", da φύσις , "natura") è la scienza della Natura nel senso più ampio. Scopo della fisica è lo studio dei fenomeni naturali, ossia di tutti gli eventi che possano essere descritti tramite grandezze fisiche, al fine stabilire le leggi che regolano le interazioni tra le grandezze stesse e rendano conto delle loro reciproche variazioni. Quest'obiettivo è talvolta raggiunto attraverso la fornitura di uno schema semplificato, o modello, del fenomeno descritto.

Originariamente una branca della filosofia, la Fisica è stata chiamata almeno fino al XVIII secolo filosofia naturale, solo in seguito alla codifica del metodo scientifico di Galileo Galilei, negli ultimi trecento anni si è talmente evoluta e sviluppata ed ha conseguito risultati di tale importanza da conquistarsi piena autonomia e autorevolezza.

L'indagine fisica viene condotta seguendo il metodo scientifico, anche noto come metodo sperimentale: all'osservazione dei fenomeni segue la formulazione di ipotesi, la cui validità viene messa alla prova tramite degli esperimenti. Le ipotesi consistono nella spiegazione del fenomeno attraverso l'assunzione di principi fondamentali, in modo analogo a quanto viene fatto in matematica con assiomi e postulati. L'osservazione produce come conseguenza diretta le leggi empiriche. Se la sperimentazione conferma un'ipotesi, la relazione che la descrive viene detta legge fisica. Il ciclo conoscitivo prosegue con il miglioramento della descrizione del fenomeno conosciuto attraverso nuove ipotesi e nuovi esperimenti. Un insieme di leggi possono essere unificate in una teoria che faccia uso di principi che permettano di spiegare il maggior numero possibile di fenomeni, questo processo permette anche di prevedere nuove fenomeni che possono essere scoperti sperimentalmente. Le leggi e le teorie fisiche, come tutte le leggi scientifiche, sono sempre provvisorie, nel senso che sono considerate vere solo finché non vengono confutate, ossia se viene osservato il verificarsi di un fenomeno che esse predicono non possa mai accadere, o se le loro predizioni sui fenomeni si dimostrano errate. Infine, ogni teoria può essere sostituita da una nuova che permetta di predire gli stessi fenomeni, ma con una accuratezza superiore o in un contesto di validità più ampio.

Cardine della fisica sono i concetti di grandezza fisica e misura: le grandezze fisiche sono ciò che è misurabile secondo criteri concordati (è stabilito per ciacuna grandezza un metodo di misura ed un'unità di misura). Le misure sono il risultato degli esperimenti. Le leggi fisiche sono quindi generalmente espresse come relazioni matematiche fra grandezze, verificate attraverso misure. I fisici studiano quindi in generale il comportamento e le interazioni della materia attraverso lo spazio e il tempo.

Il metodo scientifico è la modalità tipica con cui la scienza procede per raggiungere una conoscenza della realtà oggettiva, affidabile, verificabile e condivisibile. Esso consiste, da una parte, nella raccolta di evidenza empirica e misurabile attraverso l'osservazione e l'esperimento; dall'altra, nella formulazione di ipotesi e teorie da sottoporre nuovamente al vaglio dell'esperimento.

Esso è stato applicato e codificato da Galileo Galilei nella prima metà del XVII secolo. Precedentemente l'indagine della natura consisteva nell'adozione di teorie che spiegassero i fenomeni naturali senza che fosse necessaria una verifica sperimentale delle teorie stesse che venivano considerate vere in base al principio di autorità.

Dato che le condizioni in cui viene svolto l'esperimento non sono mai ideali, al contrario di quanto supposto dalle ipotesi, è spesso necessario svolgere un elevato numero di misure e analizzare i risultati con metodi statistici.

Ogni osservazione di un fenomeno costituisce un caso a sé stante, una particolare istanza del fenomeno osservato. Ripetere le osservazioni vuol dire moltiplicare le istanze e raccogliere altri fatti, cioè altre "misure". Le diverse istanze saranno certamente diverse l’una dall’altra nei dettagli (ad esempio a causa di errori sperimentali), anche se nelle loro linee generali ci indicano che il fenomeno, a parità di condizioni, tende a ripetersi sempre allo stesso modo.

Per ottenere un risultato di carattere generale, occorre sfrondare le varie istanze dalle loro particolarità e trattenere solo quello che è rilevante e comune ad ognuna di esse, fino a giungere al cosiddetto modello fisico.

Se l'ipotesi è smentita allora essa viene rigettata ed è necessario formulare una nuova ipotesi e ripercorrere il percorso precedente.

Il ciclo conoscitivo proprio del metodo scientifico è di tipo induttivo: un procedimento che partendo da singoli casi particolari cerca di stabilire una legge universale. Nella prima metà del XX secolo, il filosofo e logico inglese Bertrand Russell e il filosofo austriaco Karl Popper sollevarono delle obiezioni riguardo al metodo dell'induzione. L'induzione non ha consistenza logica perché non si può formulare una legge universale sulla base di singoli casi; ad esempio, l'osservazione di uno o più cigni dal colore bianco non autorizza a dire che tutti i cigni sono bianchi; esistono infatti anche dei cigni di colore nero. Popper osservò che nella scienza non basta "osservare": bisogna saper anche cosa osservare. L'osservazione non è mai neutra ma è sempre intrisa di teoria, di quella teoria che, appunto, si vorrebbe mettere alla prova. Secondo Popper, la teoria precede sempre l'osservazione: anche in ogni approccio presunto "empirico", la mente umana tende inconsciamente a sovrapporre i propri schemi mentali, con le proprie categorizzazioni, alla realtà osservata.

Il metodo sperimentale non garantisce quindi che una legge fisica possa essere verificata in modo definitivo, ma si può limitare solamente a fornire la prova della falsità di un'ipotesi.

La misura è il processo che permette di conoscere una qualità di un determinato oggetto (ad esempio la lunghezza o la massa) dal punto di vista quantitativo, tramite un'unità di misura, cioè una grandezza standard che, presa N volte, associ un valore univoco alla qualità da misurare. La branca della fisica che si occupa della misurazione delle grandezze fisiche è chiamata metrologia. Il suo scopo è quello di definire alcune grandezze fisiche indipendenti, dette fondamentali, dalle quali è possibile ricavare tutte le altre (che sono dette derivate), di definire i corretti metodi di misurazione e di costruire i campioni delle unità di misura adottate, in modo da avere un valore standard a cui fare riferimento in qualsiasi momento.

Altri sistemi usati in passato sono stati il sistema CGS, in cui le unità fondamentali sono il centimetro, il grammo e il secondo e il Sistema imperiale britannico (o anglosassone). Inoltre negli USA si utilizza attualmente il Sistema consuetudinario statunitense, derivato dal Sistema imperiale britannico.

In ogni procedimento di misura di una grandezza fisica, la misura è inevitabilmente accompagnata da un'incertezza o errore sul valore misurato. Una caratteristica fondamentale degli errori che influenzano le misure di grandezze fisiche è la sua ineliminabilità, ossia una misura può essere ripetuta molte volte o eseguita con procedimenti o strumenti migliori, ma in ogni caso l'errore sarà sempre presente. L'incertezza fa parte della natura stessa dei procedimenti di misura. In un esperimento, infatti, non è mai possibile eliminare un gran numero di fenomeni fisici che possono causare dei disturbi alla misura, cambiando le condizioni nelle quali si svolge l'esperimento. Una misura può quindi fornire solamente una stima del valore vero di una grandezza coinvolta in un fenomeno fisico.

Nell'immagine a lato è rappresentato l'effetto delle incertezze su di una misura per analogia con il gioco delle freccette. Il valore vero della grandezza è il centro del bersaglio, ogni tiro (puntini blu) rappresenta una misura.

Quando si fa una misura, quindi, si deve procedere alla stima dell'incertezza ad essa associata, o, in altre parole, alla stima dell'errore sulla misura. Ogni misura deve essere quindi presentata accompagnata dalla propria incertezza segnalata dal segno di ± e dalla relativa unità di misura: In cui G è il simbolo relativo alla grandezza misurate, l è la stima del valore della misura, σ è l'incertezza e u.m. è l'unità di misura.

Quando una misura viene ripetuta molte volte è possibile valutare le incertezze casuali calcolando la deviazione standard delle misure (di solito indicata con la lettera greca, σ), la stima del valore vero di ottiene invece calcolando la media aritmetica dei valori delle misure. Se le misure sono ripetute poche volte si utilizza come incertezza la risoluzione dello strumento. L'incertezza deve fornire un intervallo di valori in cui, secondo la misura condotta dallo sperimentatore, cade il valore vero della misura secondo un certo livello di confidenza.

Ci si può servire dell'incertezza assoluta per quantificare la precisione della misura, il valore dell'incertezza con la relativa unità di misura è detto incertezza assoluta, l'incertezza relativa si calcola come il rapporto fra la grandezza e la sua incertezza assoluta. L'incertezza relativa è un numero adimensionale (ossia senza unità di misura). È possibile esprimere l'incertezza relativa anche con una percentuale.

Le incertezze si propagano quando i dati afflitti da incertezze vengono utilizzati per effettuare successivi calcoli (come ad esempio il calcolo dell'area di un tavolo a partire dalla lunghezza dei suoi lati), secondo delle precise regole dette della propagazione delle incertezze.

Infine, bisogna notare che in Fisica classica in linea di principio gli errori possono essere sempre ridotti (idealmente fino ad un valore piccolo a piacere), mentre in meccanica quantistica questo non è possibile a causa del principio di indeterminazione di Heisenberg.

Il modello fisico è una versione approssimata del sistema effettivamente osservato. Il suo impiego indiscriminato presenta dei rischi, ma ha il vantaggio di una maggiore generalità e quindi dell’applicabilità a tutti i sistemi simili al sistema in studio.

La costruzione del modello fisico è la fase meno formalizzata del processo conoscitivo, che porta alla formulazione di leggi quantitative e di teorie. Il modello fisico ha la funzione fondamentale di ridurre il sistema reale, e la sua evoluzione, ad un livello astratto ma traducibile in forma matematica, utilizzando definizioni delle grandezze in gioco e relazioni matematiche che li leghino. Tale traduzione può essere portata a termine anche attraverso l'uso del calcolatore, con programmi detti di simulazione, con i quali si studiano i fenomeni più disparati.

Il modello matematico, che ovviamente si colloca ad un livello di astrazione ancora superiore a quello del modello fisico, ovvero al massimo livello di astrazione nel processo conoscitivo, è costituito normalmente da equazioni differenziali che, quando non siano risolvibili in maniera esatta, devono essere semplificate opportunamente o risolte, più o meno approssimativamente, con metodi numerici (al calcolatore). Si ottengono in questo modo delle relazioni analitiche o grafiche fra le grandezze in gioco, che costituiscono la descrizione dell’osservazione iniziale.

La soluzione del modello matematico va quindi interpretata tenendo conto delle varie approssimazioni che sono state introdotte nello studio del fenomeno reale, per vedere con quale approssimazione riesce a rendere conto dei risultati dell’osservazione iniziale e se le eventuali previsioni si verificano effettivamente e con quale precisione. Questo può venire confermato solo dall’esperienza, creando una sorta di schema in retroazione, che è il ciclo conoscitivo.

Il tempo e lo spazio sono delle grandezze fondamentali della fisica, assieme a massa, temperatura, quantità di sostanza, intensità di corrente, e intensità luminosa: tutte le grandezze della fisica sono riconducibili a queste ultime. L'unità di misura del tempo è il secondo, che è definito come la durata di 9 192 631 770 periodi della radiazione corrispondente alla transizione tra due livelli iperfini, da (F=4, MF=0) a (F=3, MF=0), dello stato fondamentale dell'atomo di cesio-133, mentre il metro è l'unità fondamentale dello spazio ed è definito come la distanza percorsa dalla luce nel vuoto in un intervallo di tempo pari a 1/299 792 458 di secondo.

Prima del '900 i concetti di spazio e di tempo erano considerati assoluti e indipendenti: si pensava che lo scorrere del tempo e le estensioni spaziali dei corpi fossero indipendenti dallo stato di moto dell'osservatore che le misurava, ovvero dal sistema di riferimento scelto. Dopo l'avvento della teoria della relatività di Einstein i fisici dovettero cambiare opinione: le lunghezze e gli intervalli temporali misurati da due osservatori in moto relativo l'uno rispetto all'altro, possono risultare più o meno dilatati o contratti, mentre esiste un'entità, l'intervallo di Minkowski, che è invariante e se misurata da entrambi gli osservatori fornisce il medesimo risultato; quest'entità è costituita dalle 3 coordinate spaziali più una quarta, quella temporale, che rendono questo oggetto appartenente ad uno spazio a 4 dimensioni. Così facendo, lo spazio e il tempo non sono più due quantità fisse e indipendenti tra loro, ma sono correlate tra loro e formano un'unica e nuova base su cui operare, lo spazio-tempo.

Con la relatività generale, poi, lo spazio-tempo viene deformato dalla presenza di oggetti dotati di massa.

La massa è una grandezza fisica fondamentale. Essa ha come unità di misura nel Sistema internazionale il chilogrammo e viene definita nella meccanica newtoniana come la misura dell'inerzia offerta dai corpi al cambiamento del proprio stato di moto. Nella teoria della gravitazione universale di Newton svolge inoltre il ruolo di carica della forza gravitazionale. Questa doppia definizione della massa viene unita nella teoria della relatività di Einstein, tramite il principio di equivalenza, ed inoltre essa viene legata all'energia di un corpo tramite la formula E = mc².

La forza esprime quantitativamente l'interazione di due corpi. L'interazione tra i corpi può avvenire attraverso una cosiddetta "area di contatto" (spesso assimilabile ad un punto) oppure può manifestarsi a distanza, attraverso quello che viene definito campo di forze. Il concetto di campo di forze può essere chiarito se si pensa alla natura vettoriale della forza: la forza infatti viene descritta dal punto di vista matematico da un vettore, per cui un campo di forze è descritto in matematica come un campo vettoriale, cioè il campo di forze indica punto per punto la direzione, il verso e il modulo (o intensità) della forza che viene esplicata tra due corpi. Il campo di forze può essere visualizzato tramite le sue linee di campo o le linee di flusso.

Alcuni esempi di campi di forze sono: il campo magnetico, il campo elettrico e il campo gravitazionale.

La fisica si compone di più branche che sono specializzate nello studio di diversi fenomeni oppure che sono caratterizzate dall'utilizzo estensivo delle stesse leggi di base. In base a quest'ultima classificazione si può distinguere le fisica classica da quella moderna, poiché quest'ultima fa uso continuamente delle teorie relativistiche e della meccanica quantistica, che non sono invece parte delle teorie cosiddette classiche.

La fisica classica studia tutti i fenomeni che possono essere spiegati senza ricorrere alla relatività generale e alla meccanica quantistica. Le teorie principali che la compongono sono la meccanica classica (in cui si ricomprende l'acustica), la termodinamica, l'elettromagnetismo (in cui si ricomprende l'ottica) e la teoria newtoniana della gravità. Sostanzialmente tutte le teorie che sono state prodotte prima dell'inizio del XX secolo fanno parte della fisica classica. Le leggi della fisica classica, nonostante non siano in grado di spiegare alcuni fenomeni, come la precessione del perielio di Mercurio, o l'effetto fotoelettrico, tuttavia sono in grado di spiegare gran parte dei fenomeni che si possono osservare sulla terra. Le teorie, invece, falliscono quando è necessario spingersi oltre i limiti di validità delle stesse, ovvero nelle scale atomiche e subatomiche, o in quello dei corpi molto veloci, per cui è necessario fare ricorso alle leggi della fisica moderna.

La fisica classica utilizza un numero relativamente ridotto di leggi fondamentali che a loro volta si basano su una serie di principi assunti alla base della teoria. Fra questi quelli più importanti sono i concetti di spazio assoluto e tempo assoluto che sono poi alla base della relatività galileiana. Molto importanti sono anche i principi di conservazione.

La fisica moderna studia tutti quei fenomeni che avvengono a scala atomica e subatomica o dove le velocità sono prossime a quelle della luce; le teorie principali che la costituiscono sono la meccanica quantistica e la relatività generale. Fanno parte di questa categoria tutte le teorie che sono state prodotte prodotte a partire dal XX secolo, per cercare di spiegare alcuni fenomeni che le teorie classiche non riescono a dimostrare.

Queste nuove teorie hanno completamente rivisto le idee e i concetti che l'uomo ha sempre avuto fin dai tempi più antichi: infatti lo spazio e il tempo non sono più considerati assoluti, ma sono relativi al sistema di riferimento che si sceglie, e non sono separati, ma formano un'unica entità chiamata spazio-tempo. Anche il concetto di misura viene completamente rivisto, in quanto con il principio di indeterminazione si stabilisce che non è possibile misurare, con precisione arbitraria, simultaneamente due grandezze.

L'astrofisica è una scienza che applica la teoria e i metodi delle altre branche della fisica per studiare gli oggetti di cui è composto l'universo, quali ad esempio le stelle, i pianeti, le galassie e i buchi neri.

L'astrofisica si differenzia dall'astronomia in quanto l'astronomia si pone come obiettivo la comprensione dei movimenti degli oggetti celesti, mentre l'astrofisica tenta di spiegare l'origine, l'evoluzione e il comportamento degli oggetti celesti stessi. Un'altra disciplina con cui l'astrofisica è intimamente correlata è la cosmologia, che ha come oggetto di studio l'origine dell'universo.

I telescopi spaziali (tra cui va ricordato il telescopio spaziale Hubble) sono strumenti indispensabili alle indagini dell'astrofisica: grazie ad essi gli astrofisici hanno trovato conferma di molte teorie sull'universo.

I computer vengono utilizzati in più fasi del processo conoscitivo: durante la fase di osservazione possono essere utilizzati ad esempio per effettuare un campionamento delle misurazioni, ovvero il valore della grandezza da misurare viene letto ad intervalli determinati, in modo da avere più misure in un ristretto lasso di tempo. Il calcolatore può svolgere anche la funzione di strumento registratore: i dati relativi all'osservazione vengono ad essere archiviati per lo svolgimento di operazioni successive di valutazione e/o confronto con altri dati. L'intero sistema per la misurazione, il trattamento e la registrazione dei dati, costituito dal calcolatore e da strumentazioni specifiche ad esso interfacciate, viene denominato sistema di acquisizione dati (o DAQ).

Gli strumenti informatici possono quindi fungere da "strumento" durante le diverse fasi dell'esperienza, ma possono anche andare oltre, costituendo un vero e proprio sistema virtuale, che sostituisce e "imita" il sistema fisico reale; si parla in questo caso di simulazione del processo in esame. Il sistema simulato presenta il vantaggio rispetto al sistema reale di avere un controllo su tutti gli elementi di disturbo che influenzano il fenomeno studiato; d'altra parte è necessaria una precedente conoscenza del modello matematico associato al modello fisico per la creazione del modello simulato. La simulazione quindi affianca in primis l'osservazione diretta durante il processo conoscitivo, con lo scopo di convalidare il modello matematico ipotizzato, e una volta che la corrispondenza tra modello fisico e modello simulato è stata accertata, è possibile utilizzare la simulazione per effettuare delle stime in condizioni contemplate dal modello matematico, ma che sono differenti da quelle in cui è avvenuta la precedente osservazione diretta.

Gli strumenti della statistica sono utilizzati durante la fase di rilevamento dei dati a partire dal modello fisico e nella fase successiva di trattamento dei dati.

Particolarmente utile nella prima fase di rilevamento dei dati è la metodica del campionamento statistico (in inglese sampling), che consiste nel selezionare una particolare serie di dati all'interno dell'intervallo di condizioni studiate.

Una volta ottenuti i dati, viene effettuata la cosiddetta analisi di regressione, che permette di ottenere dall'insieme di dati più o meno sparsi (in quanto affetti da errori di varia natura) una relazione matematica precisa. Nel caso più semplice in cui la relazione matematica tra i dati venga rappresentata da una retta, si parla di regressione lineare.

Prima dell'avvento del metodo scientifico, l'interpretazione dei fenomeni naturali era riservato alla filosofia, per cui per lungo tempo la fisica fu denominata "filosofia naturale".

Tra i primi tentativi di descrivere la materia in ambito filosofico, si ricorda Talete. Successivamente Democrito tentò di descrivere la materia attraverso i concetti di vuoto e atomo.

In generale, gli elementi che caratterizzano il modello matematico di un sistema fisico sono due: lo spazio degli stati e la dinamica. Il primo è un insieme che contiene tutti i possibili stati in cui il sistema si può trovare, dove per stato si intende una collezione di grandezze fisiche che, se conosciute in un certo istante, sono sufficienti per predire come evolverà il sistema, cioè quali stati saranno occupati negli istanti futuri; ad esempio, per un sistema meccanico di n particelle libere di muoversi nello spazio, uno stato è un insieme di 6n numeri reali, 3n per le posizioni (3 coordinate per ogni particella), e i restanti 3n per le velocità (3 componenti per ogni particella). Lo spazio degli stati può essere molto complicato, sia geometricamente (ad esempio nella meccanica dei sistemi vincolati e nella teoria della relatività generale, dove in genere è una varietà differenziale, i.e. uno spazio "curvo") che analiticamente (ad esempio in meccanica quantistica, dove è uno spazio di Hilbert proiettivizzato, i.e. l'insieme delle rette passanti per l'origine in uno spazio di Hilbert). La dinamica, invece, è la legge che, dato uno stato iniziale, descrive l'evoluzione del sistema. Solitamente, è data in forma differenziale, cioè collega lo stato in un certo istante a quello in un istante successivo "infinitamente vicino" nel tempo.

Le più grandi rivoluzioni della fisica moderna (la teoria della relatività generale, la meccanica quantistica e la teoria quantistica dei campi) sono legate alla inadeguatezza degli spazi degli stati che si incontrano nella fisica classica a descrivere i nuovi fenomeni sperimentali riscontrati verso la fine del 1800 e l'inizio del 1900 ( l'esperimento di Michelson-Morley e i vari esperimenti in cui si presentano fenomeni quantistici, tra cui, l'esperimento della doppia fenditura, il corpo nero, l'effetto fotoelettrico e l'effetto Compton).

Considerazioni a livello puramente matematico possono portare a conclusioni rilevanti a livello fisico. Ad esempio, da un ragionamento sulle leggi di conservazione, si può dedurre che lo spazio degli stati di un corpo rigido che ruota attorno ad un punto fisso in assenza di forze esterne è una superficie immersa in uno spazio a 6 dimensioni che rapresenta le variazioni infinitesime delle rotazioni nello spazio tridimensionale (tecnicamente una sottovarietà differenziale bidimensionale orientabile del fibrato tangente di SO(3)). Questa superficie deve ammette un campo vettoriale ovunque non nullo. La topologia e la geometria differenziale assicurano allora che è un toro, e quindi che il moto è la sovrapposizione di due moti periodici.

La fisica è strettamente connessa alla chimica (la scienza delle molecole) con cui si è sviluppata di pari passo nel corso degli ultimi due secoli. La chimica prende molti concetti dalla fisica, soprattutto nei campi di termodinamica, elettromagnetismo, e meccanica quantistica. Tuttavia i fenomeni chimici sono talmente complessi e vari da costituire una branca del sapere distinta.

Nella chimica, come nella fisica, esiste il concetto di forza come "interazione tra i corpi". Nel caso della chimica "i corpi" hanno dimensioni dell'ordine dell'Angstrom, e sono appunto le molecole, gli atomi, gli ioni, i complessi attivati, e altre particelle di dimensioni ad essi confrontabili. Le forze di interazione tra questi corpi sono i legami chimici (legami intramolecolari) e altre forze di interazione più blande (ad esempio le forze di Van der Waals, il legame a idrogeno e le forze di London).

L'approccio metodologico utilizzato nel campo della fisica è applicato a problematiche di tipo economico nell'ambito della disciplina denominata econofisica.

Ad esempio vengono studiate le fluttuazioni dei mercati finanziari e i crash del mercato azionario a partire da modelli normalmente utilizzati per studiare fenomeni di tipo fisico, quali: modelli di percolazione, modelli derivati dalla geometria frattale, modelli di arresto cardiaco, criticalità auto-organizzata e previsione dei terremoti.

Per la parte superiore



Fisica nucleare e subnucleare

La fisica nucleare è la branca della fisica che studia il nucleo atomico nei suoi costituenti protoni e neutroni e le loro interazioni.

La fisica nucleare si distingue dalla fisica atomica che invece studia l'atomo, sistema composto dal nucleo atomico e dagli elettroni.

La fisica nucleare si distingue a sua volta dalla fisica delle particelle o fisica subnucleare che invece ha come oggetto lo studio delle particelle più piccole del nucleo atomico. La fisica delle particelle o subnucleare è stata per molto tempo considerata una branca della fisica nucleare. Il termine fisica subnucleare sta cadendo in disuso poiché si riferiva allo studio di particelle interne al nucleo, mentre oggi la maggior parte delle particelle note non sono costituenti nucleari.

L'energia nucleare è la più comune applicazione della fisica nucleare, ma il campo di ricerca è anche alla base di molte altre importanti applicazioni, come in medicina (medicina nucleare, risonanza magnetica nucleare), in scienza dei materiali (implantazioni ioniche) o archeologia (radiodatazione al carbonio).

La fisica nucleare è principalmente divisa in fisica della struttura nucleare, che comprende tutte le teorie riguardanti la formazione, la coesione e le proprietà statiche misurabili dei nuclei (come la loro massa, i loro livelli energetici, i decadimenti ecc.) e fisica delle reazioni nucleari, che studiano i processi in cui due o più nuclei interagiscono collidendo in vario modo per formare altri nuclei, magari emettendo altre particelle, frammentandosi, fondendo o semplicemente cambiando il loro stato di moto.

Le due sottodiscipline sono interconnesse, nel senso che le nostre informazioni sulla struttura ci pervengono quasi unicamente dallo studio delle reazioni e dei decadimenti (naturali o artificiali). Le reazioni nucleari che si manifestano in natura sono i decadimenti radioattivi o trasmutazioni e le reazioni termonucleari che avvengono nelle stelle, generando luce, calore e altre radiazioni. In laboratorio si utilizzano acceleratori di particelle (come ad esempio il generatore di Van de Graaff, i linac, i tokamak, i betatroni o i sincrotroni) per studiare le reazioni nucleari o per ricreare le condizioni del plasma stellare.

La storia dell’atomo ha origini antichissime, già nell’antica Grecia, Democrito (Ipotesi atomica di Democrito) parlava di atomi, come di particelle indivisibili che compongono la materia. Nel XIX secolo vennero scritte le prime teorie riguardanti l’atomo sulla base dei pochi dati sperimentali di allora.

Nel 1897 Joseph John Thomson ipotizzò che l’atomo fosse una sfera omogenea composta da particelle più piccole cariche positivamente e di elettroni senza che però avessero una precisa disposizione nello spazio.

Ernest Rutherford ipotizzò che la massa e la carica elettrica positiva fossero concentrate in una parte molto piccola dell'atomo chiamata nucleo, e che gli elettroni si trovavano nella zona periferica, a grande distanza dal nucleo. Riuscì a dimostrare ciò bombardando una lamina d’oro con particelle alfa (elio) che venivano emesse da polonio radioattivo (scattering Rutherford). Se la teoria di J.J. Thomson fosse stata valida le particelle alfa si sarebbero sempre comportate allo stesso modo, invece alcune particelle superavano la lamina, altre venivano deviate. Rutherford ipotizzò che le particelle deviate dovevano passare vicino al nucleo carico positivamente, mentre quelle che superavano la lamina passavano nello spazio tra il nucleo e gli elettroni. Riuscì a valutare l’angolo di deviazione predisponendo dei riflettori in solfuro di zinco sensibili alle particelle alfa.

Nel 1913 il modello di Rutherford fu migliorato da Niels Bohr il quale sosteneva che gli elettroni ruotassero intorno al nucleo cambiando orbita a seconda se ricevevano o perdevano energia.

L’ultimo modello è il modello quantistico secondo il quale non è possibile sapere con precisione dove si trova l'elettrone ma è possibile determinare in quale luogo andrà con una certa probabilità.

Il modello nucleare a goccia fu ipotizzato nel 1939 da Niels Bohr e da John Archibald Wheeler per spiegare la perdita di massa durante una fissione nucleare (difetto di massa). Quando il nucleo viene colpito da un neutrone si produce un assorbimento di questa particella da parte del nucleo stesso e ciò causa un eccesso di energia che determina un moto oscillatorio (come una goccia di liquido che ha assorbito energia meccanica). Il moto oscillatorio causa quindi un allungamento del nucleo finché questo non si rompe (fissione nucleare).

Il modello a goccia è in grado di spiegare le proprietà del nucleo durante la fissione nucleare, ma non dei singoli nucleoni. Secondo il modello a guscio (shell, o a strati) i nucleoni hanno proprietà simili a quelle degli elettroni intorno al nucleo, ovvero essi si trovano su orbitali dove agiscono forze nucleari attrattive. Quando il numero di neutroni o protoni corrisponde ai cosiddetti "numeri magici" (2, 8, 20, 28, 50, 82 e 126) i nuclei sono particolarmente stabili, mentre nucleoni successivamente aggiunti risultano debolmente legati (1 - 2 MeV). Secondo il modello a strati, all'interno del nucleo i nucleoni si riuniscono in coppie del tipo n-n e p-p.

Le forze nucleari (o interazioni nucleari) permettono l'esistenza e la trasformazione del nucleo atomico. Le forze nucleari, forza nucleare forte e forza nucleare debole rientrano nel modello standard insieme a interazione elettromagnetica e forza di gravità.

La forza nucleare forte è quella forza che vincendo l'interazione elettromagnetica permette l'esistenza del nucleo. Il nucleo infatti composto da protoni (carichi positivamente) e neutroni (senza carica) non potrebbe esistere a causa dell'interazione elettromagnetica che tende ad allontanare i protoni. I protoni ed i neutroni (chiamati genericamente nucleoni) non sono particelle elementari, ma sono dotate di una struttura interna. I loro componenti, i quark, interagiscono per mezzo dei gluoni a gruppi di tre (barioni), o due (mesoni). L'intensità di questa forza aumenta con l'aumentare della distanza tra quark, come in un elastico. Tuttavia, la maggior parte delle proprietà dei nuclei e della materia nucleare che si trova all'interno delle stelle compatte, come ad esempio le stelle di neutroni, sono descrivibili in termini di una interazione che ha come gradi di libertà solo i nucleoni. Tale interazione è quindi una interazione efficace, ed è generalmente denominata come interazione nucleare. L'interazione nucleare è caratterizzata da tre parti principali: una, valida a piccole distanze che è fortemente repulsiva, una a distanze intermedie dovuta allo scambio di due o più pioni e a quello di mesoni più pesanti del pione, ed infine una a grandi distanze dovuta allo scmabio di un solo pione e chiamata One Pion Exchange Potential (OPEP). Le prime due componenti sono largamente fenomenologiche e non si riesce a tutt'oggi a derivarle partendo direttamente dalla interazione fondamentale esistente tra i quark o più propriamente dal modello standard. Le forze nucleari sono fortemente dipendenti dallo spin dei nucleoni e dalla natura del nucleone, sia esso un protone o un neutrone. Inoltre hanno dei termini importanti che violano la simmetria rotazionale ed altri che sono non locali. Uno di questi è la forza tensoriale, cosí chiamata perché ha la struttura di un tensore nelle variabili che caratterizzano la distanza tra due nucleoni. Questa forza è largamente responsabile del legame che tiene uniti i nucleoni per formare un nucleo, e sta alla base di molte proprietà nucleari. Da più di una decade sappiamo inoltre che l'interazione nucleare deve anche avere forze a tre corpi per poter descrivere le proprietà dei nuclei (il che conferma la sua natura di forza effettiva e non fondamentale). La repulsione a corte distanze, la forte dipendenza dallo spin, la natura tensoriale delle forze a due corpi, la loro non località e le forze a tre corpi rendono molto complessa la risoluzione della equazione di Schroedinger per i nuclei e per la materia nucleare. Questa è infatti materia di un importante campo di ricerca che si chiama problema nucleare dei molti corpi. Dato il carattere prettamente fenomenologico della interazione nucleare, questa deve essere determinata riproducendo tutti i dati sperimentali di bassa energia che caratterizzano il sistema di due nucleoni e le proprietà dei nuclei. Ciò tuttavia non porta univocamente ad una interazione nucleare. Esistono infatti varie interazioni nucleari che prendono il nome dalle città o dai laboratori in cui sono state derivate (Argonne, Urbana, Parigi, Bonn, etc.. ). Tutti queste interazioni fenomenologiche riproducono molto bene le proprietà del deutone e i dati di scattering nucleone-nucleone fino a circa 400 MeV e abbastanza bene le proprietà di bassa energia dei nuclei leggeri. Sembrano tuttavia non adeguate per descrivere le proprietà della materia nucleare a medie e medio-alte densità, che invocano forze a più di tre corpi e/o delle correzioni relativistiche. Per non parlare delle alte densità dove avvicinandoci alla transizione quark-glon plasma, un modello di interazione basato sui gradi di libertà nucleonici non va più bene.

L'interazione debole può avvenire tra leptoni e quark (interazioni semileptoniche), tra soli leptoni (interazioni leptoniche) o tra soli quark (interazioni non leptoniche), grazie allo scambio, secondo Modello Standard della fisica delle particelle, di bosoni vettori molto massivi, detti W± e Z0. Poiché tutti i leptoni sono interessati dagli effetti dell'interazione debole, risulta che essa è la sola forza che interviene sui neutrini negli esperimenti di laboratorio, per i quali la gravità è trascurabile. La forza debole è la responsabile del decadimento beta dei nuclei atomici, associato alla radioattività, per il quale un neutrone si trasforma in un protone o viceversa, con l'emissione di elettroni (radiazione beta) e neutrini.

Nel neutrone iniziale composto di due quark down e un quark up, un quark down emette un bosone W − , per interazione della forza nucleare debole, trasformandosi in quark up (quindi il neutrone è diventato un protone). Il bosone W decade in un elettrone e in un antineutrino che si allontanano dal nucleo.

La radioattività, o decadimento dell'atomo, è quel fenomeno per cui atomi instabili perdono materia per diventare stabili (e quindi con una massa più piccola). La radioattività è molto pericolosa per gli esseri viventi perché le particelle rilasciate possono modificare la struttura delle cellule. In medicina le radiazioni vengono usate per curare tumori o per osservare l'interno del corpo umano. Il tempo di decadimento è inversamente proporzionale alla perdita di massa dell'atomo e varia per ogni elemento.

Si considerino, per fissare le idee, due scatole di scarpe senza coperchio identiche e incollate fra loro. In una si mettano un po' di palline che chiameremo neutroni, nell'altra un po' di palline che chiameremo protoni. Le prime hanno una massa leggermente maggiore, mentre le seconde possiedono una debole carica elettrica (debole rispetto alla forza nucleare).

Per simulare l'elevata temperatura del nucleo atomico, si agitino le scatole. Può succedere talvolta che una pallina cada fuori e finisca sul pavimento (radioattività alfa), oppure che passi da una scatola all'altra (radioattività beta), o ancora che finisca sul bordo, resti in equilibrio un po' e poi torni in una scatola (radioattività gamma).

Nel decadimento alfa l'atomo perde una particella α cioè un atomo di elio privo dei suoi elettroni (due protoni e due neutroni). Il decadimento α non è molto forte e basta un foglio di carta per bloccare una particella α. Il radio (Ra226) è instabile e tende a perdere due neutroni e due protoni trasformandosi in Radon (Rn222).

La radioattività beta si verifica quando il numero di protoni e il numero di neutroni in un nucleo sono molto diversi fra loro. Accade allora che uno o più nucleoni si trasformi in un nucleone dell'altra famiglia per riequilibrare il nucleo. Durante la trasformazione viene emesso un elettrone, tuttavia durante il passaggio si deve avere conservazione della carica elettrica, della massa-energia e dello spin. Negli esperimenti risultava sempre una perdita di energia.

Nel 1927 Pauli ipotizza l'esistenza del neutrino che "porti" l'energia mancante. Nel 1933 Fermi sostiene che la coppia elettrone-neutrino sia causata dalla forza nucleare debole.

Il decadimento gamma è una radiazione elettromagnetica ad alta frequenza. Essa non consiste nell'emissione di materia ed è provocata dall'annichilimento di un elettrone e un positrone. Essendo una radiazione ad alta frequenza è molto pericolosa e penetrante, per fermarla occorrono diversi centimetri di piombo.

Una reazione nucleare è un tipo di trasformazione della materia che, a differenza di una reazione chimica, riguarda il nucleo di un atomo di uno specifico elemento chimico, che viene convertito in un altro.

La conversione avviene quando l'atomo perde o guadagna alcuni protoni, assorbendo o rilasciando in queste trasformazioni grandi quantità di energia. Più precisamente, nelle reazioni nucleari i nuclei dei reagenti sono diversi dai nuclei dei prodotti finali, che possono quindi essere sia degli isotopi (cioè atomi dello stesso elemento chimico quindi con lo stesso numero atomico, ma con differente numero di massa), dei reagenti iniziali sia elementi chimici completamente differenti. L'energia minima necessaria che deve possedere un reagente, affinché la reazione abbia luogo, deve almeno eguagliare l'energia di barriera.

Le principali reazioni nucleari sono la fissione nucleare, la fusione nucleare e l'annichilazione dell'antimateria: nella prima avviene una divisione di uno o più atomi, nella seconda l'unione di due o più atomi. (La fissione nucleare è alla base della tecnologia dell'energia nucleare, la seconda è alla base della emissione di energia delle stelle). L'ultima invece avviene quando una particella e la sua antiparticella entrano in contatto trasformandosi completamente in energia.

La fusione nucleare è un processo fisico ritrovabile in natura, ad esempio negli astri luminosi (stelle). Tale reazione nucleare è caratterizzata dalla fusione (da cui il nome) di due atomi di massa irrisoria (solitamente isotopi). Durante il processo di fusione parte della massa dei due atomi viene convertita in calore e luce in quantità estremamente alte. Questo processo nucleare nasce con esperimenti avvenuti durante gli anni Sessanta in tempo di guerra fredda, in risposta alla corsa agli armamenti e al clima di instabilità politica. Il primo utilizzo fu quello a scopo militare con la creazione della Bomba H (o bomba a idrogeno): essa prevedeva una reazione termonucleare dovuta alla fusione di due isotopi di idrogeno. Il problema che riscontrarono i progettisti coinvolgeva però l'innesco della reazione di fusione, infatti tale reazione risulta possibile solamente a temperature che sfiorano i milioni di gradi centigradi, per risolvere il problema l'innesco della Bomba H fu costruito all'interno di una classica bomba nucleare a fissione che, fornendo temperature estremamente alte, poteva innescare la reazione di fusione nucleare. Tali ordigni vennero sviluppati a partire dagli anni Sessanta nei territori delle superpotenze USA e URSS. L'applicazione civile di tale tecnologia risulta essere impraticabile, in quanto le alte temperature scaturite dalla stessa risultano incompatibili con qualsiasi materiale naturale o artificiale, infatti sono in fase di studio tecniche di fusione a freddo per la produzione di elettricità, anche se l'interesse mondiale per questa forma di produzione energetica poco inquinante pare non essere molto accentuato. Va fatto presente che i prodotti delle reazioni termonucleari di fusione atomica originata da isotopi di idrogeno, presenti in quantità quasi illimitate sulla Terra, sono del tutto innocui a qualunque forma di vita. Alcuni teorici però affermano che i processi di fusione nucleare controllata siano già stati sperimantati con successo, solo che la divulgazione scientifica ancora non afferma di poter utilizzare tale tecnica.

La fissione nucleare è il processo di scissione di atomi pesanti (con elevato numero atomico) instabili che porta alla formazione di due atomi più leggeri e stabili. Questo processo(indotto dall'uomo)sprigiona un'enorme quantità di energia data dalla differenza di massa tra l'atomo di partenza e i prodotti finali. La fissione ha inizio con la cattura di un neutrone(il quale essendo neutro non viene deviato dalle varie cariche)da parte del nucleo, che diventando instabile si divide in due parti e rilascia almeno due neutroni che colpiscono altri nuclei pesanti generando una reazione a catena.

L'annichilazione avviene quando una particella collide con un'antiparticella. Nel processo entrambi le particelle spariscono, e la loro massa si trasforma in energia che si manifesta con l'emissione di nuove particelle o radiazione.

I possibili prodotti dell'annichilazione dipendono dal tipo di interazione che può avvenire tra le particelle iniziali e dalla loro cinematica.

L'elenco delle particelle che sono state identificate, denominate e studiate con l'uso combinato di processi verificatisi in raggi cosmici ed in acceleratori di particelle fa salire il numero totale delle particelle a varie decine.

Dall'esame di queste particelle si è visto che esse sono stabili oppure si disintegrano spontaneamente (cioè decadono) con una vita media caratteristica. Per qualche tempo (intorno agli anni 1970) i fisici hanno chiamato risonanze quelle particelle che decadono in tempi inferiori a 10-23s (decadimento forte). Il termine è andato in disuso con la progressiva accettazione del modello standard.

I fermioni obbediscono al principio di esclusione di Pauli: due fermioni identici non possono occupare simultaneamente lo stesso stato quantico.

I bosoni, che seguono la Statistica di Bose-Einstein, sono invece liberi di affollare lo stesso stato quantico.

In fisica delle particelle, i bosoni di gauge sono particelle elementari che hanno il compito di trasportare le forze fondamentali della Natura.

La Cromodinamica Quantistica (QCD) è una teoria fisica che descrive una delle forze fondamentali: l'interazione forte. È stata proposta per la prima volta nei primi anni Settanta da Frank Wilczek e David Gross. Usa la teoria quantistica di campo per descrivere l'interazione tra quark e gluoni. Il nome deriva per analogia con la QED, Quantum ElectroDynamics (elettrodinamica quantistica).

Secondo il Modello Standard la materia è costituita da particelle dette fermioni che interagiscono fra loro grazie alle interazioni fondamentali mediate da altre particelle elementari dette bosoni. I fermioni sono raggruppati in tre famiglie: la prima, composta dai quark e dai leptoni di massa minore, contiene il quark up e down, l'elettrone, il suo neutrino, e le proprie antiparticelle. I quark up e down si combinano tra loro in gruppi di tre quark per formare i barioni che comprendono i protoni e neutroni, e in gruppi di due per formare i mesoni. Il protone è formato da due quark UP e un DOWN con carica totale di +1. Un neutrone, invece, è formato da due quark DOWN e un quark UP, che danno carica totale pari a zero. I barioni insieme ai mesoni sono classificati nella famiglia degli adroni. Si ritiene che i quark non esistano da soli ma solo in gruppi di due o tre (e, più recentemente, cinque); tutte le ricerche di quark singoli, fin dal 1977 hanno avuto esito negativo. Le altre varietà di quark possono essere prodotte solo negli acceleratori di particelle, e decadono rapidamente in quark UP e DOWN e nei cosiddetti quark CENTER, se la carica di energia raggiunge +2/3 e resta costante.

In fisica, i gluoni sono le particelle elementari, responsabili della forza nucleare forte. Essi tengono uniti assieme i quark, per formare protoni e neutroni; la loro carica elettrica è zero, il loro spin è 1, generalmente si assume che abbiano massa zero. I gluoni sono responsabili della stabilità del nucleo atomico.

Una loro combinazione si chiama glueball, palla di colla, gioco di parole con gluone, colla e palla.

Per la parte superiore



Materia (fisica)

Il granito non ha una composizione globale uniforme.

In fisica classica, con materia genericamente si indica qualsiasi cosa che abbia massa e occupi spazio o alternativamente la sostanza di cui gli oggetti fisici sono composti, escludendo l'energia dovuta al contributo dei campi delle forze.

Questa definizione, sufficiente per la fisica macroscopica (meccanica, termodinamica etc), non è più adatta per la moderna fisica atomica e subatomica, per cui lo spazio occupato da un oggetto è prevalentemente vuoto, e l'energia è equivalente alla massa (E=mc²). Si può invece adottare la definizione che la materia è costituita da una certa classe delle più piccole, fondamentali entità fisicamente rilevabili: queste particelle sono dette fermioni e seguono il principio di esclusione di Pauli, che stabilisce che non più di due fermioni possono esistere nello stesso stato quantistico. A causa di questo principio, le particelle che compongono la materia non sono tutte nello stato di energia minima e quindi è possibile creare strutture stabili di assemblati di fermioni.

Particelle della classe complementare, i bosoni, costituiscono invece i campi, essi possono quindi esseri considerati gli agenti operanti gli assemblaggi dei fermioni o le loro modificazioni, interazioni e scambi di energia. Una metafora non del tutto corretta da un punto di vista fisico, ma efficace e intuitiva, vede i fermioni come i mattoncini che costituiscono la materia dell'universo, e i bosoni come le colle o i cementi che li tengono assieme in certi modi per costituire la realtà fisica.

Tutto ciò che occupa spazio e ha massa è conosciuto come materia. In fisica, non c'è un largo consenso per una comune definizione di materia, in parte perché la nozione di "occupare spazio" è mal definita e inconsistente nel quadro della meccanica quantistica. I fisici non definiscono con precisione cosa si deve intendere per materia, preferendo invece utilizzare e rivolgersi a concetti più specifici di massa, energia e particelle.

La materia è definita al più da alcuni fisici come tutto ciò che è composto da fermioni elementari. Questi sono i leptoni, come ad esempio gli elettroni, e i quark, inclusi quelli up e down che costituiscono i protoni e i neutroni. Dato che elettroni, protoni e neutroni si aggregano insieme a costituire atomi, questi fermioni da soli costituiscono tutta la sostanza elementare che forma tutta la materia ordinaria. La proprietà rilevante dei fermioni è che essi hanno spin semi-intero (per esempio 1/2, 3/2, 5/2 ...) e quindi devono seguire il principio di esclusione di Pauli, che vieta a due fermioni di occupare lo stesso stato quantistico. Questo sembra corrispondere all'elementare proprietà di impenetrabilità della materia e all'antico concetto di occupazione dello spazio.

Secondo questa visione, non sono materia la luce (costituita da fotoni), i gravitoni e i mesoni (a parte i muoni, tipi di leptoni chiamati con ambiguità mesoni prima che la distinzione fra di loro fosse chiara). Questi hanno spin intero (0, 1, 2, 3, ...), non seguono il principio di esclusione di Pauli e quindi non si può dire che occupino spazio nel senso sopra menzionato. Ciò nonostante hanno tutti energia per cui (in accordo con l'equivalenza relativistica massa-energia) hanno anche massa. Perciò sotto questa definizione esistono particelle che hanno massa senza avere materia.

La parte principale della massa di protoni e neutroni proviene dall'energia cinetica dei quark e dalla massa dei gluoni (un tipo di bosoni) che li legano, quindi non solamente dai quark stessi. La definizione di materia come formata da fermioni soffre perciò del problema primario che la gran parte della massa (più del 99%) della "materia ordinaria" non è composta da fermioni (quark e leptoni) ma dalla loro energia cinetica e dai bosoni.

Secondo la visione classica ed intuitiva della materia, tutti gli oggetti solidi occupano uno spazio che non può essere occupato contemporaneamente da un altro oggetto. Ciò significa che la materia occupa uno spazio che non può contemporaneamente essere occupato da un'altra materia, ovvero la materia è impenetrabile (principio dell'impenetrabilità).

La massa inerziale di una certa quantità di materia, ad esempio di un dato oggetto, che una bilancia misura per confronto con un'altra massa, rimane invariata in ogni angolo dell'universo, ed è quindi considerata una proprietà intrinseca della materia. L'unità con cui si misura la massa inerziale è il chilogrammo.

Viceversa, il peso è una misura della forza di gravità con cui la Terra attira verso di se un corpo avente una massa gravitazionale; come tale, il peso di un dato corpo cambia a seconda del luogo in cui lo misuriamo - in diversi punti della Terra, nello spazio cosmico o in un altro pianeta. Il peso quindi non è una proprietà intrinseca della materia. Come altre forze statiche, il peso può essere misurato con un dinamometro.

Massa inerziale e massa gravitazionale sono due concetti distinti nella meccanica classica, ma sono state sempre trovate uguali sperimentalmente. È solo con l'avvento della relatività generale che abbiamo una teoria che interpreta la loro identità.

La densità superficiale e volumica di materia nel mondo subatomico è minore che nell'universo macroscopico. Nel mondo degli atomi le masse occupano in generale volumi maggiori (minore densità di volume) e si trovano a distanze maggiori (più bassa densità di superficie) di quelle che separano pianeti, stelle, galassie (v. ). Fra i costituenti della materia prevale il vuoto.

La materia omogenea ha composizione e proprietà uniformi. Può essere una mistura, come il vetro, un composto chimico come l'acqua, o elementare, come rame puro. La materia eterogenea, come per esempio il granito, non ha una composizione definita.

E' di fondamentale importanza nella determinazione delle proprietà macroscopiche della materia la conoscenza delle strutture a livello microscopico (ad esempio l'esatta configurazione delle molecole e dei cristalli), la conoscenza delle interazioni e delle forze che agiscono a livello fondamentale unendo fra loro i costituenti fondamentali (come le forze di london e legami di Van der Waals) e la determinazione del comportamento delle singole macrostrutture quando interagiscono fra loro (ad esempio le relazioni solvente - soluto o quelle che sussistono fra i vari microcristalli nelle rocce come il granito).

I quark sono particelle a spin semi-intero e quindi sono dei fermioni. Hanno un carica elettrica uguale a meno un terzo di quella dell'elettrone , per quelli di tipo down, e uguale invece a due terzi per quelli di tipo up. I quark hanno anche una carica di colore, che è l'equivalente della carica elettrica per le interazioni deboli. I quark sono anche particelle massive e sono quindi soggetti alla forza di gravità.

In risposta a differenti condizioni termodinamiche come la temperatura e la pressione, la materia si presenta in diverse "fasi", le più familiari (perché sperimentate quotidianamente) delle quali sono: solida, liquida e gassosa. Altre fasi includono il plasma, il superfluido e il condensato di Bose-Einstein. Il processo per cui la materia passa da una fase ad un'altra, viene definito transizione di fase, un fenomeno studiato principalmente dalla termodinamica e dalla teoria del caos.

Le fasi sono a volte chiamate stati della materia, ma questo termine può creare confusione con gli stati termodinamici. Per esempio due gas mantenuti a pressioni differenti hanno diversi stati termodinamici, ma lo stesso "stato" di materia.

I solidi sono caratterizzati da una tendenza a conservare la loro integrità strutturale e la loro forma, al contrario di ciò che accade per liquidi e gas. Molti solidi, come le rocce, sono caratterizzati da una forte rigidità, e se le sollecitazioni esterne sono molto alte, tendono a spezzarsi e a rompersi. Altri solidi, come gomma e carta, sono caratterizzati invece da una maggiore flessibilità. I solidi sono di solito composti da strutture cristalline o lunghe catene di molecole (ad esempio polimeri).

In un liquido, le molecole, pur essendo vicine fra di loro, sono libere di muoversi, ma al contrario dei gas, esistono delle forze più deboli di quelle dei solidi che creano dei legami di breve durata (ad esempio, il legame a idrogeno). I liquidi hanno quindi una coesione e una viscosità, ma non sono rigidi e tendono ad assumere la forma del recipiente che li contiene.

Un gas è una sostanza composta da piccole molecole separate da grandi spazi e con una debolissima interazione reciproca. Quindi i gas non offrono alcuna resistenza a cambiare forma, a parte l'inerzia delle molecole di cui è composto.

La materia chimica è la parte dell'universo composta da atomi chimici. Questa parte dell'universo non include la materia e l'energia oscura, buchi neri, stelle a neutroni e varie forme di materia degenerata, che si trova ad esempio in corpi celesti come la nana bianca. Dati recenti del Wilkinson Microwave Anisotropy Probe (WMAP), suggeriscono che solo il 4% della massa totale dell'intero universo visibile ai nostri telescopi sia costituita da materia chimica. Circa il 22% è materia oscura, il restante 74% è energia oscura.

La materia che osserviamo è generalmente nella forma di composti chimici, di polimeri, leghe o elementi puri.

Nelle particelle fisiche e nella chimica quantistica, l'antimateria è composta dalle rispettive antiparticelle che costituiscono la normale materia. Se una particella e la sua antiparticella si incontrano tra loro, le due annichiliscono; si convertono cioè in altre particelle o più spesso in radiazione elettromagnetica di eguale energia in accordo con l'equazione di Einstein E = mc2.

L'antimateria non si trova naturalmente sulla Terra, eccetto quantità piccole e di breve durata (come risultato di decadimenti radioattivi o raggi cosmici). Questo perché l'antimateria che si crea fuori dai confini dei laboratori fisici incontra immediatamente materia ordinaria con cui annichilirsi. Antiparticelle ed altre forme di stabile antimateria (come antiidrogeno) possono essere create in piccole quantità, ma non abbastanza per fare altro oltre a test delle proprietà teoriche negli acceleratori di particelle.

C'è una considerevole speculazione nella scienza e nei film su come mai l'intero universo sia apparentemente composto da ordinaria materia, sebbene sia possibile che altri posti siano composti interamente da antimateria. Probabili spiegazioni di questi fatti possono arrivare considerando asimmetrie nel comportamento della materia rispetto all'antimateria.

In cosmologia, effetti a larga scala sembrano indicare la presenza di un incredibile ammontare di materia oscura che non è associata alla radiazione elettromagnetica. La teoria del Big Bang richiede che questa materia abbia energia e massa, ma non è composta né da fermioni elementari né da bosoni. E' composta invece da particelle che non sono mai state osservate in laboratorio (forse particelle supersimmetriche).

La materia esotica è un ipotetico concetto di particelle fisiche. Si riferisce a ogni materia che viola una o più delle classiche condizioni e non è costituita da particelle barioniche note.

Nel medioevo e nell'antichità era radicata la convinzione aristotelica che la materia fosse composta da quattro elementi: terra, aria, acqua e fuoco. Ciascuno di questi, avendo un diverso "peso", tende verso il proprio luogo naturale, lasciando al centro dell'universo la terra e l'acqua, facendo invece salire verso l'alto aria e fuoco. Inoltre si credeva che la materia fosse un insieme continuo, privo completamente del vuoto (la natura aborre il vuoto, horror vacui). Oggi invece si è scoperto che la materia è al contrario composta per oltre il 99 % di vuoto.

Un grossa disputa nella filosofia greca riguardò la possibilità che la materia possa essere divisa indefinitamente in parti sempre più piccole. Contrari a questa ipotesi, gli atomisti erano invece convinti che vi fosse una struttura elementare costituente la materia non ulteriormente divisibile.

Per la parte superiore



Source : Wikipedia