Go to content Go to navigation Go to search

materia, energia, informazione · 2009-12-28 by mmzz

  1. massa = [misura della] quantità di materia [in un oggetto]
  2. energia = [misura della] possibilità [di un sistema] di compiere lavoro
  3. informazione = [misura della] quantità di stati che è possibile distinguere [in un sistema]

Dell’informazione va detto che “Information is inevitably tied to a physical representation and therefore to restrictions and possibilities related to the laws of physics and the parts available in the universe.”1

le tre definizioni si riferiscono a due elementi invarianti e uno variabile. Le parti invarianti sono (1) il processo di misurazione attraverso il quale l’osservatore è in grado di porre in relazione una osservazione con altre confrontabili (ad esempio attraverso un numero o un ordinamento); (2) il confine dell’oggetto o sistema, che deve essere (nei limiti del possibile) chiuso e definito nel corso della misurazione. La parte variabile è appunto l’oggetto della misura, ciò che la misura intende rilevare in quanto è variabile. La misurazione presuppone in chi la compie un modello dell’oggetto o del sistema.

Vi è un principio di equivalenza massa-energia (Einstein) ma —al momento, che sappia — nessun principio di equivalenza massa-informazione o informazione-energia. Mentre è possibile (anche solo teoricamente) trasformare materia in energia e viceversa, non è possibile trarre materia o energia dall’informazione (magari!) o viceversa immaginare una trasformazione che converta materia in informazione (con la scomparsa della materia e la comparsa di informazione).
Credo sia possibie affermare che l’energia si può “trasformare” in informazione, nel senso che ogni processo di creazione, distruzione, trasformazione dell’informazione richiede (come qualsiasi altro processo) dissipazione di energia. Tuttavia anche l’ entropia del sistema aumenta sempre ogni volta che una di queste trasformazioni si compie, mentre l’informazione può aumentare nel caso questa trasformazione comporti la capacità di distinguere un maggior numero di stati nel sistema. Perciò l’aumento di entropia è necessario se vi è un aumento di informazione, ma non è sufficiente (cioè non tutti gli aumenti di entropia corrispondono ad un aumento di informazione).

Perciò lo scambio di materia e/o energia tra due sistemi, può comportare un aumento della informazione (ciò negli stati distinti) interna ai due sistemi, mentre sicuramente comporta un aumento dell’entropia nel sistema composto dai due sistemi in comunicazione e nel canale che essi usano.
Di solito chiamiamo comunicazione lo scambio di materia/energia (nella forma di segnali) che comporta un aumento dell’informazione.

L’aumento dell’informazione nel sistema avviene alle spese dell’ambiente, nel quale aumenta l’entropia.

[1] Rolf Landauer, The physical nature of information, Physics Letters A, Volume 217, Issues 4-5, 15 July 1996, Pages 188-193, ISSN 0375-9601, DOI: 10.1016/0375-9601(96)00453-7.

[2] Michael C. Parker, Stuart D. Walker, Information transfer and Landauer’s principle, Optics Communications, Volume 229, Issues 1-6, 2 January 2004, Pages 23-27, ISSN 0030-4018, DOI: 10.1016/j.optcom.2003.10.019

PS: Ringrazio roto per gli scambi di punti di vista sulla questione.