Dr. Gabriel Hernán Gebauer.
LA ENTROPÍA Y LA SEGUNDA LEY DE LA TERMODINÁMICAEn Termodinámica se reconoce a una 1ª Ley de la Termodinámica, conocida como "Ley de conservación de la energía" y que establece que hay cierta magnitud llamada "energía", la cual no varía con los múltiples cambios que ocurren en la naturaleza. Y se reconoce además a una 2ª Ley de la Termodinámica, la cual establece, por su parte, que existe otra magnitud llamada "entropía", que permanece constante en algunas transformaciones y que aumenta en otras, sin disminuir jamás. Aquellas trasformaciones en las cuales la entropía aumenta, se denominan "procesos irreversibles".La 2ª Ley de la Termodinámica se aplica solamente a sistemas aislados, es decir, a sistemas en los cuales las transformaciones implicadas quedan todas incluídas en ellos (como es el caso de la "dilución homeopática"). En sistemas abiertos, en cambio, así como la energía puede pasar de un sistema a otro –y entonces mientras uno la pierde, el otro la gana, pero el balance total es igual a cero-, lo mismo acontece con la entropía: si un sistema gana en entropía, su alrededor (que es otro sistema) la pierde, pero el balance total es nulo. Vale decir, al sistema más su alrededor se le considera como un sistema aislado –así se ha considerado al universo-. Éste es el caso, sin embargo, de los procesos reversibles, los cuales son procesos ideales (ya que no existen en la naturaleza).En los sistemas reales, y como tales escenarios de procesos irreversibles, el balance final de entropía es siempre positivo. Además, es muy importante señalar que la entropía aumenta en un sistema aislado hasta alcanzar un máximo, que es su estado de equilibrio (porque espontáneamente permanece en él).Desde fines del siglo XIX –allá por el año de 1872-, se empieza a reconocer con Ludwig Boltzmann que esta segunda Ley es una ley de naturaleza probabilística (o estadística). Esto quiere decir que no es imposible que en un sistema aislado pueda alguna vez disminuir su entropía, en lugar de aumentar. Esta aparente contradicción con lo estipulado por la segunda Ley, no es tal, pues la predicción de la ley está garantizada, en los hechos, por aquella otra ley que es principio fundamental de toda estadística: la llamada "ley de los grandes números". O sea, las excepciones se pierden en el conjunto inmensamente superior -en extensión- de los resultados esperados. Sin embargo, es posible la existencia de excepciones ; todavía más, podríamos decir que la existencia de excepciones es inevitable dada su naturaleza probabilística.Boltzmann –uno de los creadores, junto con J.W. Gibbs, de la Mecánica estadística- utilizó la teoría cinética de los gases, de acuerdo con la cual la cantidad de calor de un gas depende del movimiento irregular de sus moléculas, para mostrar que las colisiones entre moléculas conducen –según leyes estadísticas- a una igualación media de las diferencias de velocidad que ellas presentan.Así, las moléculas más rápidas que el promedio, pierden velocidad con cada choque; mientras las moléculas más lentas que el promedio, ganan velocidad al chocar con las moléculas más rápidas. Es precisamente esta igualación (o sea, desaparición de las diferencias) lo que constituye el estado de equilibrio –o estado de máxima entropía-.En palabras de Prigogine: "Dicho de otro modo, las colisiones entre las partículas aparecen como el mecanismo microscópico que conduce el sistema al equilibrio".(Ilya Prigogine, 1996, p.27.)Vale decir, el incremento de entropía durante los procesos físicos implica que los conjuntos bien ordenados de moléculas se transforman en conjuntos mal ordenados. El "orden" es aquí sinónimo de "diferencia" o de "heterogeneidad", lo cual no coincide necesariamente con el concepto de sentido común -o habitual de nuestra vida diaria- de orden. Para dar un ejemplo: si todas las moléculas rápidas –o sea, más rápidas que el promedio- se concentraran en la mitad izquierda del recipiente que las contiene, y las moléculas lentas –o sea, más lentas que el promedio- lo hicieran en su mitad derecha, tendríamos el estado de máximo orden (o el estado más alejado del estado de equilibrio, que es el estado de máximo desorden o entropía). Al sentido común, tal vez, le parecería más ordenado un estado homogéneo, es decir, un estado en que las moléculas están distribuídas en forma uniforme –donde en cualquier subespacio del sistema encontraríamos moléculas con una velocidad fluctuando muy poco alrededor del promedio-. Ésta es, sin embargo, la descripción del estado de equilibrio.De acuerdo con Boltzmann, las colisiones al azar entre las moléculas del gas (el llamado "caos molecular", que no es lo mismo que "el caos dinámico", del cual hablaremos después) son las responsables de esta igualación de las diferentes velocidades individuales, hasta alcanzar el estado de equilibrio termodinámico –en el cual el espectro de velocidades de las moléculas se distribuyen en una curva normal alrededor de la velocidad promedio (distribución de Maxwell)-. Destaquemos que el estado de equilibrio termodinámico es considerado por la Mecánica estadística como el estado de máxima probabilidad:"Para un conjunto macroscópico aislado, el mismo estado neto de equilibrio se predetermina mediante la Termodinámica como aquel en que la entropía llega a un valor máximo, y por medio de la Mecánica estadística como aquel que corresponde a una configuración predominante asociada con el número máximo de microestados". (L.K. Nash, 1974, p.53.)Ahora, ¿por qué se califica al estado de equilibrio como el equivalente al estado de máxima probabilidad de la Mecánica estadística? Porque las distribuciones en el espacio de velocidades cercanas o levemente diferentes a la velocidad promedio -vale decir, la configuración predominante- están en un número inmensamente superior a aquellas velocidades alejadas del promedio (aquellas moléculas o demasiado rápidas o demasiado lentas). La configuración predominante, entonces, constituye el estado más probable del sistema. Y el estado de máxima entropía corresponde así a una homogeneidad estadística. A pesar de ésto, no es imposible que el choque de las moléculas pueda producir resultados que van en contra de esta igualación, lo cual no invalida sin embargo a esta ley probabilística que es la 2ª Ley de la Termodinámica.Nada prohíbe que del choque de una molécula rápida con otra molécula lenta, por ejemplo, la molécula rápida se haga más rápida y la molécula lenta se haga más lenta. Este resultado va en contra de la tendencia igualitaria –o sea, la tendencia hacia el incremento de la entropía-, pero se puede producir perfectamente ; sólo que por ser su ocurrencia estadísticamente no significativa, se pierde en el resultado de conjunto que siempre representa un incremento de entropía (o desorden).Por otra parte, se habla de "estado de equilibrio" porque una vez que la distribución más probable ha sido alcanzada, permanece estacionaria. Pese a las colisiones posteriores que pueden hacer variar las velocidades individuales de las moléculas, la distribución de conjunto permanece invariable.Antes de hablar de la neguentropía, debemos aclarar un poco más los concepto de orden y desorden. Digamos previamente que la entropía es una función general que caracteriza el estado de un sistema -de un gas, por ejemplo- como un todo.Si distinguimos entre microestado y macroestado, el primero se refiere a las ordenaciones moleculares (o configuraciones moleculares) y el segundo a la clase de ordenaciones (o microestados) que son macroscópicamente indistinguibles entre sí. (Hans Reichenbach, 1959, pp.106-108.)Y agreguemos que las ordenaciones macroscópicamente indistiguibles poseen el mismo grado de orden. Por tanto, al macroestado correspondiente a un cierto microestado (a una cierta ordenación) se le puede denominar clase del mismo orden.De manera que el grado de desorden puede medirse por el número de ordenaciones que componen una clase del mismo orden, es decir, por su extensión, determinando así la configuración predominante. Recíprocamente, un alto grado de orden estará constituído por una clase del mismo orden que sea pequeña en extensión.Ésta es la concepción en la cual se basa la interpretación de la entropía como medida del desorden, o como medida inversa del orden, y por la cual la entropía –y con ella la probabilidad- aumenta en función del número de ordenaciones (o microestados) pertenecientes a una clase del mismo orden. Ahora, si en lugar de usar el concepto de entropía como medida inversa del orden de un sistema, utilizamos el concepto de neguentropía, será posible entonces hablar directamente del grado de orden del sistema considerado.
Hécto A. Chacón C.
Microcanonical, Canonical, Grand Canonical Ensembles. Bose-Einstein and Planck Distributions. Bose-Einstein Statistics. The Planck Distribution. Fermi-Dirac Distribution. Thermodynamics of the Free Fermion Gas. Ising Model, Mean Field Theory, Phases
domingo, 21 de marzo de 2010
UNA NUEVA TEORÍA ACERCA DE LAS 'DILUCIONES HOMEOPÁTICAS'
Etiquetas:
3 Héctor A. chacón C.
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario