
Con demasiada frecuencia sucede que un sistema (no necesariamente físico) depende de demasiadas variables que escapan a nuestro control. No solo de manejarlas sino de medirlas de forma continua. Sin embargo, en muchísimos casos es posible analizar el sistema en su conjunto sin necesidad de saber qué hace cada uno de sus componentes por separado. Ejemplos prácticos de esto serían la climatología, las predicciones en bolsa o las tiradas de monedas prolongadas en el tiempo. Sobre la aplicación de estos conceptos al análisis de personas recomiendo el libro «El átomo social«, sobre el que ya escribí en su momento.
En esta entrada veremos como, fundamentalmente gracias al físico Ludwig Boltzmann, a finales del siglo XIX fuimos capaces de relacionar lo microscópico con lo macroscópico y corroborar que las leyes de la naturaleza son coherentes a diferentes escalas.
Fundamentos de la mecánica estadística (cuántica):
Debido a nuestra incapacidad de medición, típicamente cuando analizamos una partícula en un estado ψ en realidad no se encuentra con rigor un estado concreto dado por las ecuaciones que la rigen, sino en una combinación de Ω estados ψi combinados mediante coeficientes ck en principio complejos:
Si los estados son independientes, no debería haber cruces entre ellos. Es decir, que el cruce entre dos estados iguales daría como resultado 1, y entre dos estados diferentes daría como resultado 0:
Los coeficientes ck, por su parte, deben ser tales que la probabilidad neta del estado ψ sea 1:
De esta última línea se deduce que el módulo cuadrado de ci representa la probabilidad Pi de que el estado de la partícula sea el estado ψi:
Supongamos ahora que tenemos un observable A tal que actuando sobre el estado ψi de lugar al número Ai:
Su valor medio será, obviamente:
Es decir, dado un observable A, que en el estado ψi se manifiesta con valor Ai, su valor esperable es la suma de los valores Ai multiplicados por la probabilidad Pi de que tenga lugar el estado asociado. Una media de toda la vida.
Así pues, si no conocemos exactamente cuál es el estado ψi de una partícula, pero conocemos la probabilidad de que se de dicho estado, es perfectamente posible analizar los observables del sistema sin necesidad de hacer un estudio detallado de qué está haciendo este en cada instante.
En este ejemplo hemos dicho que ψ sería el estado de una partícula, pero los mismos conceptos y en los mismos términos serían aplicables a todo un conjunto de partículas, ya que el concepto de «estado» es lo suficientemente global.
Entropía de Boltzmann:
Para relacionar los conceptos de la termodinámica clásica con los de la física de sus constituyentes, Boltzmann planteó que la entropía S era un medidor del grado de desconocimiento que tenemos de un sistema, definiéndola del siguiente modo:
Aquí k es la constante de Boltzmann:
Y, por supuesto, la haremos igual a 1 para simplificar las cuentas, de forma acorde con la filosofía del uso de unidades naturales. Esto implicará que para nosotros la entropía no tenga unidades, y que la temperatura tenga unidades de energía.
Queda por tanto la entropía de Boltzmann del siguiente modo:
Cabe destacar que siempre será positiva, dado que las probabilidades son menores que la unidad, y los logaritmos de números menores que 1 son negativos, con lo que contrarrestan el signo negativo del principio.
¿Qué se traía Boltzmann entre manos cuanto planteó esto? Bien, pues a parte de haber razonado que pasarían las cosas que expondremos a lo largo de esta entrada, le pareció una buena forma de medir el desorden que la termodinámica. El módulo del logaritmo será tanto más grande cuanto menor sea la probabilidad de que se de un estado, de modo que si en un sistema hay un montón de estados poco probables la entropía se dispara. Son por tanto directamente más entrópicos todos los sistemas con mayor número de posibles estados. Cuando el número de estados es 1, la entropía da 0 necesariamente.
Uno podría plantearse que aunque el logaritmo aumente la probabilidad que lo multiplica disminuye, pero el logaritmo marca más tendencia, ya que es asintóticamente infinito en las proximidades de 0.
Sistema aislado micro-canónico:
Supongamos que tenemos un sistema aislado, es decir, que no intercambia absolutamente nada con el exterior, en el cual todos sus componentes pueden redistribuirse como quieran. Si el número de posibles estados totales del sistema es Ω, entonces podemos definir C como el logaritmo de dicho número:
En el último paso multiplicamos por la suma de probabilidades, que da siempre 1, por conveniencia.
Boltzmann impuso que en este sistema la entropía sería igual a dicho logaritmo:
Y de aquí se despeja, teniendo en cuenta la definición de entropía de Boltzmann, que solo implica suponer que la probabilidad de que se de un estado cualquiera ψi es la inversa del número de estados posibles. La ley de Bayes básica de la estadística.
Resulta obvio que esto es respetuoso con que la suma de todas las probabilidades es 1:
Así que ya tenemos un poco más justificada la ecuación entrópica de Boltzmann. Incluso podemos justificarla al revés: si la probabilidad neta de un sistema es 1, la probabilidad de todos los estados del sistema es la misma, y damos por hecho que la entropía de un sistema es el logaritmo de su número de estados posibles, entonces necesariamente la entropía de Boltzmann es correcta.
Por supuesto, hasta aquí solo tenemos juego teórico. Para convencernos de que esto es acorde con la realidad al 100% hay que avanzar más.
Sistema cerrado canónico:
La termodinámica dice que un sistema cerrado es aquel que intercambia energía pero no materia. Esto sabemos que es absurdo desde el momento en que toda la energía es portada por partículas, pero bueno, podemos resumirlo en que se conserva el número de partículas que en un instante dado forman parte del sistema, y estas además no mutan.
Supongamos que nuestro sistema cerrado está en contacto con otro mucho más grande, también cerrado, con una temperatura T. La termodinámica nos dice que ambos sistemas acabarán teniendo dicha temperatura T bajo la hipótesis de que nuestro sistema apenas afecta al grande, al que llamaremos foco. El foco tiene permiso para variar la energía, y la entropía de nuestro sistema, además.
La temperatura es definida clásicamente como la derivada de la energía respecto a la entropía:
Así pues, cuando se da el equilibrio térmico y la temperatura es constante, la energía y la entropía se pueden relacionar mediante una ecuación lineal de la forma:
Elegimos definir así C por conveniencia, y por más conveniencia aún la relacionamos con otra constante Z:
A partir de la ecuación para la energía, se deduce la probabilidad de que se de un estado concreto en el sistema canónico según Z, la energía Ei del estado y la temperatura T:
Un estado es tanto menos probable cuanta más energía requiera, pero también será más probable cuanto mayor sea la temperatura del sistema. En particular, a temperatura infinita todos los estados son equiprobables: al sistema le da absolutamente igual cualquier consideración energética.
Imponer que todas las probabilidades sumen 1 permite conocer exactamente que Z es la suma de los factores exponenciales de Boltzmann de todos los estados:
A Z se la conoce como la función de partición (de probabilidad) canónica, pero como lleva menos tiempo y letras nos referiremos a ella simplemente como Z.
La derivada respecto a la temperatura del logaritmo de Z permite obtener la energía media del sistema:
Por otra parte, si en vez del logaritmo a secas, hacemos la derivada de la temperatura por el logaritmo, obtenemos la entropía:
¿Y según la termodinámica, qué es aquello que derivado respecto a la temperatura con todo lo demás constante facilita la entropía? Pues al menos dos cosas: la energía libre de Helmholtz F y la de Gibbs G. Centrémonos ahora en la de Helmholtz:
Como predice la teoría clásica, se cumple:
Parece que las cosas van encajando, ¿no?
Sistema abierto macro-canónico:
Para concluir la fiesta, dejemos al sistema que intercambie también partículas. ¿Por qué no? La termodinámica dice que en este caso la derivada de la energía respecto al número de partículas facilitará el potencial químico μ:
Y el potencial químico de una partícula en equilibrio termodinámico es constante, con lo que podemos ampliar la energía canónica para dar lugar a:
En esta ocasión, relacionaremos C con otra constante Ξ, a la que podéis adivinar que acabaremos llamando función de partición macro-canónica:
Por el procedimiento habitual, obtenemos la probabilidad macro-canónica:
Es muy parecida a la canónica, salvando el hecho de que a la energía disponible para un estado hay que restarle la energía química necesaria para producir las ni partículas que requiere. Resulta obvio por tanto que para un estado macro-canónico se cumple siempre:
Por otra parte, aplicando el criterio de que las probabilidades sumen 1 se obtiene Ξ:
Derivando el logaritmo de Ξ respecto al potencial químico, se obtiene el número medio de partículas del sistema:
Y teniendo este, se puede derivar respecto a la temperatura para obtener una expresión para la energía:
La entropía, por su parte, mantiene la misma expresión que en el caso canónico:
Pero en este caso tratamos con el potencial de Gibbs:
Por último, cabe destacar que hay otras formas más rebuscadas, pero cómodas según el caso, de expresar la función de partición macro-canónica:
Aunque ponga iguales, no se deduce cada una de la anterior. Veámoslas en detalle:
- La partición es la suma del factor de Boltzmann de todos los estados.
- La partición es la suma de cada factor de Boltzmann de cada posible ordenación {ni} de las partículas sumado para cada posible número de partículas totales. εi es la energía por partícula.
- La partición es el producto de los factores de Bolzmann de todos los estados individuales sumados para cada ordenación de las partículas, sumadas para cada posible número de partículas totales. Esta se deduce de la anterior, teniendo en cuenta que el exponente de la suma es el producto de exponentes.
- La partición es la suma de los factores de Boltzmann de todos los posibles números de partículas en un estado individual multiplicado por cada posible estado individual. niM es el número de ocupación máximo del estado ψi.
La mejor forma de convencerse de que todas funcionan, en caso de duda, es ponerse a hacer cuentas con distintos sistemas. Lo omitiré porque si no esto se extiende mucho.
Fermiones y bosones:
Supongamos que en un sistema dado cada estado individual solo puede darse para una partícula a la vez, como es el caso de las partículas fermiónicas. El número máximo de ocupación en este caso será 1 y la función de partición toma la forma:
Lo único que hemos hecho es sumar los dos posibles valores de ni. A partir de aquí podemos escribir el logaritmo de la partición teniendo en cuenta que el logaritmo de un producto es la suma de logaritmos:
Y teniendo este podemos calcular el número de partículas promedio:
Como en cada caso los estados individuales son diferentes, no podemos hacer más. Lo que sí es posible es indicar que el número de partículas en un estado i son, en promedio:
Cuando la energía de un estado tiende a infinito, la cantidad de partículas promedio en él es nula. Cuando la energía es la que requiere el potencial químico, el número de partículas promedio será 1/2 (o hay una, o no hay ninguna). A temperatura infinita, todos los estados tendrán en promedio media partícula. A temperatura nula o con energía por debajo del potencial químico, los estados están vacíos.
En el caso de las partículas bosónicas, no hay número de ocupación máximo, con lo que la partición es:
La serie infinita que aparece se puede sumar teniendo en cuenta que es la serie de Taylor de una función f conocida:
De modo que por analogía:
Y haciendo los mismos cálculos que con los fermiones llegamos a:
En este caso, que solo discrepa en un signo, de nuevo los estados de energía infinita están vacíos. Además tampoco valen estados por debajo del potencial químico. Sin embargo, cuando la energía es igual al potencial químico o la temperatura es cero, el número de bosones promedio en dicho estado es infinito. Esto es lo que se conoce como condensación de bosones en los estado fundamentales, de gran importancia mismamente en casos como el Big Bang. A temperatura infinita, todos los estados posibles están ocupados por infinitos bosones.
Cabe destacar que tanto los fermiones como los bosones reproducen la misma partición en el límite de alta energía o baja temperatura, dando lugar a la que se conoce como la partición de Maxwell-Boltzmann:
Ese Maxwell, en efecto, es el mismo que el de las ecuaciones de Maxwell del electromagnetismo.
Gas ideal encerrado en una caja:
En la entrada sobre partículas encerradas en cajas vimos que la energía E para una longitud L y un número de estados Ω era tal que:
De aquí se despeja que el número de estados de un sistema ideal no relativista se relaciona con la energía mediante:
Extendida al continuo mediante integrales, la función de partición de un gas ideal sería:
La integral se puede apañar un poco mediante un cambio de variable:
Y así aparece la integral de una exponencial gaussiana, que podemos obtener por el método habitual. Este pasa por elevar primero al cuadrado y escribir como el producto de dos integrales, para después hacer un cambio a coordenadas polares e integrar en el primer cuadrante de estas (ángulo entre 0 y 90º):
Sabiendo esto, tenemos directamente sin más que tomar la raíz que:
Y finalmente la partición es:
Esta es la función para una partícula moviéndose en una caja de una dimensión. Si queremos obtenerla para n partículas moviéndose en tres dimensiones simplemente tenemos que elevarla a 3n porque los estados se multiplican:
Obtengamos la energía del gas ideal:
La energía de un gas no relativista en el que las partículas simplemente se mueven es proporcional al número de estas y a la temperatura. Por tanto, la energía por partícula simplemente es proporcional a la temperatura:
Sabiendo la fórmula de la energía cinética, esta expresión facilita la expresión de la velocidad de las partículas de un gas ideal en función de su masa y su temperatura:
La energía de Helmholtz y la entropía, por su parte, son:
Y ahora vayamos a lo fantástico. Si tenemos en cuenta que la derivada de la energía de Helmholtz respecto al volumen es opuesta a la presión, ¡obtenemos la fórmula de los gases ideales!
El hecho de que no tenga la misma forma que en el instituto se debe a dos factores: que aquí tratamos con el número de partículas y no con el número de moles, y que hemos hecho la constante termodinámica igual a 1, con lo que no hay ningún término destinado a adaptar valores y unidades.
Gas de fotones y la catástrofe ultravioleta:
Cojamos ahora la fórmula que relacionaba el número de estados con la energía. La raíz de 2mE es el momento cinético clásico p, que en relatividad especial para un fotón se corresponde con su energía. Así pues, en una dimensión podríamos decir que para un fotón:
Fijémonos en la fórmula. Nos dice que su número de estados será proporcional a la longitud de la región L donde se mueven los fotones, multiplicada por la energía disponible por fotón entre π.
En dos dimensiones tendríamos el área de la región entre π al cuadrado, multiplicada por el área del primer cuadrante de la circunferencia de radio ε, haciendo una representación de las posibles energías de los fotones y de sus orientaciones (consideramos volumen solo en los ejes positivos):
¿Por qué resulta más laborioso que en el gas ideal, donde simplemente elevamos al número de dimensiones? Pues básicamente porque ahora estamos dejando al fotón moverse en cualquier dirección. Además serán indistinguibles. Todo esto hace tener que considerar más cosas.
En tres dimensiones, por último, tendríamos el volumen de la región entre π al cubo, multiplicada por el volumen del primer octanto de la esfera de radio ε:
¿Hemos acabado? Casi. Solo falta añadir el matiz de que cada fotón puede girar de dos formas diferentes debido a su espín, con lo que el número de estados se multiplica por dos y nos quedamos con:
En general obtener la partición es un espectáculo, siendo el único ejemplo sencillo el del gas ideal. Para contrarrestar, podemos intentar calcular la energía promedio del gas de fotones a una temperatura dada haciendo el cálculo a lo bruto, esto es, multiplicando el integrando ε multiplicado por el número de fotones promedio en dicho estado y la densidad de estados por energía para obtener su promedio:
A finales del siglo XIX se sabía que la luz que procedía de las estrellas a una cierta temperatura tenía una distribución en frecuencias ω característica. Max Planck se dio cuenta de que si para la luz frecuencia y energía fuesen lo mismo, dichas frecuencias venían dadas por esta ley de la mecánica estadística:
Esta expresión es la que se conoce como la ley de Planck, y con ella quedaba resuelto el misterio de como asociar la composición en frecuencias de la luz de una estrella a su temperatura. Además, llevó a Einstein a posturar que la luz eran fotones.
Sería razonable que ahora os entrase la siguiente duda: ¿Cómo se pudo llegar al gas de fotones sin conocer lo que era un fotón ni la relatividad especial? Muy fácil, porque sacaron los datos experimentalmente sin usar mecánica estadística cuántica. Solo tenían que considerar que los rayos de luz podían ocupar en gran cantidad un mismo estado (eran bosones). Lo raro sería lo contrario, que fuese fermiones. Ahí sí que habrían tenido un problema.
Antes de que Planck plantease su ecuación, otros científicos como Rayleigh y Jeans se quedaron cerca obteniendo la ecuación del integrando en su límite para bajas frecuencias:
La ley de Rayleigh-Jeans tenía una pega muy grande, y era que sugería que cuanto mayor fuese la frecuencia más probable sería encontrarla en el espectro luminoso de una estrella. Esto se conoció como la catástrofe ultravioleta, ya que implicaba que la energía de los rayos de luz sería siempre infinita, lo cual no era correcto. A finales del siglo XX se pensaba que explicar esto y alguna cosilla más marcaría el fin de la física teórica… Desconocían que la ley de Planck abriría el camino a la mecánica cuántica, la física nuclear y demás.
A parte de esta aproximación, estaba también la ley de Wien para altas frecuencias, de la cual se deducía correctamente que a partir de cierto momento la frecuencia predominante en un rayo de luz era solo proporcional a la temperatura (salvándonos del ultravioleta):
Para obtener dicha frecuencia predominante derivamos la distribución de frecuencias e igualamos la derivada a 0.
Por último, cabe indicar que si se hace la integral de la energía de un rayo de luz mediante métodos matemáticos apañados, se obtiene que esta es proporcional a la temperatura a la cuarta:
Esta ley, conocida como la ley de Stefan-Boltzmann, permite conocer la temperatura de la estrella que emitía un rayo de luz sabiendo la energía neta de este y viceversa.
Comparativa entre las predicciones de Planck,, Rayleigh-Jeans y Wien, siendo las últimas aproximaciones a bajas y altas frecuencias de la primera.
Por en • ( Deja un comentario )
FUENTE: Estudiar Física