Filosofía De La Mecánica Estadística

Tabla de contenido:

Filosofía De La Mecánica Estadística
Filosofía De La Mecánica Estadística

Vídeo: Filosofía De La Mecánica Estadística

Vídeo: Filosofía De La Mecánica Estadística
Vídeo: mecánica estadística i 2024, Marzo
Anonim

Navegación de entrada

  • Contenido de entrada
  • Bibliografía
  • Herramientas académicas
  • Vista previa de PDF de amigos
  • Información de autor y cita
  • Volver arriba

Filosofía de la mecánica estadística

Publicado por primera vez el jueves 12 de abril de 2001; revisión sustantiva vie 24 jul 2015

La mecánica estadística fue la primera teoría física fundamental en la que los conceptos probabilísticos y la explicación probabilística desempeñaron un papel fundamental. Para el filósofo, proporciona un caso de prueba crucial para comparar las ideas de los filósofos sobre el significado de las afirmaciones probabilísticas y el papel de la probabilidad en la explicación con lo que realmente sucede cuando la probabilidad entra en una teoría física fundamental. La explicación que ofrece la mecánica estadística de la asimetría en el tiempo de los procesos físicos también juega un papel importante en el intento del filósofo de comprender las supuestas asimetrías de la causalidad y del tiempo mismo.

  • 1. Bosquejo histórico
  • 2. Filósofos sobre probabilidad y explicación estadística
  • 3. Teoría del equilibrio
  • 4. Teoría del no equilibrio
  • 5. Irreversibilidad
  • 6. La reducción (?) De la termodinámica a la mecánica estadística
  • 7. La dirección del tiempo
  • 8. Dinámica cuántica
  • 9. Cambio de fase
  • Bibliografía
  • Herramientas académicas
  • Otros recursos de internet
  • Entradas relacionadas

1. Bosquejo histórico

Desde el siglo XVII en adelante, se dio cuenta de que los sistemas materiales a menudo podían describirse mediante un pequeño número de parámetros descriptivos que se relacionaban entre sí de manera simple y legal. Estos parámetros se refieren a propiedades geométricas, dinámicas y térmicas de la materia. Típico de las leyes era la ley de los gases ideales que relacionaba el producto de la presión y el volumen de un gas con la temperatura del gas.

Pronto se dio cuenta de que un concepto fundamental era el de equilibrio. Dejados a sí mismos, los sistemas cambiarían los valores de sus parámetros hasta que alcanzaran un estado en el que no se observaran más cambios, el estado de equilibrio. Además, se hizo evidente que este enfoque espontáneo del equilibrio era un proceso asimétrico en el tiempo. Las temperaturas desiguales, por ejemplo, cambiaron hasta que las temperaturas fueron uniformes. Este mismo proceso de "uniformización" se mantuvo para las densidades.

Los estudios profundos de S. Carnot sobre la capacidad de extraer el trabajo mecánico de los motores que funcionaban en virtud de la diferencia de temperatura entre la caldera y el condensador llevaron a la introducción por R. Clausius de un parámetro más importante que describe un sistema material, su entropía. ¿Cómo se explicó la existencia de este simple conjunto de parámetros para describir la materia y las regularidades legales que los conectaban? ¿Qué explica el enfoque del equilibrio y su asimetría de tiempo? Que el contenido de calor de un cuerpo era una forma de energía, convertible hacia y desde el trabajo mecánico, formó un principio fundamental. La incapacidad de un sistema aislado para moverse espontáneamente a un estado más ordenado, para reducir su entropía, constituyó otro. Pero, ¿por qué eran ciertas estas leyes?

Un enfoque, el de P. Duhem y E. Mach y los "enérgicos", era insistir en que estos principios eran leyes fenomenológicas autónomas que no necesitaban fundamentos adicionales en otros principios físicos. Un enfoque alternativo era afirmar que la energía en un cuerpo almacenada como contenido de calor era una energía de movimiento de algún tipo de constituyentes microscópicos ocultos del cuerpo, e insistir en que las leyes señaladas, los principios termodinámicos, debían tenerse en cuenta. fuera de la constitución del objeto macroscópico fuera de sus partes y las leyes dinámicas fundamentales que rigen el movimiento de esas partes. Esta es la teoría cinética del calor.

Los primeros trabajos sobre teoría cinética de W. Herepath y J. Waterston fueron prácticamente ignorados, pero el trabajo de A. Krönig hizo de la teoría cinética un tema animado en física. JC Maxwell hizo un gran avance al derivar de algunos postulados simples una ley para la distribución de velocidades de las moléculas de un gas cuando estaba en equilibrio. Tanto Maxwell como L. Boltzmann fueron más allá, y de maneras diferentes, pero relacionadas, derivaron una ecuación para el enfoque del equilibrio de un gas. La distribución de equilibrio encontrada anteriormente por Maxwell podría mostrarse como una solución estacionaria de esta ecuación.

Este primer trabajo encontró fuertes objeciones. H. Poincaré había demostrado un teorema de recurrencia para sistemas dinámicos acotados que parecía contradecir el enfoque monotónico del equilibrio exigido por la termodinámica. El teorema de Poincaré mostró que cualquier sistema adecuadamente delimitado en el que se conservara la energía, necesariamente, en un tiempo infinito, regresaría un número infinito de veces a estados arbitrariamente cercanos al estado dinámico inicial en el que se inició el sistema. J. Loschmidt argumentó que la irreversibilidad temporal de la termodinámica era incompatible con la simetría bajo la inversión temporal de la dinámica clásica que se supone gobierna el movimiento de los constituyentes moleculares del objeto.

En parte impulsado por la necesidad de lidiar con estas objeciones, Maxwell y Boltzmann comenzaron a introducir explícitamente nociones probabilísticas en la teoría. Ambos se dieron cuenta de que los valores de equilibrio para las cantidades podrían calcularse imponiendo una distribución de probabilidad sobre los estados dinámicos microscópicos compatibles con las restricciones impuestas en el sistema, e identificando los valores macroscópicos observados con promedios sobre cantidades definibles desde los estados microscópicos usando esa distribución de probabilidad. Pero, ¿cuál fue la justificación física de este procedimiento?

Ambos también argumentaron que la evolución hacia el equilibrio exigida en la teoría del no equilibrio también podría entenderse probabilísticamente. Maxwell, al presentar la noción de un "demonio" que podía manipular los estados microscópicos de un sistema, argumentó que la ley del aumento entrópico era solo probabilísticamente válida. Boltzmann ofreció una versión probabilística de su ecuación que describe el enfoque del equilibrio. Sin un cuidado considerable, sin embargo, la imagen de Boltzmann todavía puede parecer contraria a las objeciones de recurrencia y reversibilidad interpretadas de manera probabilística.

Al final de su vida, Boltzmann respondió a las objeciones a la teoría probabilística ofreciendo una interpretación simétrica del tiempo de la teoría. Los sistemas estaban casi siempre cerca del equilibrio probabilísticamente. Pero podrían esperarse fluctuaciones transitorias a estados de no equilibrio. Una vez en un estado de no equilibrio, era muy probable que tanto después como antes de ese estado el sistema estuviera más cerca del equilibrio. ¿Por qué entonces vivimos en un universo que no estaba cerca del equilibrio? Quizás el universo era vasto en el espacio y el tiempo y vivíamos en una parte fluctuante "pequeña" del no equilibrio. Solo podríamos encontrarnos en una parte tan "improbable", ya que solo en esa región podrían existir seres conscientes.¿Por qué encontramos que la entropía aumenta hacia el futuro y no hacia el pasado? Aquí la respuesta fue que así como la dirección de gravedad local definía lo que queríamos decir con la dirección descendente del espacio, la dirección local en el tiempo en que la entropía aumentaba fijaba lo que consideramos la dirección futura del tiempo.

En un trabajo importante (enumerado en la bibliografía), P. y T. Ehrenfest también ofrecieron una lectura de la ecuación de enfoque de Boltzmann para el equilibrio que evitó las objeciones de recurrencia. Aquí, la solución de la ecuación se tomó para describir no "la evolución abrumadoramente probable" de un sistema, sino la secuencia de estados que se encontrarían abrumadoramente dominantes en diferentes momentos en una colección de sistemas, todo comenzó en el mismo condición de equilibrio Incluso si cada sistema individual volviera aproximadamente a sus condiciones iniciales, esta "curva de concentración" aún podría mostrar un cambio monotónico hacia el equilibrio desde una condición inicial de no equilibrio.

Muchos de los problemas filosóficos en la mecánica estadística se centran en la noción de probabilidad tal como aparece en la teoría. ¿Cómo deben entenderse estas probabilidades? ¿Qué justificó elegir una distribución de probabilidad en lugar de otra? ¿Cómo se utilizarán las probabilidades para hacer predicciones dentro de la teoría? ¿Cómo se utilizarán para proporcionar explicaciones de los fenómenos observados? ¿Y cómo son las distribuciones de probabilidad para recibir una cuenta explicativa? Es decir, ¿cuál es la naturaleza del mundo físico responsable de las probabilidades correctas que desempeñan el papel exitoso que desempeñan en la teoría?

2. Filósofos sobre probabilidad y explicación estadística

Los filósofos preocupados por la interpretación de la probabilidad generalmente se enfrentan al siguiente problema: la probabilidad se caracteriza por una serie de reglas formales, siendo la suma de las probabilidades para conjuntos de posibilidades disjuntas la más central de ellas. Pero, ¿de qué deberíamos tomar la teoría formal como teoría? Algunas interpretaciones son "objetivistas", tomando las probabilidades de ser, posiblemente, frecuencias de resultados, o límites idealizados de tales frecuencias o quizás medidas de "disposiciones" o "propensiones" de resultados en situaciones de prueba específicas.

Otras interpretaciones son "subjetivistas", tomando las probabilidades como medidas de "grados de creencia", tal vez evidenciadas en el comportamiento en situaciones de riesgo por las elecciones de loterías disponibles sobre los resultados. Aún otra interpretación lee las probabilidades como medidas de una especie de "vinculación lógica parcial" entre las proposiciones.

Aunque se han ofrecido interpretaciones subjetivistas (o más bien lógicas) de la probabilidad en la mecánica estadística (por ejemplo, E. Jaynes), la mayoría de los intérpretes de la teoría optan por una interpretación objetivista de la probabilidad. Esto todavía deja abiertas, sin embargo, preguntas importantes sobre qué característica "objetiva" son las probabilidades planteadas de la teoría y cómo la naturaleza se las arregla para que tales probabilidades se manifiesten en su comportamiento.

Los filósofos que se ocupan de la explicación estadística generalmente se han centrado en los usos cotidianos de la probabilidad en la explicación, o en el uso de explicaciones probabilísticas en disciplinas como las ciencias sociales. A veces se ha sugerido que explicar probabilísticamente un resultado es mostrar que es probable que haya ocurrido dados los hechos de fondo del mundo. En otros casos, se sugiere que explicar un resultado de manera probabilística es producir hechos que aumenten la probabilidad de que ese resultado haya sido ignorado. Aún otros sugieren que la explicación probabilística muestra que un evento fue el resultado causal de alguna característica del mundo caracterizada por una disposición causal probabilística.

Los patrones explicativos de la mecánica estadística del no equilibrio ubican la evolución de las características macroscópicas de la materia en un patrón de probabilidades sobre posibles evoluciones microscópicas. Aquí los tipos de explicación ofrecidos se ajustan a los modelos filosóficos tradicionales. Las principales preguntas abiertas se refieren a los motivos explicativos detrás de las probabilidades planteadas. En la teoría del equilibrio, como veremos, el patrón explicativo estadístico tiene una naturaleza bastante diferente.

3. Teoría del equilibrio

El método estándar para calcular las propiedades de un sistema energéticamente aislado en equilibrio fue iniciado por Maxwell y Boltzmann y desarrollado por J. Gibbs como el conjunto microcanónico. Aquí se impone una distribución de probabilidad sobre el conjunto de estados microscópicos compatibles con las restricciones externas impuestas en el sistema. Usando esta distribución de probabilidad, se calculan los valores promedio de funciones específicas de las condiciones microscópicas del gas (promedios de fase). Estos se identifican con las condiciones macroscópicas. Pero surgen una serie de preguntas: ¿Por qué esta distribución de probabilidad? ¿Por qué valores promedio para condiciones macroscópicas? ¿Cómo se relacionan los promedios de fase con las características medidas del sistema macroscópico?

Boltzmann pensó en los valores promedio adecuados para identificarse con características macroscópicas como promedios en el tiempo de cantidades calculables a partir de estados microscópicos. Deseaba identificar los promedios de fase con tales promedios de tiempo. Se dio cuenta de que esto podría hacerse si un sistema se iniciaba en cualquier estado microscópico y eventualmente pasaba por todos los estados microscópicos posibles. Que esto se hizo tan conocido como la hipótesis ergódica. Pero es demostrablemente falso por razones teológicas topológicas y de medida. Una afirmación más débil, de que un sistema iniciado en cualquier estado se acercaría arbitrariamente entre sí, el estado microscópico también es falso, e incluso si es cierto no haría el trabajo necesario.

La disciplina matemática de la teoría ergódica se desarrolló a partir de estas ideas tempranas. ¿Cuándo se puede identificar un promedio de fase con un promedio de tiempo sobre tiempo infinito? G. Birkhoff (con resultados anteriores de J. von Neumann) demostró que esto sería así para todos menos para un conjunto de medidas cero de las trayectorias (en la medida estándar utilizada para definir la función de probabilidad) si el conjunto de puntos de fase fuera métricamente indescomponible, es decir, si no se puede dividir en más de una pieza, de modo que cada pieza tenga una medida mayor que cero y que un sistema que se inicie en una pieza siempre evolucione a un sistema en esa pieza.

Pero, ¿un modelo realista de un sistema cumplió alguna vez la condición de descomposición métrica? Lo que se necesita para derivar la descomposición métrica es una inestabilidad suficiente de las trayectorias para que las trayectorias no formen grupos de medidas distintas de cero que no se desvíen lo suficiente sobre toda la región de fase. La existencia de una constante de movimiento oculta violaría la descomposición métrica. Después de mucho trabajo arduo, culminando en el de Ya. Sinaí, se demostró que algunos modelos de sistemas "realistas", como el modelo de un gas como "esferas duras en una caja", se ajustaban a la descomposición métrica. Por otro lado, otro resultado de la teoría dinámica, el teorema de Kolmogorov-Arnold-Moser (KAM) muestra que los modelos más realistas (digamos de moléculas que interactúan por medio de potenciales "blandos") probablemente no obedecerán a la ergodicidad en sentido estricto. En estos casos, también se necesita un razonamiento más sutil (basado en los muchos grados de libertad en un sistema compuesto por una gran cantidad de componentes).

Si la ergodicidad es válida, ¿qué se puede mostrar? Se puede demostrar que para todos menos un conjunto de medida cero de puntos iniciales, el promedio de tiempo de una cantidad de fase sobre tiempo infinito será igual a su promedio de fase. Se puede demostrar que para cualquier región medible, el tiempo promedio que el sistema pasa en esa región será proporcional al tamaño de la región (medido por la medida de probabilidad utilizada en el conjunto microcanónico). También se presenta una solución a un problema adicional. Boltzmann sabía que la distribución de probabilidad estándar era invariable bajo la evolución del tiempo dada la dinámica de los sistemas. Pero, ¿cómo podríamos saber que era la única medida invariable? Con ergodicidad podemos mostrar que la distribución de probabilidad estándar es la única que es tan invariable,al menos si nos limitamos a medidas de probabilidad que asignan probabilidad cero a cada conjunto asignado cero por la medida estándar.

Tenemos, entonces, una especie de "deducción trascendental" de la probabilidad estándar asignada sobre estados microscópicos en el caso del equilibrio. El equilibrio es un estado que no cambia en el tiempo. Por lo tanto, exigimos que la medida de probabilidad mediante la cual se calcularán las cantidades de equilibrio sea estacionaria en el tiempo también. Si suponemos que las medidas de probabilidad que asignan la probabilidad distinta de cero a conjuntos de estados asignados a cero por la medida habitual pueden ignorarse, entonces podemos mostrar que la probabilidad estándar es la única probabilidad invariante en el tiempo bajo la dinámica que impulsa los sistemas individuales de uno estado microscópico a otro.

Sin embargo, como "fundamento" completo de la mecánica estadística de equilibrio estándar, queda mucho por cuestionar. Existe el problema de que la ergodicidad estricta no es cierta en los sistemas realistas. Hay muchos problemas encontrados si uno intenta usar la lógica como Boltzmann esperaba identificar promedios de fase con cantidades medidas basándose en el hecho de que las mediciones macroscópicas toman "largos tiempos" a escala molecular. Existen los problemas introducidos por el hecho de que todos los resultados ergódicos matemáticamente legítimos están calificados por excepciones para "conjuntos de medida cero". ¿Qué es lo que hace que sea legítimo ignorar un conjunto de trayectorias solo porque tiene la medida cero en la medida estándar? Después de todo, tal negligencia conduce a predicciones catastróficamente erróneas cuando realmente hay constantes de movimiento ocultas y globales. Al probar que la medida estándar es invariablemente única, ¿por qué tenemos derecho a ignorar las medidas de probabilidad que asignan probabilidades distintas de cero a conjuntos de condiciones de probabilidad asignada cero en la medida estándar? Después de todo, era solo el uso de esa medida estándar lo que estábamos tratando de justificar en primer lugar.

En cualquier caso, la teoría del equilibrio como disciplina autónoma es engañosa. Lo que queremos, después de todo, es un tratamiento del equilibrio en el contexto de no equilibrio. Nos gustaría entender cómo y por qué los sistemas evolucionan desde cualquier estado macroscópico inicialmente fijo, tomando el equilibrio como el "punto final" de dicha evolución dinámica. Por lo tanto, debemos considerar la explicación general del no equilibrio si queremos una comprensión más completa de cómo esta teoría probabilística está funcionando en física.

4. Teoría del no equilibrio

Boltzmann proporcionó una ecuación para la evolución de la distribución de las velocidades de las partículas desde un estado inicial de no equilibrio para gases diluidos, la ecuación de Boltzmann. Se han encontrado una serie de ecuaciones posteriores para otros tipos de sistemas, aunque generalizar a, digamos, gases densos ha demostrado ser intratable. Todas estas ecuaciones se llaman ecuaciones cinéticas.

¿Cómo pueden justificarse y explicarse? En las discusiones sobre el problema de la irreversibilidad que surgió después del trabajo de Boltzmann, la atención se centró en una suposición fundamental que hizo: la hipótesis con respecto a los números de colisión. Esta suposición asimétrica en el tiempo postulaba que los movimientos de las moléculas en un gas no estaban estadísticamente correlacionados antes de que las moléculas colisionaran. Al derivar cualquiera de las otras ecuaciones cinéticas, debe hacerse una afirmación similar. Algunos métodos generales para derivar tales ecuaciones son el enfoque de ecuación maestra y un enfoque que se basa en el granulado grueso del espacio de fase de los puntos que representan los microestados del sistema en celdas finitas y suponiendo probabilidades de transición fija de celda a celda (supuesto de Markov). Pero tal suposición no se derivó de la dinámica subyacente del sistema y, por lo que sabían hasta ahora, podría haber sido inconsistente con esa dinámica.

Se han hecho varios intentos para prescindir de tal suposición y derivar el enfoque del equilibrio de la dinámica subyacente del sistema. Dado que esa dinámica es invariante bajo la inversión del tiempo y las ecuaciones cinéticas son asimétricas en el tiempo, la asimetría del tiempo debe incluirse en la teoría explicativa en alguna parte.

Un enfoque para derivar las ecuaciones cinéticas se basa en el trabajo que generaliza la teoría ergódica. Confiando en la inestabilidad de las trayectorias, uno intenta mostrar que una región de puntos de fase que representa los posibles microestados para un sistema preparado en una condición de no equilibrio, si se cambian las restricciones, eventualmente evolucionará a un conjunto de puntos de fase que se extiende "groseramente" en toda la región del espacio de fase permitido por las restricciones cambiadas. La antigua región no puede cubrir "finamente" la nueva región mediante un teorema fundamental de la dinámica (teorema de Liouville). Pero, de una manera descrita por primera vez por Gibbs, puede cubrir la región en un sentido de grano grueso. Para mostrar que una colección de puntos se extenderá de tal manera (al menos en el límite de tiempo infinito) uno intenta mostrar que el sistema posee una propiedad de "aleatorización" apropiada. En orden de resistencia creciente, tales propiedades incluyen mezcla débil, mezcla, ser un sistema K o ser un sistema Bernoulli. También existen otros enfoques topológicos en lugar de teóricos de la medida para este problema.

Como de costumbre, se aplican muchas advertencias. ¿Se puede demostrar realmente que el sistema tiene una característica de aleatorización (a la luz del teorema de KAM, por ejemplo)? ¿Son los resultados de límite de tiempo infinito relevantes para nuestras explicaciones físicas? Si los resultados son de tiempo finito, ¿se relativizan en el sentido de decir que solo son válidos para algunas particiones groseras del sistema en lugar de aquellas de interés experimental?

Lo más importante, la mezcla y su tipo no pueden ser toda la historia. Todos los resultados de esta teoría son simétricos en el tiempo. Para obtener resultados asimétricos en el tiempo, y para obtener resultados que se mantengan en tiempos finitos y que muestren la evolución de la manera descrita por la ecuación cinética sobre esos tiempos finitos, también se requiere una suposición sobre cómo se distribuirá la probabilidad en la región de puntos permitido como representación del sistema en el momento inicial.

¿Cómo debe ser ese supuesto de probabilidad y cómo puede justificarse? Estas preguntas fueron formuladas y parcialmente exploradas por N. Krylov. Los intentos de racionalizar esta suposición de probabilidad inicial han variado desde la sugerencia de Krylov de que es el resultado de un principio de "incertidumbre" no cuántico fundado físicamente en los modos por los cuales preparamos sistemas, hasta la sugerencia de que es el resultado de un estocástico subyacente naturaleza del mundo descrita como en el enfoque Ghirardi-Rimini-Weber para comprender la medición en la mecánica cuántica. El estado y la explicación del supuesto de probabilidad inicial sigue siendo el enigma central de la mecánica estadística del no equilibrio.

Existen otros enfoques para comprender el enfoque del equilibrio en desacuerdo con los enfoques que dependen de los fenómenos de mezcla. O. Lanford, por ejemplo, ha demostrado que para un gas idealmente diluido infinitamente se puede mostrar, por intervalos de tiempo muy pequeños, un comportamiento abrumadoramente probable del gas según la ecuación de Boltzmann. Aquí, la interpretación de esa ecuación por los Ehrenfests, la interpretación adecuada para el enfoque de mezcla, se está descartando a favor de la idea anterior de la ecuación que describe la evolución abrumadoramente probable de un sistema. Esta derivación tiene la virtud de generar rigurosamente la ecuación de Boltzmann, pero a costa de aplicarse solo a un sistema severamente idealizado y luego solo por un tiempo muy corto (aunque el resultado puede ser cierto, si no se prueba, para escalas de tiempo más largas). Una vez más, todavía es necesaria una distribución de probabilidad inicial para la asimetría de tiempo.

5. Irreversibilidad

Los principios termodinámicos exigen un mundo en el que los procesos físicos sean asimétricos en el tiempo. La entropía de un sistema aislado puede aumentar espontáneamente en el futuro pero no en el pasado. Pero las leyes dinámicas que gobiernan el movimiento de los microconstituyentes son, al menos en los puntos de vista estándar de esas leyes como las leyes habituales de la dinámica clásica o cuántica, invariante de inversión de tiempo. La introducción de elementos probabilísticos en la teoría subyacente aún no explica por sí sola dónde entra la asimetría del tiempo en la explicación. Incluso si, siguiendo a Maxwell, consideramos que la Segunda Ley de la termodinámica es meramente probabilística en sus afirmaciones, sigue siendo un tiempo asimétrico.

A lo largo de la historia de la disciplina, a menudo se han hecho sugerencias en el sentido de que alguna ley dinámica profunda y subyacente introduce la asimetría del tiempo en el movimiento de los microconstituyentes.

Un enfoque es negar la asimetría temporal de la dinámica que rige a los microconstituyentes y buscar una ley de reemplazo que sea en sí misma asimétrica en el tiempo. Una versión moderna de esto busca una interpretación de la mecánica cuántica que busca explicar el notorio "colapso del paquete de ondas" tras la medición. Ghirardi, Rimini y Weber (GRW) han postulado la existencia de un proceso puramente estocástico más profundo que el de la evolución cuántica habitual. Este proceso de pura casualidad conducirá rápidamente a los sistemas macroscópicos a funciones de posición cercanas a las propias y dejará los microsistemas aislados en estados de superposición. El proceso estocástico es asimétrico en el tiempo (como lo es el colapso de la función de onda tras la medición). D. Albert ha sugerido que tal proceso GRW, si es real,También podría invocarse para tener en cuenta la asimetría temporal de la dinámica de los sistemas que debe tenerse en cuenta en la termodinámica. La asimetría de tiempo del colapso de GRW podría funcionar al afectar directamente la dinámica del sistema, o podría hacer su trabajo al aleatorizar adecuadamente los estados iniciales de los sistemas aislados. Todavía se ha hecho poco para completar los detalles para ver si los procesos de GRW propuestos podrían, si son reales, explicar las asimetrías termodinámicas conocidas. Y, por supuesto, hay mucho escepticismo de que los procesos GRW sean incluso reales. Todavía se ha hecho poco para completar los detalles para ver si los procesos de GRW propuestos podrían, si son reales, explicar las asimetrías termodinámicas conocidas. Y, por supuesto, hay mucho escepticismo de que los procesos GRW sean incluso reales. Todavía se ha hecho poco para completar los detalles para ver si los procesos de GRW propuestos podrían, si son reales, explicar las asimetrías termodinámicas conocidas. Y, por supuesto, hay mucho escepticismo de que los procesos GRW sean incluso reales.

Otras propuestas consideran que el cambio entrópico de un sistema está mediado por una "interferencia" realmente ilimitada en el sistema de influencias causales aleatorias desde el exterior del sistema. Es imposible, por ejemplo, proteger genuinamente el sistema de las sutiles influencias gravitacionales del exterior. El tema del papel de la interferencia externa en el comportamiento aparentemente espontáneo de lo que se idealiza como un sistema aislado ha sido muy discutido. Aquí la existencia de sistemas especiales (como los sistemas de eco de espín encontrados en la resonancia magnética nuclear) juega un papel en los argumentos. Estos sistemas parecen mostrar un enfoque espontáneo del equilibrio cuando están aislados, pero pueden hacer que su comportamiento entrópico aparente “retroceda” con un impulso apropiado desde el exterior del sistema. Esto parece mostrar un aumento entrópico sin el tipo de interferencia del exterior que destruye genuinamente el orden inicial implícito en el sistema. En cualquier caso, es difícil ver cómo la interferencia externa haría el trabajo de introducir asimetría de tiempo a menos que dicha asimetría se ponga "a mano" para caracterizar esa interferencia.

Fue Boltzmann quien primero propuso un tipo de solución "cosmológica" al problema. Como se señaló anteriormente, sugirió un universo en general cercano al equilibrio con subregiones "pequeñas" en fluctuaciones alejadas de ese estado. En tal subregión encontraríamos un mundo lejos del equilibrio. Al presentar las suposiciones probabilísticas simétricas de tiempo simétricas, es probable que en dicha región se encuentren estados de entropía más baja en una dirección de tiempo y estados de entropía más alta en la otra. Luego, termine la solución presentando la otra sugerencia de Boltzmann de que lo que entendemos por la dirección futura del tiempo se fija como la dirección del tiempo en la que aumenta la entropía.

La cosmología actual ve un universo bastante diferente al propuesto por Boltzmann. Por lo que podemos decir, el universo en su conjunto se encuentra en un estado altamente no equilibrado con un aumento entrópico paralelo hacia el futuro en todas partes. Pero la estructura del cosmos tal como la conocemos permite una solución alternativa al problema del origen de la asimetría del tiempo en termodinámica. El universo parece estar expandiéndose espacialmente, con un origen hace unas decenas de miles de millones de años en una singularidad inicial, el Big Bang. Sin embargo, la expansión por sí sola no proporciona la asimetría de tiempo necesaria para la termodinámica, ya que la física permite un universo en expansión con entropía estática o decreciente. De hecho, en algunos modelos cosmológicos en los que el universo se contrae después de expandirse, generalmente es, aunque no siempre,se supone que incluso en contracción la entropía continúa aumentando.

La fuente de la asimetría entrópica se busca, más bien, en el estado físico del mundo en el Big Bang. La materia "justo después" del Big Bang generalmente se postula para estar en un estado de máxima entropía, para estar en equilibrio térmico. Pero esto no tiene en cuenta la estructura del "espacio en sí mismo" o, si lo desea, la forma en que la materia se distribuye en el espacio y está sujeta a la atracción gravitacional universal de toda la materia por todas las demás. Un mundo en el que la materia se distribuye con uniformidad es uno de baja entropía. Un estado de alta entropía es aquel en el que encontramos una agrupación de materia en regiones densas con mucho espacio vacío que separa estas regiones. Esta desviación de la expectativa habitual (uniformidad espacial como el estado de mayor entropía) se debe al hecho de que la gravedad,a diferencia de las fuerzas que gobiernan la interacción de las moléculas en un gas, por ejemplo, es una fuerza puramente atractiva.

Entonces se puede plantear un estado inicial de "muy baja entropía" para el Big Bang, con la uniformidad espacial de la materia proporcionando un "depósito entrópico". A medida que el universo se expande, la materia pasa de un estado uniformemente distribuido con temperatura también uniforme a uno en el que la materia está altamente agrupada en estrellas calientes en un ambiente de espacio vacío y frío. Entonces uno tiene el universo tal como lo conocemos, con su condición térmicamente altamente no equilibrada. La “baja entropía inicial”, entonces, será un estado en el pasado no (hasta donde sabemos) igualado por ninguna singularidad de ningún tipo, mucho menos uno de baja entropía, en el futuro. Si se condiciona ese estado inicial de baja entropía, se obtiene, utilizando las probabilidades simétricas de tiempo de la mecánica estadística, una predicción de un universo cuya entropía aumentó en el tiempo.

Pero no es, por supuesto, la entropía de todo el universo lo que concierne a la Segunda Ley, sino más bien la de los sistemas "pequeños" temporalmente enérgicamente aislados de sus entornos. Se puede argumentar, de una manera que se remonta a H. Reichenbach, que el aumento entrópico del universo en su conjunto conducirá, nuevamente utilizando los postulados probabilísticos simétricos de tiempo habituales, a una alta probabilidad de que un "sistema de ramificación" aleatorio muestre entropía aumentar paralela a la del universo y paralela a la de otros sistemas de ramificación. La mayoría de los argumentos en la literatura de que esto será así son defectuosos, pero la inferencia es razonable de todos modos. También se ha sugerido que si se invoca alguna ley dinámica estadística subyacente (como la ley GRW mencionada anteriormente),no es necesario plantear una hipótesis del sistema de ramas además de la baja entropía inicial para obtener los resultados termodinámicos.

La posición de baja entropía inicial para el Big Bang da lugar a su propio conjunto de preguntas "filosóficas": Dadas las probabilidades estándar en las que la alta entropía es abrumadoramente probable, ¿cómo podríamos explicar la baja entropía radicalmente "inesperada" del estado inicial? De hecho, ¿podemos aplicar el razonamiento probabilístico apropiado para los sistemas en el universo tal como lo conocemos a un estado inicial para el universo en su conjunto? Los problemas aquí recuerdan los viejos debates sobre el argumento teleológico de la existencia de Dios.

6. La reducción (?) De la termodinámica a la mecánica estadística

No sorprende que la relación de la teoría termodinámica más antigua con la nueva mecánica estadística en la que se "basa" sea de cierta complejidad.

La teoría anterior no tenía calificaciones probabilísticas de sus leyes. Pero como Maxwell sabía claramente, no podría ser "exactamente" cierto si la nueva teoría probabilística describiera correctamente el mundo. Se puede mantener la teoría termodinámica en su forma tradicional y explicar cuidadosamente la relación que sus principios tienen con las conclusiones probabilísticas más recientes, o se puede, como se ha hecho de manera profundamente interesante, generar una nueva "termodinámica estadística" que se importe a las más antiguas. Teoría estructura probabilística.

Conceptualmente, la relación entre la teoría más antigua y la más nueva es bastante compleja. Los conceptos de la teoría más antigua (volumen, presión, temperatura, entropía) deben estar relacionados con los conceptos de la teoría más nueva (constitución molecular, conceptos dinámicos que rigen el movimiento de los constituyentes moleculares, nociones probabilísticas que caracterizan los estados de un sistema individual o las distribuciones de estados sobre un conjunto imaginario de sistemas sujetos a algunas restricciones comunes).

Un único término de la teoría termodinámica, como 'entropía', se asociará con una amplia variedad de conceptos definidos en la cuenta más reciente. Existe, por ejemplo, la entropía de Boltzmann, que es propiedad de un sistema único definido en términos de la distribución espacial y de momento de sus moléculas. Por otro lado, están las entropías de Gibbs, definibles a partir de la distribución de probabilidad sobre algún conjunto de sistemas de Gibbs. Agregando aún más complicaciones hay, por ejemplo, la entropía de grano fino de Gibbs que se define solo por la probabilidad del conjunto y es muy útil para caracterizar los estados de equilibrio y Gibbs 'entropía de grano grueso, cuya definición requiere una partición del espacio de fase en celdas finitas, así como la distribución de probabilidad original y que es un concepto útil para caracterizar el enfoque del equilibrio desde la perspectiva del conjunto. Además de estas nociones que son de naturaleza teórica de la medida, existen nociones topológicas que también pueden desempeñar el papel de un tipo de entropía.

Nada en esta complejidad se interpone en el camino de afirmar que la mecánica estadística describe el mundo de una manera que explica por qué la termodinámica funciona y funciona tan bien como lo hace. Pero la complejidad de la interrelación entre las teorías debe hacer que el filósofo sea cauteloso al usar esta relación como un paradigma simple y bien entendido de reducción interteórica.

Es de cierto interés filosófico que la relación de la termodinámica con la mecánica estadística muestre cierta similitud con los aspectos descubiertos en las teorías funcionalistas de la relación mente-cuerpo. Considere, por ejemplo, el hecho de que los sistemas de constituciones físicas muy diferentes (por ejemplo, un gas compuesto por moléculas que interactúan por medio de fuerzas por un lado y por otro lado, la radiación cuyos componentes son longitudes de onda de luz acopladas energéticamente) pueden compartir termodinámica. caracteristicas. Pueden, por ejemplo, estar a la misma temperatura. Físicamente, esto significa que los dos sistemas, si inicialmente están en equilibrio y luego están acoplados energéticamente, conservarán sus condiciones de equilibrio originales. El paralelismo con la afirmación de que un estado mental funcionalmente definido (una creencia, por ejemplo) puede ser instanciado en una amplia variedad de dispositivos físicos es claro.

7. La dirección del tiempo

Hemos notado que fue Boltzmann quien primero sugirió que nuestro concepto mismo de la dirección futura del tiempo estaba fijado por la dirección en el tiempo en que la entropía aumentaba en nuestra parte del universo. Numerosos autores han seguido esta sugerencia y la teoría "entrópica" de la asimetría del tiempo sigue siendo un tema muy debatido en la filosofía del tiempo.

Primero debemos preguntarnos qué afirma realmente la teoría. En una versión sensata de la teoría no se afirma que descubramos el orden temporal de los eventos al verificar la entropía de los sistemas y tomar el evento posterior como aquel en el que algún sistema tiene su entropía más alta. La afirmación es, más bien, que son los hechos sobre la asimetría entrópica de los sistemas en el tiempo los que "fundamentan" los fenómenos que generalmente pensamos que marcan la naturaleza asimétrica del tiempo mismo.

¿Cuáles son algunas características cuya asimetría temporal intuitiva pensamos que, tal vez, "constituye" la naturaleza asimétrica del tiempo? Hay asimetrías de conocimiento: tenemos recuerdos y registros del pasado, pero no del futuro. Hay asimetrías de determinación: pensamos que la causalidad va del pasado al presente y al futuro, y no al revés. Hay asimetrías de preocupación: podemos arrepentirnos del pasado, pero anticipamos ansiosamente el futuro. Hay supuestas asimetrías de "determinabilidad" de la realidad: a veces se afirma que el pasado y el presente tienen una realidad determinada, pero que el futuro, siendo un reino de meras posibilidades, no tiene tal ser determinado.

La teoría entrópica en su formulación más plausible es una afirmación de que podemos explicar el origen de todas estas asimetrías intuitivas al referirnos a hechos sobre la asimetría entrópica del mundo.

Esto se puede entender mejor observando la misma analogía utilizada por Boltzmann: la cuenta gravitacional de arriba y abajo. ¿Qué queremos decir con la dirección hacia abajo en una ubicación espacial? Todos los fenómenos por los cuales identificamos intuitivamente la dirección hacia abajo (como la dirección en la que caen las rocas, por ejemplo) reciben una explicación en términos de la dirección espacial de la fuerza gravitacional local. Incluso nuestra conciencia inmediata de qué dirección está hacia abajo es explicable en términos del efecto de la gravedad sobre el fluido en nuestros canales semicirculares. No nos sorprende en absoluto que “caído” para Australia esté en la dirección opuesta a “caído” para Chicago. Tampoco nos consterna que nos digan que en el espacio exterior, lejos de un gran objeto gravitante como la Tierra,no hay tal cosa como la distinción hacia arriba y hacia abajo y ninguna dirección del espacio que es la dirección hacia abajo.

De manera similar, el teórico entrópico afirma que son las características entrópicas las que explican las asimetrías intuitivas señaladas anteriormente, que en las regiones del universo en las que la asimetría entrópica fue contra-dirigida en el tiempo, las direcciones del tiempo pasado-futuro serían opuestas, y que en una región del universo sin una asimetría entrópica ni la dirección del tiempo contarían como pasado o futuro.

El gran problema sigue siendo tratar de demostrar que la asimetría entrópica es explicativamente adecuada para dar cuenta de todas las demás asimetrías en la forma en que la asimetría gravitacional puede explicar la distinción de arriba y abajo. A pesar de muchas contribuciones interesantes a la literatura sobre esto, el problema sigue sin resolverse.

8. Dinámica cuántica

La mayor parte de la investigación fundamental sobre la mecánica estadística supone una base dinámica clásica para describir la dinámica de los componentes constitutivos de los sistemas macroscópicos. Pero esto no puede ser correcto, por supuesto, ya que esa dinámica subyacente debe ser mecánica cuántica. Gibbs fue cauteloso al afirmar un papel explicativo simple para su versión de conjunto de mecánica estadística, por ejemplo, ya que condujo a predicciones notoriamente falsas para características macroscópicas de sistemas como su calor específico. Más tarde se dio cuenta de que la falla aquí no radicaba en la mecánica estadística de Gibbs, sino en asumir la dinámica clásica a nivel constituyente. Una vez que los sistemas se volvieron a describir sobre la base mecánica cuántica correcta, los errores predictivos desaparecieron.

El cambio natural a una base mecánica cuántica conduce a cambios generales dentro de la mecánica estadística. Por ejemplo, se necesita una nueva noción de espacio de fase con probabilidades sobre él. ¿Significa esto, sin embargo, que las exploraciones fundamentales que presuponen la mecánica clásica ahora son irrelevantes?

Ya hemos señalado que se han hecho algunas propuestas que buscan fundamentar la naturaleza muy probabilística de la mecánica estadística en la naturaleza fundamentalmente probabilística de la mecánica cuántica a nivel dinámico, o, más bien, en alguna interpretación de cómo funciona la probabilidad en las raíces. de mecánica cuántica.

Sin embargo, incluso sin ir tan lejos, el cambio a una base dinámica cuántica solo requiere un replanteamiento de los temas sutiles en los debates fundacionales. Desde los primeros días, el teorema de recurrencia de Poincare fue un problema para la mecánica estadística. Con una base dinámica clásica, se podría responder que si bien el Teorema se aplicaba a los sistemas individuales que conciernen a la teoría, no necesariamente se mantendría en un conjunto de tales sistemas. Una vez que uno se mueve a una base mecánica cuántica, esta "salida" ya no está disponible. Sin embargo, en ambos marcos dinámicos, un movimiento hacia el límite termodinámico de un número infinito de componentes para un sistema puede eliminar la aplicabilidad del teorema como una objeción a la monotonicidad del cambio termodinámico que no se puede obtener en la mecánica estadística.

9. Cambio de fase

Una de las características macroscópicas más llamativas de los sistemas es la existencia de múltiples fases (gas, líquido y sólido, por ejemplo, o diamagnético y ferromagnético para otro) y las transiciones entre esas fases como características termodinámicas como temperatura y presión o magnetización impuesta. variado. Los primeros trabajos sobre las transiciones de fase se centraron en la forma en que las cantidades cambiaban de una manera no analítica de una fase a otra, a pesar de que la mecánica estadística parecía mostrar que tal comportamiento no analítico era imposible, al menos para sistemas con un número finito de componentes. Aquí el recurso era a menudo ir al "límite termodinámico" de un sistema infinito idealizado.

Más recientemente, se han desarrollado métodos para tratar algunas transiciones de fase que no solo complementan los esquemas explicativos estándar de la mecánica estadística tradicional, sino que también proporcionan información sobre la variedad de formas que pueden tomar las explicaciones científicas. El programa explicativo, el uso del llamado "grupo de renormalización" da una idea de por qué es que los sistemas de naturalezas físicas bastante diferentes pueden mostrar similitudes termodinámicas en sus transiciones de fase a fase. En algunos casos, se considera que la naturaleza de la transición depende de unos pocos parámetros abstractos y no de los detalles físicos del sistema. Lo que importa son cosas como la dimensión del sistema,los grados de libertad de la dinámica de los constituyentes y los límites generales de las interacciones de los constituyentes entre sí, como el comportamiento a corto y muy largo alcance de las fuerzas relevantes de interacción.

El truco es mirar primero las interacciones de los constituyentes más cercanos. Luego, uno se mueve a un bloque de constituyentes en relación con los bloques similares más cercanos. La nueva interacción de bloque a bloque a veces se puede obtener mediante una "escala" de la interacción constituyente individual original. Uno continúa este proceso hasta el límite de un sistema infinito y busca un punto límite para la interacción continuamente reescalada. A partir de este comportamiento limitante, a veces se pueden encontrar las sorprendentes características "universales" del cambio de fase, lo que explica la generalidad de transiciones de fase similares en diversos sistemas físicos.

La estrategia explicativa aquí es bastante diferente a la habitual que se encuentra en la mecánica estadística y muestra incisivamente cómo los detalles de los sistemas físicos que piden explicaciones en la ciencia pueden requerir la introducción de nuevas tácticas metodológicas para obtener una comprensión completa. En esto, la introducción de estos métodos de grupo de renormalización se asemeja a la forma en que la necesidad de una explicación atomista del comportamiento termodinámico macroscópico en sí mismo requería que se agregaran los nuevos métodos de mecánica estadística al repertorio más antiguo de explicaciones dinámicas típicas.

Bibliografía

Sklar 1993 es un tratamiento integral de los temas desde una perspectiva filosófica. Reichenbach 1956 tiene un interés histórico importante. Una discusión accesible y actualizada de los temas fundamentales es Albert 2000. La posible invocación de una ley asimétrica temporal a través del GRW enfoque se discute en este libro. Una defensa enérgica del enfoque inicial de baja entropía de la asimetría del tiempo es Price 1996. Frigg 2008 revisa el trabajo de un filósofo adicional sobre los temas fundamentales. Las traducciones al inglés de muchos artículos fundamentales originales se encuentran en Brush 1965. Brush 1976 proporciona un tratamiento histórico del desarrollo de la teoría. Dos obras fundamentales que son esenciales son Gibbs 1960 y Ehrenfest y Ehrenfest 1959. Dos trabajos que explican claramente y detallan muchos de los aspectos técnicos de la mecánica estadística fundamental son Emch y Liu 2002 y Toda, Kubo y Saito 1983. Estos dos trabajos proporcionan una base completa en la mecánica estadística cuántica y en cómo se diferencia de la mecánica estadística basada en la teoría clásica.. Una excelente introducción al cambio de fase y la teoría del grupo de renormalización es Batterman 2002.

  • Albert, D., 2000, Time and Chance, Cambridge, MA: Harvard University Press.
  • Batterman, R., 2002, El diablo en los detalles, Oxford: Oxford University Press.
  • Brush, S. (ed.), 1965, Kinetic Theory, Oxford: Pergamon Press.
  • Brush, S., 1976, The Kind of Motion That We Call Heat, Amsterdam: North-Holland.
  • Ehrenfest, P. y T., 1959, Fundamentos conceptuales del enfoque estadístico en mecánica, Ithaca, Nueva York: Cornell University Press.
  • Emch, G. y Chuang, L., 2002, The Logic of Thermostatistical Physics, Berlín: Springer.
  • Frigg, R., 2008, "Una guía de campo para el trabajo reciente sobre los fundamentos de la mecánica estadística", en D. Rickles (ed.), The Ashgate Companion to Contemporary Philosophy of Physics, Londres: Ashgate, pp. 99-196.
  • Gibbs, J., 1960, Principios elementales en mecánica estadística, Nueva York: Dover.
  • Price, H., 1996, Time's Arrow and the Archimedean Point, Oxford: Oxford University Press.
  • Reichenbach, H., 1956, La dirección del tiempo, Berkeley: University of California Press.
  • Sklar, L., 1993, Física y azar: cuestiones filosóficas en los fundamentos de la mecánica estadística, Cambridge: Cambridge University Press.
  • Toda, M., Kubo, R. y Saito, N., 1983, Física estadística (volúmenes I y II), Berlín: Springer.

Herramientas académicas

icono de hombre sep
icono de hombre sep
Cómo citar esta entrada.
icono de hombre sep
icono de hombre sep
Obtenga una vista previa de la versión PDF de esta entrada en Friends of the SEP Society.
icono inpho
icono inpho
Busque este tema de entrada en el Proyecto de ontología de filosofía de Internet (InPhO).
icono de papeles de phil
icono de papeles de phil
Bibliografía mejorada para esta entrada en PhilPapers, con enlaces a su base de datos.

Otros recursos de internet

[Póngase en contacto con el autor con sugerencias.]

Recomendado: