viernes, diciembre 19, 2008

Melville en la "P", Cervantes en la "E"

En el post anterior hablábamos de la termodinámica, y del papel central que en ella juega la magnitud llamada entropía. La entropía es una medida del desorden de un sistema: si el sistema está en un estado de baja entropía, está muy ordenado. En cambio si está en un estado de alta entropía, está muy desordenado. La segunda ley de la termodinámica, de la que ya hablamos antes, dice que la entropía de un sistema aislado no puede disminuir, es decir que su grado de orden no puede aumentar.

Ahora bien ¿como medimos el orden de un sistema? O lo que es lo mismo ¿como medimos su desorden? La respuesta está en la cantidad de información necesaria para describir su estado:

- Un sistema en un estado muy ordenado, como los libros de una bilioteca organizados por orden alfabético por autor, se describe completamente con muy poca información. En efecto, basta con conocer la regla que usamos para ordenar el sistema, en este caso "por orden alfabético por autor", para poder encontrar inmediatamente cualquier libro.

- Un sistema en un estado muy desordenado en cambio, como los libros de una biblioteca completamente mezclada, requiere muchísima información para ser descripto. Es decir hay que dar un enorme número de detalles para describir completamente el sistema. En el ejemplo, sólo sabiendo el estante y posición de todos y cada uno de los libros -el Quijote en el estante 4-19, Moby Dick en el estante 7-21, Sherlock Holmes en el estante 1-74, etc- seremos capaces de encontrar cualquiera de ellos.

Entonces que tan desordenado esté un sistema dependerá de que tan complicada sea la regla para describirlo. Reglas sencillas ("por orden alfabético por autor") corresponden a sistemas ordenados. Reglas complejas ("el Quijote en el estante 4-19, Moby Dick en el estante 7-21, Sherlock Holmes en el estante 1-74, etc") corresponden a sistemas desordenados.

Pero el lector observador habrá notado ya la trampa: algo ordenado de acuerdo a una regla sencilla pero desconocida, se nos antojará desordenado. Por ejemplo, una biblioteca en la que el Quijote no estuviera en la C de Cervantes, y Moby Dick no apareciera en la M de Melville, podría sin embargo estar ordenada de acuerdo a una regla sencilla. En efecto, la regla ignorada podría ser "por orden alfabético por protagonista", correspondiendole al Quijote la Q, y a Moby Dick la I de Ismael. Incluso si esa hipótesis falla, aún podría tratarse de una biblioteca ordenada de acuerdo a alguna otra regla imaginable. Por ejemplo "por orden alfabético por texto del primer capítulo" pondría al Quijote en la E de "En un lugar de La Mancha..." y a Moby Dick en la P de "Podeis llamarme Ismael...".  Pero entonces, si es tan fácil confundirse declarando desordenado un sistema que en realidad está ordenado ¿tiene algún sentido hablar de orden y desorden?

La respuesta la dá la escala: tiene sentido hablar de orden y desorden siempre y cuando nos limitemos a observaciones por encima de un dado tamaño. En nuestro ejemplo, si, limitada por la edad, nuestra visión solo nos permitiera leer caracteres de imprenta de tamaño "letra de tapa", llamaríamos ordenada a una biblioteca que siga la regla "por autor", y en cambio creeríamos desordenada a una biblioteca que siga la regla "por protagonista", ya qué no podríamos distinguir tal orden al ser incapaces de leer las letras pequeñas del texto. Es decir que en un contexto puramente macroscópico los sistemas pueden parecer desordenados, aunque en realidad estén ordenados a nivel microscópico. Si, hartos de perder libros, compráramos anteojos que nos permitieran distinguir caracteres más pequeños, llamaríamos ordenada a una biblioteca que lo esté tanto "por autor" como "por protagonista", ya que ahora seríamos también capaces de verificar esta segunda opción. Sin embargo, seguiríamos llamando desordenada a una biblioteca que lo esté "por pié de imprenta", porque aún nos será imposible ver letra tan pequeña. En otras palabras, la afirmación de que un sistema esta ordenado o desordenado solo tiene sentido si se la acompaña con la escala mínima que podemos observar.

Esta óptica resignifica la segunda ley de la termodinámica. La afirmación de que la entropía nunca disminuye, es decir que el orden jamás aumenta, implica que a medida que transcurre el tiempo la cantidad de información necesaria para describir el estado de un sistema sólo puede aumentar. Esta afirmación sólo tiene sentido si se la acompaña de una escala mínima hasta la que se puede observar. La segunda ley asegura que una biblioteca ordenada por autor, siguiendo procesos naturales y aislada del exterior, sólo puede desordenarse. Pero esto es cierto a la escala en la que sólo se percibe el orden "por autor", es decir a la escala de la letra de tapa. Podría ser que mientras se desordena "por autor", en realidad se esté reordenando "por pie de imprenta", es decir que puede ser que a escalas mas pequeñas, el desorden no esté aumentando. Esto hace a la segunda ley de la termodinámica compatible con uno de los principios fundamentales de la mecánica cuántica, llamado unitariedad, que dice que la información que describe completamente el estado actual de un sistema, permite describir completamente todos sus estados futuros. Es decir que el sistema jamás se desordena, el orden siempre persiste a pequeña escala, y lo que en realidad sucede es que dejamos de ser capaces de percibirlo.

Puesta en estos términos, la segunda ley de la termodinámica, lejos de extender al Universo nuestra propia finitud, sólo cuantifica la limitación de nuestro conocimiento de él.

29 comentarios:

  1. A medida que la regla sea cada vez más sencilla, el orden es cada vez "más orden".

    Entonces, ¿cómo medimos: por intensidad o por cantidad total?

    Pueden pasar infinidad de años e infinidad de reglas cada vez más sencillas. Pero el hecho de que estas reglas sean muchas no significaría que aumenta el desorden, puesto que "intensifican su sencillez".

    Si el Universo y la cognición humana están siguiendo una dirección hacia la "intensificación de la sencillez", luego, no hay entropía.

    O, en todo caso, la habría desde el punto de vista legislativo pero no desde el punto de vista de los principios físicos involucrados.

    ResponderEliminar
  2. Vengo a combatir la Herejía!!
    Necesitaremos pues, para mantener la ilusión de orden, construir cada tanto una escala más detallada, esto es un esfuerzo o inyección de energía externa - que no podemos robarle al sistema observado - que compensa la entropía que no aumenta...
    Y además para estar seguros que un sistema cuántico cumpla la "unitariedad" debemos observalo en el tiempo, para lo cual necesitamos un reloj para lo cual necesitamos de la entropía ! - porque en los sistemas cuánticos no hay flecha del tiempo.
    Ergo, la entropía se salva siempre. (Carnot, Carnot, que grande sos)

    ResponderEliminar
  3. Ulschmidt, esa "inyección de energía externa" ¿cómo la medís, para saber si compensás o no, en densidad de flujo o en calor?

    Por ej., las fuentes energéticas de baja temperatura no sustituyen a las fuentes de alta temperatura, porque para pasar a determinados estados tenés que tener cierto nivel correspondiente de "densidad de flujo energético", porque sino no pasás a ese estado. Por lo tanto, si uno quisiera producir ciertas cosas tenés que tener la densidad de flujo lo suficientemente alta como para que pueda ser posible esa producción.

    Me parece que viene al caso el ej. de la clorofila. Si el átomo de la placa de moléculas transformadora de la luz solar pulsara un flujo de energía a la misma o menor densidad que el rayo de luz incidente, no podría separar el oxígeno y el carbono del dióxido de carbono. Para hacer ese trabajo necesita elevar esa densidad.

    Me cuesta admitir el veredicto (legislativo) de la termodinámica en el sentido de considerar que el Universo, antes de la formación de esas "antenitas" de moléculas que hacen el increíble trabajo de la clorofila con los efectos que esto tiene en el medio ambiente, pueda ser considerado "más ordenado" que cuando esas antenitas no existían. Sin esas moléculas de la clorofila las leyes de la termodinámica no podrían haber sido enunciadas porque el ser humano no existiría.

    ¿Qué sentido tiene hablar de un "orden superior" previo a intensificaciones o aumentos de densidad energética que crean efectos y realidades que no se hubieran creado si no hubiera sucedido ese aumento de densidad energética?

    Por eso digo que si las consecuencias de los aumentos en la intensidad o densidad energética de la fuente que la produce resulta en un trabajo muy superior al que se haría sin ese aumento de densidad, no va a ser conveniente medir la energía como meras calorías.

    ResponderEliminar
  4. Pongamos el caso de la "blogósfera Blogger". ¿Es posible medir su entropía? Mi percepción es que se trata de un sistema totalmente desordenado. Sin embargo sospecho que para las autoridades de Google no lo es. Los "Enlaces a esta entrada", los "seguimientos de blogs", etc., deben haber sido pensados para disminuir la sensación de desorden total que se siente frente a este sistema. Utilizando esas "herramienta" cada blogger puede "armar" su mini blogósfera. Algo así como “que persista el orden en pequeñas escalas” (o por lo menos la percepción de que está ordenado).
    Orden, desorden; más información, menos información, mayor o menor escala. Parece ser solo un problema de percepción. ¿Será Posible?

    ResponderEliminar
  5. Oti,

    Severian se corre un poco de la interpretación de la Física y pasa a la Teoría de la Información clásica con un poco de la Teoría Algorítmica de la Información (Kolmogorov y "nuestro" Chaitin), en mi opinión.

    Un ejemplo sencillo. Por qué no es posible comprimir infinitamente un archivo (usando siempre el mismo método de compresión)? Porque se llega al máximo desorden = la menor estructura = la no posibilidad de establecer reglas que "compriman".

    Si yo tengo una cadena de 1000 ceros puedo escribirlos y la longitud resultante será 1000, pero la regla "escribir 1000 veces cero" tiene longitud 24. En ese sentido los mil ceros tienen mucho orden = muhca estructura = una regla que los define. La regla, por el contrario, está más desordenada, es más difícil encontrar otra regla que la defina más pequeña, por eso no vale lo de "A medida que la regla sea cada vez más sencilla, el orden es cada vez "más orden"."

    En la TAI si mal no recuerdo, la info de una cadena es la longitud del algoritmo minimal que la describe.

    ResponderEliminar
  6. La utilidad de leer este blog no puede soslayarse.

    La otra noche mi madre comentaba sobre el estado de mi habitación, a lo que le respondí: ¿cómo se mide el nivel de entropía en un sistema? Por cuán ordenado está, claro. ¿Y cómo sabemos cuán ordenado está? Hace falta una regla. Pero puede estar ordenada y que no lo sepamos, si no conocemos la regla. Así, la pila de apuntes y libros a simple vista despelotados sobre una de las dos camas puede tener un orden para mí, pueden resultarme perfectamente accesibles, mientras que para ella, que evidentemente usa otra regla, le parece lo contrario y sólo ve caos y entropía, clamando por una fuerza externa que intervenga en el sistema (yo) y lo ordene (según su regla).

    Dicho esto, procedí a acostarme sin ordenar un pomo, satisfecho con la elegancia de la excusa.

    ResponderEliminar
  7. Oti:

    La mecánica cuántica predice que el desorden total no aumenta ni disminuye. Sólo aumenta el desoroden perceptible por encima de una cierta escala.

    Ejemplo: imaginemos un bloque de hielo. Si lo examino sin microscopio, puedo describir completamente la posición del bloque dando las coordenadas de uno de sus vértices. Si lo examino con microscopio, esas coordenadas corresponden a la molécula de agua que se ubica en el vértice del bloque, las otras moléculas están colocadas en un cristal perfecto. Por lo tanto, a partir de la primera y sabiendo la forma de la red cristalina puedo ubicar inmediatametne y sin datos extra la posición de cada una de las moléculas que lo forman (las moléculas en una red cristalina están en una suerte de hoja cuadricualda: si se la posición del primer cuadrito de una hoja cuadriculada, y se el tamaño de la cuadrícula, puedo ubicar exactamente todos los demás cuadritos). Es decir que puedo describir completamente el sistema.

    Es decir que en el caso del hielo, el mismo dato (la posición del vértice) nos permite describir completamente el sistema tanto a nivel macroscópico (al mirar sin microscopio ma dá la posición del bloque como un todo) como a nivel microscópico (al mirar con microscopio me da la posición de todas y cada una de las moléculas de agua).

    Ahora bien, supongamos que derrito el hielo formando un charco de agua que después caliento hasta evaporar. Ahora todo el hielo se transformó en una nube de vapor. Si miro la nube a nivel macroscópico, las coordenadas donde estaba inicialmente el vértice del bloque de hielo NO son suficientes para describirla completamente. La nube tiene regiones más densas o menos densas que tiene que ver con cómo se calentó y de que manera se fundió. Es decir que perdí información a nivel macroscópico. Es a esa información a la que nos referimos cuando decimos que aumentó la entropía. Pero si la miramos a nivel microscópico, la posición inicial del vértice del bloque antes de la evaporación me permite inferir la posición inicial de cada una de las moléculas que lo componían. Y puedo usar las leyes del movimiento para conocer la posición de cada una de las molécuas que ahora forman la nube de vapor. Es decir que puedo describir completamente el sistema con la misma información., Es decir que no perdí información. No aumentó la entropía.

    La moraleja de la historia es que el aumento de la entropía es solo un reflejo de nuestro conocimiento limitado del sistema, extraído a partir de una observación macroscópica. A nivel microscópico la información no se pierde, es decir que la entropía no aumenta. Por lo tanto no creo que sea correcto decir que el universo sea entrópico (salvo que asumamos que las leyes de la mecánica cuántica se verán esencialmente modificadas cuando incluyamos la gravedad, pero el consenso es que eso no va a pasar).

    Entonces, ¿cómo medimos: por intensidad o por cantidad total?

    No es una pregunta simple. La entropía es una magnitud macroscópica. En general se hace muy complicado definir esas magnitudes de forma local. Es decir no podemos decir cuanto es el desorden aqui (digamos en el interior de una neurona humana). Sólo podemos decir cuanto vale el desorden dentro de una dada región macroscópica del espacio (digamos dentro de un cerebro humano completo).

    La entropía es una magnitud extensiva, lo que significa que crece con el volumen. La entropía contenida en dos litros de agua es el doble de la contenida en un litro. Entonces la entropía contenida en medio litro será la mitad, y la de un cuarto será la cuarta parte. Parecería que nada prohibe llevar esto hasta esacalas tan pequeñas como queramos, permitiéndonos de ese modo definir cuanto vale la entropía aqui, digamos en un milímetro cúbico de agua. Parece que cada milímetro cúbico de agua tiene un poquito de entropía.

    Pero resulta que cuando entra en juego la gravedad, la cosa cambia y la entropía no crece con el volumen sino con la superficie. Por ejemplo, la entropía de un agujero negro cuya superficie es de dos metros cuaddrados es el doble de la de uno con un metro cuadrado de superficie. ¡Pero el volumen de esos dos agujeros negros NO está en relación 2 a 1! Es decir que parece que no es cierto que cada milímetro cúbico dentro de un agujero negro tiene un poquito de entropía, sino que cada milimetro cuadrado de su superficie tiene un poquito de entropía. Pero entonces ¿cuanto vale la entropía aqui, en un punto cualquiera debajo de dicha superficie?

    Es decir que la entropía o desorden se define por cantidad total, no por concentración local.

    ResponderEliminar
  8. Y además para estar seguros que un sistema cuántico cumpla la "unitariedad" debemos observalo en el tiempo, para lo cual necesitamos un reloj para lo cual necesitamos de la entropía ! - porque en los sistemas cuánticos no hay flecha del tiempo.

    Me parece que hay una confusión alli. Que sea necesario un reloj no significa que sea necesaria una flecha del tiempo. El tiempo es una dimensión similar a las dimensiones espaciales, pero tiene dos diferencias: sólo nos podemos mover en una dirección en el tiempo, y esa dirección no es arbitraria sino que está dirigida hacia el futuro. Lo primero se llama causalidad y lo segundo flecha del tiempo. Un reloj es simplemente un sistema capaz de medir la distancia entre dos instantes temoprales sin importar cómo estén ordenados esos instantes. Se parece mucho a una regla, que mide distancias entre dos puntos en el espacio sin importar cuál de ellos esta a la derecha y cual a la izquierda.

    En otras palabras, la unitariedad se puede comprobar sin necesidad de tener una flecha del tiempo.

    La entropía se salva como medida de nuestro desconocimiento del sistema: un estado muy entrópico es un estado del que sabemos muy poco. Un estado menos entrópico es un estado sobre el cual tenemos más información. El Profeta dijo que la entropía no disminuye, es decir que a medida que transcurre el tiempo el estado no se simplifica, de modo de que nuestra información limitada nunca comienza a describirlo mejor. Los Herejes agregaron que lo contrario tampoco sucede: a medida que transcurre el tiempo, es estado del sistema no se complica, es decir que nuestra información limitada no se vuelve menos descriptiva. Y además, temerosos de Su ira, agregaron que la infomración resulta menos descriptiva si se pretende seguir aplicándola a la misma escala, lo que simula un aumento de entropía para quien tiene una resolución finita en su microscopio.

    ResponderEliminar
  9. Fernando:

    Efectivamente, la teoría de la información es la mejor manera de compatibilizar el concepto de entropía con las leyes de la mecánica.

    Las leyes de la mecánica dicen que un sistema formado por miles de partículas (como el aire contenido en una habitación) es un sistema predecible. Es decir que si conozco en un dado instante el estado e del sistema (es decir si conozco la posición y velocidad de cada una de las miles de partículas que componen el aire de la habitación), seré capaz de predecir el estado e' en cualquier instante posterior (es decir de conocer la posición y la velocidad de cada una de las partículas de aire en dicho instante). Y además las leyes de la mecánica son reversibles, dicen que conociendo el estado e' en el instante posterior, soy capaz de averiguar cual era el estado e del que partió el sistema en un instante anterior.

    Pero por otro lado las leyes de la termodinámica no son reveresibles. Dicen que si conozco el estado termodinámico E del sistema en un dado instante (es decir la presión y temperatura del aire en la habitación), seré capaz de predecir el estado E' del sistema en un instante posterior (la presión y temperatura en dicho instante), usando entre otras cosas la ley de aumento de entropía. Pero si en cambio conozco E', no soy capaz de decir cual era el estado E del cual partió el sistema en el instante anterior.

    Hay una aparente contradicción alli: si uso la mecánica, puedo volver hacia atrás, en cambio si uso la termodinámica no puedo.

    La respuesta está en la información. El estado e contiene toda la información necesaria para describir completamente el sistema, y evoluciona hacia un estado e' que sigue conteniendo toda la información, y por eso me permite saber cual era e. En cambio el estado E no contiene toda la información del sistema: hay varios e posibles que son compatibles con un dado E (hay varias posibilidades para las posiciones y velocidades de las partículas del sistema, que resultan en una dada presión y temperatura, y saber estas últimas no alcanza para saber las posiciones y velocidades de todas las partículas). Lo mismo pasa con el estado E'. Por esa razón el estado E' no contiene toda la información necesaria para resolver el estado E del que partió el sistema.

    La manera cuantitativa de manejar esto es decir que E corresponde a un cierto conjunto de e_i posibles con probailidad p_i. Es decir a una distribución de estados con una cierta probabilidad E={e_i,p_i}. Esa distribución de probabilidad tiene una cierta entropía estadística dada por la suma de p_i log(p_i). Esa entropía estadística corresponde a la entropía termodinámica del estado E.

    ResponderEliminar
  10. Verdugo:

    No le quepa duda de que en Google debe haber gente usando y desarrollando técnicas de manejo de información y medición de desorden mucho mas avanzadas que las que yo puedo guitarrear acá. Tarde o temprano se verá la utilidad de su aplicación a otros campos, como la física.

    Y si, es cierto que todo parece una cuestión de percepción. De hecho eso confunde un poco al principio, porque parece ser que se están sacando predicciones físicas usando como dato el grado de desconocimiento que el experimentador tiene respecto del sistema. Sin embargo, la idea es que los sistemas satisfacen la llamada hipótesis ergódica que dice que el sistema pasa rápidamente por todos los estados microscópicos que son compatibles con el estado macroscópico observado. Es decir que los promedios no son promedios sobre lo que conocemos de él, en realidad promedios temporales.

    ResponderEliminar
  11. Excelente! Hace bastante que el concepto de entropía me hace ruido ¿Qué es eso de medir el "grado de desorden"?

    Supongamos que tengo una caja llena de pelotitas de goma que están rebotando contra las paredes de la misma. Yo diría que este estado es altamente entrópico: si quiero describir el sistema en este momento tendría que describir la posición de cada pelotita una a una.

    Sin embargo me basta esperar y las pelotitas se quedarán todas quietas en el fondo de la caja, en un estado bastante menos entrópico, ya que podré decir con certeza que al menos conozco una coordenada espacial para la posición de todas las pelotitas. La entropía no ha aumentado, sino que ha disminuído en un sistema aislado.

    ¿En qué le pifio?

    Salute.

    ResponderEliminar
  12. Supongamos que tengo una caja llena de pelotitas de goma que están rebotando contra las paredes de la misma. Yo diría que este estado es altamente entrópico:

    Si, necesitas una posición y una velocidad para cada una de ellas, para poder dar una descripción completa del sistema. Por lo tanto dependiendo del numero de pelotitas, la regla para describir completamente el estado del sistema puede ser muy complicada y la entropía muy grande.

    Sin embargo me basta esperar y las pelotitas se quedarán todas quietas en el fondo de la caja, en un estado bastante menos entrópico, ya que podré decir con certeza que al menos conozco una coordenada espacial para la posición de todas las pelotitas. La entropía no ha aumentado, sino que ha disminuído en un sistema aislado.

    Los sistemas aislados conservan la energía. Es decir que para ellos el movimiento nunca desaparece. En el ejemplo que tenés en mente, lo que sucede es que cuando las pelotitas se quedan quietas, cada uno de los átomos que las forman comienza a agitarse. Entonces la energía que tenían las pelotitas fué a parar a esos átomos ("se transformó en calor", dirían los carnotistas devotos). Lo mismo pasó con su entropía: ahora para describir el sistema necesitás conocer la posición y velocidad de cada uno de los átomos ¡Y son muchos más que las pelotitas! Por lo tanto, la regla que describe completamente el sistema será mucho mas complicada. O sea que en realidad la entropía aumentó.

    De este aumento de entropía, debido precisamente a estas razones, es del que habla la segunda ley de la termodinámica.

    Pero ahora imaginate que tenés un microscopio poderoso. Entonces en el instante inicial, mirás el sistema con un microscopio y averiguás la posición y velocidad de cada uno de los átomos en cada una de las pelotitas. Después las dejas rebotar hasta que quedan en reposo. La pregunta es ¿necesitas una cantidad mayor información para describir completamente el estado final? Y la respuesta es NO: conociendo la posición y velocidad de cada uno de los átomos al principio del movimiento, cuando las pelotitas rebotaban por ahí, y usando las leyes del movimiento de Newton -o las más modernas de la mecánica cuántica-, podés calcular la posición y velocidad de cada uno de los átomos al final del movimiento, cuando las pelotitas estén apoyadas en el fondo de la caja. Es decir que la información que tenías al principio del experimento es la misma que necesitas al final. La entropía no aumentó.

    A esto último me refería en el post: la entropía aumenta cuando sólo miramos el sistema por encima de una cierta escala. Ese aumento de entropía es en realidad testimonio de cuanto desconocemos sobre el estado del sistema, al ignorar las escalas menores. En el ejemplo, si al principio del movimiento sólo conocemos la posición y velocidad de las pelotitas pero no la de cada uno de los átomos que las forman, entonces la entropía aumenta. Pero si al principio supieramos la posición y velocidad de cada uno de los átomos, eso sería suficiente para predecir esas posiciones y velocidades en el estado final, es decir que la entropía no aumenta.

    En otras palabras el aumento de entropía no es una ley fundamental del universo, sino una medida del modo limitado en el que conocemos algunos de sus estados. Una cosa que al menos yo encuentro fascinante al respecto, es que el universo se comporta de modo tal que podemos inventar leyes predictivas aún para estados que conocemos muy limitadamente. De hecho la termodinámica permite decir mucho sobre sistemas sobre los que sabemos muy poco. No encuentro una razón a priori por la que tal cosa debiera ser posible.

    ResponderEliminar
  13. Perdón por la intromisión, amigo Severian, pero leo un coment de Eduardo Real en el blog de Ernestino El Noble y Marcelo Eschoto que Usted le había comentado que los clarinetistas "Periodistas Independientes" habrían baneado los coments enviados por Usted.
    Bien, parece que eso es lo que pasa también conmigo, que hace ya varios días que dejo alguna apostilla y que por supuesto no es publicada.
    Parece que he sido declarado persona non grata por los Presuntos Defensores de la Libertad de la Empresa Clarín Pero no de la Libertad de Expresión.
    Feliz año.

    ResponderEliminar
  14. Como le va Aguante. ¿Así que usted también censurado? Se van a quedar mas solos que Chabán en el día del amigo.

    Que quiere que le diga, no entiendo muy bien que extraña compulsión morbosa me lleva a insistir en leer esa imitación de cartón de un "blog", y a intentar argumentar con los autores. Cada vez que entro allí sé que no debo comentar, me lo repito varias veces, pero el teclado está como embrujado y toma el control de mis manos. Lo peor es que tengo muy pocas simpatías con este gobierno, pero el asco que me dan las máquinas de mentir, y el riesgo de quedar en la misma vía que ese tren fantasma, me hace parecer oficialista. Y creo que entre quienes intentan hacer razonar a esas piedras, no soy el único en esa situación.

    ResponderEliminar
  15. Severian,

    tus dos ultimos posts, y mucho mas especialmente tus comentarios me parecen ESPECTACULARES...

    Lo que me sigue sorprendiendo es cómo el solo hecho de mencionar las palabras entropìa y relatividad dispara en mucha gente cierto esoterismo mezclado con una intento de usar esas palabras para responder a preguntas para las que no tiene sentido aplicarlas....

    ResponderEliminar
  16. "En otras palabras el aumento de entropía no es una ley fundamental del universo, sino una medida del modo limitado en el que conocemos algunos de sus estados."
    Me gustó esa, supongamos que un sistema complejo está simplificado mediante un artilujio, muuuchos supongamos.
    El sistema simplificado siempre contará con el error de interpretación de la simplificación, dado que toda medición es una perturbación al sistema y dado el error sistémico de la simplificación.
    Entonces yo no hablaría de desorden, dado que es una simplificación pensar qeu estuvo ordenado originalmente.El desorden es lo que se me aparta el sistema real complejo del sistema de representación simplificado.
    En el mejor de los casos la simplidficación está tan bién hecha que no se aparta del sistema real, en el peor se aparta cada vez mas.

    ResponderEliminar
  17. Postino: hay una especie de tradición de acuerdo a la cual el comportamiento predecible del mundo natural implica un comportamiento predecible de otros fenómenos no naturales, como los procesos sociales. Lo cual no necesariamente está mal, pero suelen estarlo las consecuencias que de allí se extraen. Porque claro, como los procesos sociales no tienen base empírica alguna, dado que la historia humana es muy corta y durante buena parte de ella no tomamos nota de lo que pasaba, entonces no hay herramientas para formular leyes predictivas para esos fenómenos.

    Algunos científicos sociales usan la casi nula base empírica disponible para formular leyes deterministas y creerlas infalibles. Tanto las antiguas "leyes de la historia" como el modernamente colapsado modelo neoliberal son de ese tipo. Cargo cult science, lo llamó Feynman, en alusión a las tribus polinesias que, habiendo sido beneficiadas por la llegada de aviones de carga durante la segunda guerra mundial, posteriormente edificaron un culto a las pistas de aterrizaje con radares hechos de palmeras y auriculares de coco. Esas pistas tenían todo lo que tenían que tener, excepto algo muy sutil pero esencial, una razón para que los aviones aterricen allí. Cargo cult science es algo que tiene todo lo que tiene que tener para ser ciencia pero que le falta una pieza sutil y fundamental (por ejemplo una base empírica correcta y suficiente).

    Otros investigadores sociales directamente les importa un pepino tener base empírica, formulan sus modelos copiando modelos de las ciencias naturales tal cual están, con un diccionario en general mal definido para identificar sus términos. Las leyes de la termodinámica aplicadas a la economía, el principio de incerteza en psicología, el darwinismo social, el relativismo cognitivo como implicación de la relatividad, mil más. Son ejemplos de voodoo science una especie de ciencia sin ciencia, algo que se contenta con sonar como si fuera científico, y lo hace copiando términos que se usan en las ciencias, pero que desde su comienzo no sigue el método científico.

    ResponderEliminar
  18. Charlie:

    Si te digo que tengo una botella de un litro de Chandón a 3 grados centígrados, estoy simplificando desde el principio (y no por borracho, supongamos que aún no me tomé la botella). Estoy simplificando porque para describir el sistema con exactitud debería saber la posición y velocidad de cada una de las moléculas que componen la solución, incluyendo las de agua, las de alcohol, las de esteres aromáticos varios, etc. Que se trate de un litro a 3 grados centígrados dice muy poco sobre cada una de esas posiciones y velocidades.

    De hecho, hay muchas configuraciones posibles de posiciones y velocidades que resultarían en una botella de Chandón a 3 grados centígrados. Millones. Ese número es lo que llamamos la entropía de la botella (en rigor, su logaritmo). Como ves, la entropía de la botella no está en la botella (donde cada molécula elige una posición y una velocidad de todas las que son compatibles con un litro a 3 grados centígrados) sino con lo que no sabemos de ella (cual de todas las posibilidades eligió cada molécula).

    ResponderEliminar
  19. Sev, muy de acuerdo con tus comentarios, y, como me conoces un poco, sabés que agregarìa a tu lista de voodoo science no solo a las pretensiones de la economìa clàsica sino, y quizàs màs aún, a las pretensiones del materialismo històrico, que no solo pretende encontrar "geodèsicas" en la historia, sino, que a partir de sus supuestas leyes cree (aunque ahora todos se hacen los distraìdos) que es posible predecir el devenir històrico....

    Por mi parte creo que esta tendencia forma parte de un componente del sistema cognitivo humano que lo hace buscar intencionalidad en todos los sucesos naturales. PAra decirlo de otra manera, lo lleva a extrapolar a los sucesos de la naturaleza un procedimiento que le sirve para interactuar con otros miembros de la especie. De allì desprenden que los rayos y las inundaciones suceden como consecuencia de los actos malos de la gente, y luego que detras de esos rayos, inundaciones y sequias hay un ser similar al ser humano pero mas poderoso. Y en la misma linea de extrapolacion, pero debajo de muchas capaz que ocultan su origen, esta el intento de extrapolar las leyes que rigen el mundo fìsico a las sociedades o a los individuos.

    Aclaro, que muchas veces es posible utilizar estructuras conceptuales nacidas de las ciencias duras para explicar fenòmenos sociales (eg, el uso de las ecuaciones del movimiento de partìculas de gas para explicar el movimiento del precio de una acciòn en un mercado perfecto)

    ResponderEliminar
  20. Es posible que haya puesto capaz en lugar de capas? Si lo es!!
    Fui capaz de hacerlo....he aumentado la entropìa de mis typos!

    ResponderEliminar
  21. Seve, me acaba de ocurrir algo curioso: leía los comentarios en orden inverso (esa mala costumbre bloggera) y vi tu respuesta a Charlie Boyle. Se me ocurrieron entonces unas ideas... que por lo que leí después me parece que están en línea con lo que dice Charlie Boyle, cuya definición de entropía me gustó.

    Todavía no me satisface el término "grado de orden", la palabra "orden" es un poco arbitraria porque el concepto "orden" es fundamentalmente antropomórfico, la naturaleza nada sabe de "orden". El orden es una clasificación que nosotros nos inventamos.

    Creo que en realidad se trata de conocimiento, encontrar un orden es encontrar un algoritmo, digamos. Digo que veo una bibioteca "desordenada" simplemente porque no sé la clave de orden que tiene, pero seguramente existen varias que describen el orden de esos libros. Concretamente en una biblioteca con los libros puestos al azar seguramente existe un algoritmo que describe su orden dependiendo de un criterio determinado (que puede ser tan estrambótico como la letra con la que empieza la septima palabra de la segunda página). O sea que el orden existe, sólo hay que descubrirlo.

    O sea que la definición de entropia es nuestra medida de desconocimiento del sistema, me pa.

    Otra cosa es: vos hablás siempre a nivel molecular, pero ¿qué hay de otros niveles? Tenés que definir arbitrariamente una unidad mínima, supongo, pero en sentido estricto ¿no habría que considerar electrones, protones y partículas subatómicas diversas? Digo, si es por "describir" hay que describir todo ¿no?

    Esto choca con mi ejemplo de las pelotitas de goma. Tu respuesta me hace ruido porque vos bajás a nivel molecular... pero ¿no es esa fijación un tanto arbitraria?

    Salutes!

    ResponderEliminar
  22. Je, seguí leyendo, Charlie está citando algo que escribí más arriba, que dice precisamente eso: la entropía es una medida de nuestro desconocimiento del sistema.

    ----
    Un ejemplo que me parece puede aclarar:

    Supongamos que tengo una moneda apoyada sobre la mesa en un estado que desconozco: puede ser cara o puede ser ceca, pero como la miro sin anteojos (a gran escala) de lo único que puedo estar seguro es que la moneda no está apoyada de canto. En ese caso hay 2 configuraciones posibles que son compatibles con lo que sé de la moneda, a saber: cara o ceca. La entropía de ese estado es Log(2) donde "Log" significa el logaritmo (*).

    Es decir que la entropía es una medida del número de configuraciones que son compatibles con el conocimiento limitado que tengo del sistema. Si hay N configuraciones diferentes que son compatibles con lo poco que sé, entonces la entropía es Log(N).

    Ahora bien, supongamos que me pongo los anteojos y veo que la moneda está apoyada con la ceca hacia arriba. Entonces ahora hay una sola configuración posible que es compatible con lo que sé del sistema: ceca. Es decir ahora que la entropía vale Log(1)=0. El sistema está ahora perfectamente ordenado, su entropía es nula.

    Fijate que entre la primera situación y la segunda nada cambió con la moneda, que estuvo siempre apoyada de la misma manera. Lo que cambió es lo que yo sé sobre ella. Primero la miraba sin anteojos, a gran escala, y luego la miré con anteojos, a pequeña escala. Y el hecho de ponerme los anteojos conllevó un cambio en la entropía del estado. Por lo tanto es correcto decir que la entropía de un sistema es una medida de cuando desconocemos sobre su estado, lo cual es una inmediata consecuencia de la escala a la que se hacen las observaciones


    ----
    Podemos ahondar un poco más en este ejemplo:

    Arriba supuse que con saber que la moneda estaba apoyada sobre la mesa había sólo dos estados compatibles con eso: cara o ceca. Y que si al ponerme los anteojos veía la ceca, entonces había un solo estado compatible: ceca.

    Eso es cierto si las moléculas que constituyen la moneda tienen muy poca energía, de modo que no pueden agitarse ni vibrar, y sólo les queda quedarse en reposo respecto de la moneda. Es decir para una moneda muy fría. En tal caso, con saber que está apoyada con la ceca hacia arriba, puedo conocer la posición y la velocidad de cada una de las moléculas que la constituyen, no son variables independientes que sea necesario averiguar para describir completamente el estado.

    En una moneda más caliente, hay más energía disponible. Entonces las moléculas que la constituyen pueden agitarse y vibrar. Por lo tanto, con saber la posición de la moneda aún no sabemos nada sobre como se mueve cada una de las moléculas. Su posición y velocidad son ahora variables independientes que es necesario conocer para describir completamente el sistema. Entonces para saber cuantos estados son compatibles con la moneda apoyada sobre la mesa, debería preguntarme cuantos posibles valores para la posición y la velocidad de cada molécula son posibles de modo de tener una moneda apoyada. Supongamos que fueran N valores posibles. Entonces la entropía sería Log(N).

    Pero para una moneda aún más caliente, habría energía suficiente para romper algunas de sus moléculas en sus constituyentes fundamentales (átomos o incluso partículas más elementales). Entonces para describir el estado, habría que dar las posiciones y velocidades de cada una de esas partículas elementales. Si hubiera M configuraciones compatibles con la moneda apoyada, entonces la entropía sería Log(M).

    ---

    En conclusión, la entropía es una medida de cuanto desconocemos acerca del estado de un sistema. Está dada por (el logaritmo de) el número de configuraciones microscópicas que son posibles con la cantidad de energía disponible, y que son compatibles con lo poco que sabemos del sistema.



    ---------
    (*) para quienes robaron la bolilla correspondiente en el secundario: el logaritmo es una operación matemática cuyos detalles no vienen al caso.

    ResponderEliminar
  23. Pregunta de lego.

    El principio de incertidumbre, por el que no se puede conocer la posición y la energía de una partícula simultáneamente, ¿no te impone un mínimo de estados posibles, que siempre resultará en un nivel de entropía superior a cero? Claro, entiendo que es una cuestión de escala. Suponemos que hablamos de partículas subatómicas a las cuales no podemos medir sin perturbar.

    Si pregunto burradas, o algo ya contestado previamente, mis disculpas anticipadas.

    ResponderEliminar
  24. Ulrich:

    Como decía mas arriba, la entropía de un sistema es (el logaritmo de) el número de estados posibles que son compatibles con lo que observamos de él.

    En la mecánica clásica, newtoniana, el estado de un sistema se definía por la posición y la velocidad de todas las partículas que lo componen. Por lo tanto, para saber la entropía del sistema teníamos que contar cuantas posiciones y velocidades posibles de cada una de las partículas (es decir cuantos estados) son compatibles con lo que observamos de él.

    Por ejemplo, si observamos una cierta cantidad de gas dentro de una a caja, es obvio que todas las partículas del gas deberán estar en alguna posición dentro de la caja, moviéndose con alguna velocidad en alguna dirección. Entonces contamos de cuantas formas posibles podemos acomodar las partículas satisfaciendo la restricción de estar dentro de la caja y de tener una velocidad arbitraria, y ese número (mejor dicho su logartitmo) nos da la entropía del gas.

    Si aplicáramos el principio de incerteza a la situación anterior, concluiríamos que sólo podemos tener un conocimiento incompleto de los posibles estados del sistema compatibles con lo que observamos. Por lo tanto habría un número mínimo de tales estados y, como vos decís, entonces siempre habría una entropía mínima.

    PERO hay un grave error en lo anterior: el principio de incertidumbre es una consecuencia de la mecánica cuántica, y no se lo puede mezclar con la definición anterior de un estado en mecánica clásica.


    Para conocer el estado de un sistema en mecánica cuántica, no es necesario conocer la posición y la velocidad de todas sus partículas, sino que alcanza con sólo una de esas variables (digamos la posición).

    Entonces para el gas en la caja, las partículas deben estar en alguna posición dentro de la caja. Entonces si cuento en cuantas maneras diferentes se pueden acomodar las partículas dentro de la caja, obtengo la entropía del gas. Fijate que en este caso velocidades diferentes corresponden al mismo estado.

    Entonces la entropía de un sistema bien podría ser cero, cuando existe sólo una posición para cada una de las partículas que es compatible con lo que observamos.

    De hecho, lo que asegura la tercera ley de la termodinámica es que existe una situación donde la entropía es cero, que corresponde a cuando el sistema tiene la minima energía posible.



    Si te interesa acá hay una serie de posts sobre mecánica cuántica.

    ResponderEliminar
  25. Gracias por la respuesta! No tenía tan claro que el principio de H. se aplicaba sólo en física cuántica. Debo leer con más atención. Excelente blog.

    ResponderEliminar
  26. El ejemplo que yo tenía era el de las letras. La primera vez que me puse a tipear un texto en la compu, al mirar el teclado me dije "pero ésto está todo desordenado". Mi patrón de órden referencial era el abecedario. En mi mente, "otro orden" era sinónimo de "desorden".

    ResponderEliminar
  27. El ejemplo que yo tengo para representar esta idea se basa en las letras. Recuerdo que la primera vez que me senté a tipear un texto en la compu, al mirar el teclado me dije "Pero ésto está todo desordenado!". En mi mente, todo lo que se apartara del orden preestablecido como referencia era desorden. Aún no sabía que el desorden era, en realidad, "otro orden".

    ResponderEliminar
  28. Perdon, ud sabe mas que yo, ineludiblemente
    pero, mecanica hay una sola, que uses clasica o cuanica dependera de nivel de anteojos (entre otras cosas)
    Saludos

    PS, lo mismo pasa con la relatividad no?

    PS2 tvia me acuerdo el calculo de los pozos y el efecto tunel con que me han martirizado

    ResponderEliminar
  29. Digamos que la naturaleza es una, hay diferentes teorías para explicar diferentes escalas. La mecánica cuantica y la mecánica clásica, como teorías, son muy diferentes. La mecánica cuántica contiene a la mecánica clásica en un límite particular (el de grandes escalas, h llendo a cero). Y claro, es similar a la mecánica relativista conteniendo a la mecánica clásica en un límite particular (el de bajas velocidades).

    El efecto tunel en la barrera cuadrada es el único caso que se puede resolver exactamente. Para el resto solo queda la aproximación de Coleman-DeLuccia.

    ResponderEliminar