sábado, mayo 17, 2008

Macánica Chántica - III. De tiranos y gatos clónicos

Al recordar algunos compañeros de escuela maltratando animales indefensos, imagino en qué se habrán convertido al crecer. O inversamente, me pregunto en qué se habrán entretenido algunos líderes mal reputados cuando niños.

Supongamos que, puestos a jugar al tirano, encerraran un dulce gatito dentro de una caja oscura. Como un tirano no es tal sin la tortura, meterían también en la caja una trampa mortal que, al modo de El Pozo y el Péndulo, amenazara la vida del minino. Un tirano de tiempos de la mecánica clásica -como, digamos, Luis XVI- pensaría que, conociendo la posición inicial del gato y de la trampa (o más precisamente de todas las partículas elementales que los componen), sus científicos serían capaces de hacer los cálculos necesarios para determinar si, después de un cierto tiempo, el gato estaría vivo o muerto. Y al abrir la caja esperaría encontrar exactamente ese resultado. Imaginemos el golpe mortal a su tiranía que significaría encontrarse en cambio un maullido feliz burlándose de su poder.

Un tirano moderno, en cambio -digamos, Hitler- sería mas precavido. Sabría que la mecánica clásica no es una buena descripción del mundo y usaría en cambio la mecánica cuántica. Pero como la mecánica cuántica nada nos dice sobre el resultado de un dado experimento, sino que nos provee de información estadística sobre un conjunto de experimentos idénticamente preparados, tendría que tratarse de un tirano más cruel. En efecto, tendría que clonar el gatito para conseguir mil copias idénticas, y luego tendría que fabricar mil cajas iguales cada una con su trampa. Entonces, al hacer el experimento de encerrar los mil mininos en las mil cajas con las mil trampas, su científicos serían capaces de decirle cuantos felinos muertos encontraría al abrir las cajas después de un cierto tiempo (aunque ciertamente no podrán decirle cuales). Tal tirano podría estar muy seguro de la efectividad de su demostración de poder, porque la mecánica cuántica no falla en ninguna situación conocida.

Al pensarlo un poco, podemos notar que hay algo paradógico en tal comportamiento cuántico. Estando las cajas cerradas, cada gato no tenía la menor idea de lo que le pasaba al de al lado. No sabía si su vecino aún estaba vivo o si ya había caído en la trampa. Y por lo tanto no tenía manera de saber si, para ajustar con las predicciones cuánticas, debería andar con cuidado o por el contrario buscar la trampa y tirarse de cabeza en ella. Es decir que no es obvio de qué manera cada gato se confabuló con los otros para resultar en el comportamiento predicho por los científicos del dictador para el conjunto. Imaginar un mecanismo para que eso pase es lo que se conoce como una interpretación de la mecánica cuántica. Existen varias de tales interpretaciones, siendo las más difundidas las tres que comentaremos a continuación.

La interpretación de Copenhagen dice que, dentro de las caja, cada gato no está ni vivo ni muerto sino con una cierta probabilidad. Supongamos que la mecáncia cuántica predice que al abrir las cajas encontraremos a una mitad de los gatos muertos y a la otra mitad aún con vida. La interpretación de Copenhagen nos dice entonces que, mientras están dentro de las cajas, cada uno de ellos está vivo con probabilidad del 50% y muerto con una probabilidad del 50%. Cuando el experimentador abre la caja y mira dentro, cada gato elige uno de los dos estados (colapsa en uno de ellos) de acuerdo a esa probabilidad. Es decir que un 50% de los felinos elegirá el estado "muerto" y el otro 50% de ellos el estado "vivo". Cual gato optará por qué estado es impredecible.

De ese modo el comportamiento estadístico de la mecánica cuántica sería consecuencia de un comportamiento bien definido de cada componente del conjunto de gatos. Además no habría necesidad de suponer que los gatos se pusieron de acuerdo de ningún modo durante el experimento, cada uno de ellos tenía toda la información necesaria en dicha distribución de probabilidad. Pero por cierto dicho comportamiento es extremadamente anti-intuitivo: cada gato estaba un poco vivo y un poco muerto cuando estaba dentro de la caja, y fue el experimentador al abrir la caja y mirar dentro quien obligó a los gatos a definir su suerte. De aquí la famosa "influencia inevitable del observador" que tanta sanata evitable han motivado.

La interpretación de variables ocultas en cambio, dice que el proceso de clonado falla de algún modo tan sutil que, si bién ni el biólogo más avezado es capaz de distinguir los gatos, estos son diferentes. Entonces dentro de las cajas cada felino se comporta de modo diferente a los demás. Algunos pisan la trampa y son alfombra, mientras que otros tienen la suerte o la destreza de evitarla. Claro que la pregunta permanece: ¿como sabe cada gato lo que le pasó a los demás, de modo de que todos puedan "ponerse de acuerdo" en resultar una mitad vivos y la otra mitad muertos? La respuesta que propuso Bohm a este problema fué la siguiente: existe siempre un libro (llamado onda piloto) que todos los gatos pueden leer aún cuando están aislados dentro de sus cajas. Este libro les dice sin lugar a dudas lo que cada uno tiene de particular, y lo que debe hacer para asegurar el resultado global esperado.

De acuerdo a esta interpretación, en cada momento dentro de la caja cada gato esta o bién vivo o bién muerto lo que resulta mucho más cómodo a nuestra intuición. Pero el precio a pagar es la existencia de ese libro que todos pueden leer a la vez, y que les permite coordinar sus comportamientos particulares de modo de ajustar a las predicciones.

Finalmente la interpretación de muchos mundos desarrolada por Everett, dice que, por cada caja que se abre, el universo se divide en dos copias, una donde el gato correspondiente a esa caja está vivo y otra donde el mismo minino no tuvo suerte. En otras palabras, en lugar de obligar al gato a elegir uno de los posible estados en el momento de la observación, Everett propone que ambas posibilidades se realizan, una en cada copia del universo. Ese proceso se repite para cada una de las cajas, resultando al final con muchas copias del universo en las que todos los estados posibles se hace realidad.

Si bien la interpretación de muchos mundos nos ahorra la suposición de que es el observador el que obliga al gato a elegir un destino (como la intepretación de Copenhaguen) o de que existe un libro que todos los gatos pueden leer desde dentro de las cajas (como la intepretación de variables ocultas), pagamos el precio de aceptar que existen infinitos universos donde todos los resultados posibles de una dada observación se hacen reales. En otras palabras, cuando abrimos una puerta, exite un universo en el cual encontramos un tigre en nuestra habitación.

Las interpretaciones de la mecánica cuántica son un tema abierto de investigación. Todas ellas se limitan al presente a opciones puramente filosóficas, dado que no hay un modo experimental de ponerlas a prueba. La interpretación de Copenhagen fue históricamente la primera en ser propuesta y se popularizó entre científicos en razón de su minimalismo y su simplicidad. Inicialmente existía una enorme confusión sobre la viabilidad una interpretación de variables ocultas, por lo que pasaron décadas hasta que Bohm encontró la suya. Por otro lado Everett abandonó la ciencia inmediatamente después de su tesis doctoral en la que propuso la interpretación de muchos mundos. Por estas razones, digamos contingentes, la interpretaicón de Copenhagen se transformó a nivel divulgativo en sinónimo de mecánica cuántica, contribuyendo a sentar las bases de la catástrofe filosófica presente.

Digamos para cerrar que un tirano posmoderno -como Bush- preferiría ciertamente la interpretación de Copenhagen, que sirve de pasto a filósofos baratos mientras deja el determinismo en manos de quienes saben usarlo.

18 comentarios:

  1. Interesantisimo.

    Demasiadas ideas relacionadas con la estadistica y la probabilidad me torturan periodicamente. Voy con una y si me aclaras el panorama prometo una botella del mejor tintorro español la proxima vez en Baires.

    Una de las cosas que no termino de entender es esta: entiendo que el calculo de probabilidades no es forzoso.

    Me explico: supongamos una computadora que emite un numero random entre 0 y 9. Ahora bien, digamos que "tiro" (es decir: pido a la computadora que emita) diez numeros (un programita muy facil de hacer por otra parte). Si hubiera que apostar por los numeros que saldran... ¿cual es la mejor apuesta?

    Si hago caso a la ley de probabilidades mi prevision seria que cada numero deberia salir una vez... o sea apostaria por el conjunto 0;1;2;3;4;5;6;7;8;9 (digo "conjunto" y no "secuencia" porque no necesariamente apareceran en ese orden) ¿Es la mejor apuesta posible? En principio creo que si, veamos si voy bien.

    Supongamos que le digo a la PC que tire diez numeros... y siempre sale el 6. Digamos que tiro otras diez veces... y de nuevo: siempre sale el 6.

    Lo primero que haria cualquier persona con sentido comun seria revisar la PC o el programa en busca de un fallo. Pero no hay el menor fallo, todo funciona perfectamente... solo que sigue saliendo 6, y 6, y 6, y dale con el 6.

    Reflexiono: en realidad no tengo nada de que sorprenderme, la aparicion constante del 6 durante 10, 100 o 1000 "tiros" tiene una probabilidad extremadamente baja... pero no equivalente a cero. En otras palabras: puede ocurrir perfectamente.

    Y por eso - quizas estoy errado - me gusta la teoria de los universos paralelos. Cuando decimos "probabilistico" entiendo que queremos decir que ignoramos el resultado, y que de acuerdo a los datos que manejamos el proceso derivara en uno de los resultados que catalogamos como posibles. Si tiro 1000 veces y sale 6 entonces simplemete he "entrado" en una variante perfectamente posible (aunque con una muy baja probabilidad) del devenir.

    Pero... un momento: ¿muy baja probabilidad? Me doy cuenta de algo un poco espeluznante: no tengo nada de que asombrarme; porque la secuencia 6[1];6[2];6[3];6[4]...6[1000] tiene exactamente las mismas probabilidades de salir que cualquier otra secuencia numerica, cualesquiera sean los 1000 numeros que emita la computadora resultaran en una secuencia con tan pocas probabilidades de salir como 6;6;6;6; (...) etc ¡Da lo mismo apostar por esta secuencia como por cualquier otra! como da lo mismo jugar en la loteria al numero 0000001 o a ese numero tan lindo que me dio una corazonada.

    ¿Me explico?

    Si entiendo el concepto en la mecanica cuantica esto no ocurre asi: si tengo una probabilidad dada, entonces los mil gatos apareceran muertos o vivos respetando exactamente esa probabilidad, de acuerdo a tu ejemplo. No hay ninguna probabilidad de que los gatos aparezcan todos muertos, o todos vivos, o vivos/muertos en un numero que contradiga la probabilidad.

    Es curioso el ejemplo del tigre en la habitacion, porque yo sin conocerlo pense exactamente lo mismo: en tanto un fenomeno tenga una minima probabilidad de ocurrir, no debe asombrarnos que ocurra. Pense en encontrarme con un fantasma o a la condesa de Remusat en el dormitorio (bueno, dejenme soñar un poco, che)... la pregunta es si es "posible", y resulta que no podemos determinar que es "posible" porque para saber que cosa es "posible" deberiamos saberlo absolutamente todo, contar con todos los datos. Y no es el caso porque somos humanos. Vivimos en la ignorancia, ergo en la probabilidad: muy baja si se quiere, pero probabilidad al fin.

    En el caso del ejemplo cuantico, veo que se supone certeza: los gatos no pueden aparecer todos muertos o todos vivos... ¿por que? Si un numero random puede salir 1000 veces 6 a pesar de las probabilidades muy bajas... ¿por que los gatos no pueden aparecer todos muertos, o en un numero que contradiga lo que al fin y al cabo es una probabilidad?

    Hay aun otro asunto mas espinoso: la PC que emite numeros random deberia tender a equilibrarse en la cantidad de numeros emitidos (de ahi que mi primera idea fuese la de apostar por el conjunto de numeros 0;1;2;3;4;5;6;7;8;9 como conjunto mas probable). Que este equilibrio se produzca (es decir: que la cantidad de numeros emitidos tienda a igualarse para cada numero) deberia ser mas probable cuanto mas larga sea la secuencia... de nuevo: probable mas no obligatorio.

    Ahora bien: si a mas numero de tiros corresponde una distribucion probablemente mas equilibrada, tengo que concluir que la unica secuencia de numeros con 100% de probabilidades de ser perfectamente equilibrada (es decir: igual cantidad de nueves, de ochos, de sietes, etc.) seria una secuencia... infinita. Si la secuencia es infinita entonces tengo la certeza de que respetara plenamente la probabilidad dada... cosa que me deja patitieso: esto significa que no tengo jamas la certeza del equilibrio.

    Los mil gatos de tu ejemplo parecen la secuencia infinita de mi PC... ¿por que?

    Hay una alta probabilidad de que me haya ido al carajo. Si no estuviera tan inseguro diria que una certeza.

    Salute.

    ResponderEliminar
  2. Entonces, según a interpretación de muchos mundos desarrollada por Everett, la mujer que amé a los 17 y eligió ponerse de novia durante cuatro años con un tarambana dejándome arrumbado al costado del camino, en otro mundo fue mía hasta el último de mis días.
    Ahora me quedo más tranquilo.

    ResponderEliminar
  3. Hay varias preguntas en lo que planteás, y la oferta del tintorro me obliga a ser cuidadoso con las respuestas, asi que vamos por partes.

    --------------------

    Respecto de si los resultados de un experimento respetan la distribución predicha por la mecánica cuántica y por qué lo hacen. Decis:

    “Si entiendo el concepto en la mecanica cuantica esto no ocurre asi: si tengo una probabilidad dada, entonces los mil gatos apareceran muertos o vivos respetando exactamente esa probabilidad, de acuerdo a tu ejemplo. No hay ninguna probabilidad de que los gatos aparezcan todos muertos, o todos vivos, o vivos/muertos en un numero que contradiga la probabilidad.”

    Para entender que significa un experimento probabilistico hay que plantearselo comparandolo con uno determinista. Veremos que la estimación de un resultado en base a una predicción probabilistica no es más que un refinameinto del método inductivo.

    Primero veamos un experimento de mecánica clásica:

    Supongamos un ejercicio de tiro al blanco. El tirador apunta el arco en cierto ángulo, estira la cuerda con cierta tensión, y entonces dispara la flecha. A continuación, usando una regla, verifica que la flecha se clavó a tres centímetros del centro. Repite el tiro, es decir apunta en la misma dirección y con la misma tensión, y nuevamente la regla le dice que la flecha quedó a tres centímetros del centro. Haciéndolo varias veces se convence de la verdad empírica: para ese ángulo y con esa tensión la flecha golpea el blanco a tres centímetros del centro.

    ¿Ha realmente verificado el valor de verdad de esa proposición? O, en otras palabras, ¿puede el tirador estar seguro, usando la lógica y los casos que observó, que el próximo tiro en las mismas condiciones dará el mismo resultado? La respuesta es sencilla: NO PUEDE. No hay ninguna razón empírica ni lógica por la que el inductivismo ingenuo tenga que funcionar. Y aunque ya puedo escuchar las voces escandalizadas, no hay razón para el escándalo: sin ninguna necesidad lógica resulta darse el caso de que, en la naturaleza, ¡el inductivismo funciona!

    Para ponerlo en otros términos: nunca dedujimos de las observaciones previas que la flecha no pueda decidir dar la vuelta a mitad de camino y atacar al arquero. Sólo construímos leyes del movimiento de acuerdo a esas observaciones pasadas, y resulta que estas leyes tienen la muy extraña propiedad de explicar también las observaciones futuras.

    Ahora refinemos un poco el experimento clásico:

    El tirador tiene una regla para medir a que distancia del centro cayó la flecha. Supongamos que se trata de una regla graduada en milímetros. La afirmación de que la flecha golpeó el arco a tres centímetros del centro en realidad no se ajusta a lo observado: con una regla graduada en milímetros sólo podemos asegurar que la flecha se clavo digamos a mas de 29mm y menos de 30mm del centro. Es decir que no podemos medir la distancia al centro como un número exacto, sino sólo como un rango en el cual ese número se encontraría. Esto es una propiedad general del universo: no existe el valor exacto de una magnitud, sino sólo rangos en los que la magnitud se mueve. En el ejemplo el resultado del experimento sería que la flecha cayó en el rango (29,30)mm

    Claro que podríamos cambiar la regla por una más refinada, pero eso sólo reduciría el rango, sin jamás eliminarlo. Supongamos que tenemos una regla que mide décimas de milímetro, es decir que ahora nuestro rango de medida será mas pequeño. Al hacer el experimento encontramos que la flecha se clava digamos entre 29.9mm y 30mm del centro, es decir en el rango (29.9,30)mm. Repitiendo el experimento, con el mismo ángulo y la misma tensión, esperaríamos encontrar el mismo rango ¡pero puede que no sea así! porque como ahora estamos siendo mucho más cuidadosos, es posible que con nuestra nueva regla estemos en condiciones de percibir pequeñas fluctuaciones del resultado debidas a parámetros fuera de nuestro control experimental, digamos corrientes de aire o vibraciones del blanco. Entonces el próximo resultado puede estar en (29.8, 29.9)mm. Un experimento más puede darnos (30,30.1)mm, y así. Ninguna de esas perturbaciones hubiera sido percibida con la vieja regla, sin embargo la nueva regla nos dice que están ahí.

    Pero entonces viene la pregunta ¿qué pasa con el inductivismo? ¿está fallando? La primera respuesta es que simplemente no estamos controlando todos los parámetros experimentales, si metiéramos al arquero dentro de una cámara de vacío, de modo que el aire no perturbe las flechas, volveríamos a encontrar un resultado repetible aún a esta escala. Pero un análisis un poco más elaborado nos muestra que esa respuesta es renga: aún dentro de la cámara de vacío, refinando aún más la regla (por ejemplo cambiándola por un calibre de precisión) nuestro rango sería más pequeño y volveríamos a ver fluctuaciones, debidas a otros parámetros que no controlamos. Esto también es una propiedad general del universo: ningún experimento controla todos los parámetros a cualquier escala, sino que solamente se pueden controlar las fluctuaciones hasta el rango observable. Refinando la escala en la que medimos ese rango, vuelven a aparecer.

    Hay una manera de incluir las fluctuaciones en nuestro pensamiento inductivo: supongamos que medimos repetidamente el resultado del tiro al blanco. Obtenemos como resultado varias medidas (varios rangos) que difieren en pequeñas fluctuaciones. Con esas medidas construímos una distribución de probabilidad. Por ejemplo si la mitad de las veces la flecha se clava entre (29.9, 30)mm, y la otra mitad lo hace en (30 ,30.1)mm diremos que ambos rangos tienen la misma probabilidad ½. Nuestra ley inductiva será entonces “las flechas con ese ángulo y esa tensión golpean el blanco cerca de los tres centímetros con dicha distribución de probabilidad”. En general, el resultado de un experimento es un conjunto de rangos posibles con una cierta distribución de probabilidad.

    Entonces llegamos a tu pregunta ¿Cómo puedo estar seguro si mañana tiraré la flecha cien veces y las cien veces caerá en el rango (30,30.1)mm olvidándose del otro rango posible de (29.9,30)mm? ¿Cómo puedo estar seguro de que el próximo resultado se ajustará a mi distribución de probabilidad? Después de todo no es necesario que eso pase, las probabilidades no me hablan de obligación sino, precisamente, de probabilidad. La respuesta es la misma que en el caso determinista: NO PODES. No es una consecuencia lógica de la existencia de una distribución de probabilidad el hecho de que las medidas deban ajustarse al valor esperado. Sin embargo, al igual que antes, el mundo tiene la curiosa propiedad de respetar las distribuciones de probabilidad: si bien una sola medida puede desviarse del resultado esperado, muchas medidas reproducirán ese resultado. El criterio de cuantas son “muchas” es sutil, y la estadística es el arte de saber determinarlo.

    Llegamos entonces a la mecánica cuántica:

    En el ejemplo clásico anterior, las probabilidades aparecían cuando refinábamos nuestra medida hasta llegar a hacerla sensible a las perturbaciones fuera de control. En el caso cuántico, las fluctuaciones estadísiticas de los resultados están siempre presentes, hasta cierto punto independientemente de la sensibilidad de los aparatos. Entonces cuando digo que el resultado del experimento respetará la distribución de probabilidad que construí basado en experimentos anteriores, simplemente estoy siendo inductivista. Un inductivismo un poco más elaborado, porque no dice que el resultado será tal o cual, sino que los resultados respetarán una cierta distribución de probabilidad.

    En otras palabras, el resultado no es “forzoso” en un sentido lógico, pero los resultados de leyes deterministas tampoco lo son. Sin embargo el universo parece respetar las distribuciones de probabilidad que la mecánica cuántica predice.

    Eso quiere decir que el tirano apostaría bien si elige las distribuciones predichas por la mecánica cuántica, porque si bien los gatos pueden aparecer todos vivos, sólo lo harán en un número ínfimo de experimentos.

    -------------------

    Otra pregunta que hacés en tu comment, más calculística, es sobre la probabldad de la secuencia de 6 respecto de la de la secuencia 1 2 3 4 5 6 7 8 9 0. En cuanto tenga un rato la mando un comment separado.

    ResponderEliminar
  4. ¿Sabría Everett, perdido entre argumentos altamente técnicos, de las posibilidades prácticas de su intepretación?

    Desde darle marco a las fantasías glamorosas de un auténtico marxiano (¿la condesa de Remusat?...) hasta confortar el corazon roto de un maestro revolucionario de barrio.

    ¡Eso es lo que yo llamo ciencia aplicada al bienestar humano!

    ResponderEliminar
  5. OK, entonces lo que sacamos en limpio aqui hasta ahora es que los experimentos de mecanica cuantica no difieren de los de la mecanica clasica en el sentido de que su distribucion probabilistica es eso: probabilistica pero no obligada.

    Cuando hablamos de probabilidades hablamos de lo que sabemos y lo que no. Solo podemos construir una probabilidad basandonos en fenomenos ya observados, o sea induccion pura.

    El problema de los gatos me llevo al problema de los numeros random, asimilable a una ruleta. Vos decis que el tirano haria bien apostando por el numero de gatos muertos/vivos indicado por la estadistica. Contrapongo el ejemplo de los numeros y lo simplifico para hacerlo mas acorde: supongamos que la computadora emite al azar un numero que puede ser 0 o 1. Digamos que 0 es gato muerto y 1 es gato vivo.

    Muy bien, la computadora tira 10 numeros y si me atengo a la probabilidad... ¿cual es mi mejor apuesta? Instintivamente digo: cinco ceros (cinco gatos muertos) y cinco unos (cinco gatos vivos) dado que la probabilidad es 50% para cada caso.

    Ahora planteo la objecion: la secuencia 0;0;0;0;0;0;0;0;0;0 tiene la misma probabilidad de salir que la secuencia 0;1;0;0;1;1;0;1;1;0. Aqui juega el famoso problema estadistico del tipo que espera que salga tres veces negro en la ruleta para apostar a colorado: se supone que se equivoca ya que negro y colorado tienen las mismas chances de salir ante cada nueva tirada, independientemente de los tiros anteriores.

    Justamente este principio supone la total desconexion entre un gato y otro (entre una tirada y otra)... Lo que me pregunto es si este principio es realmente valido.

    Lo que planteo es: si cada tirada presenta un porcentaje de 50&% y 50% (si cada gato tiene un 50% de probabilidades de morir) entonces... todos los gatos muertos es un resultado tan probable como 50% muertos y 50% vivos.

    Si no es asi... ¡entonces es mentira que cada gato tenga 50% de probabilidades! Sus probabilidades de vivir o morir dependeran de los gatos que ya hayan muerto o vivido antes: si se trata del decimo gato y ya murieron nueve, entonces tendria una muy alta probabilidad de vivir. En otras palabras: vale la pena esperar a que en la ruleta salgan tres negros para jugarle a colorado.

    Lo curioso es que un gato tenga 50% de probabilidades de resultar muerto, pero que diez gatos tengan muchas menos chances de resultar TODOS muertos. A mi modo de ver no tiene sentido: si cada gato es independiente de los demas (y todo indica que es asi), entonces cualquier combinacion de gatos vivos/muertos tiene la misma probabilidad de ocurrir que cualquier otra.

    Je.

    ResponderEliminar
  6. ¿CUANDO NOS VAMOS A ENCONTRAR MARICONAZO?

    ResponderEliminar
  7. Cuando quieras chuchi, ya te dí mi dirección. Venite con el culito encremado, asi no perdemos tiempo.

    ResponderEliminar
  8. Perdón Jack, el fin de semana posteo una respuesta, estoy tapado de laburo estos días.

    ¿viste el morfeta este? pobrecito...

    ResponderEliminar
  9. Tranqui con la respuesta Seve, tenemos hasta el día en el que el pobre pibe este dé la cara: toda la eternidad.

    ¿No parece esos de la película en que el padre abusa de él y la madre lo obliga a vestirse de nena, entonces desarrolla odio a la humanidad y empieza a enviar anónimos a todos lados? Después se pinta los labios frente al espejo y dice: "Eres una perra, eres una perra!! buaaaaaa!".

    ResponderEliminar
  10. Jack:

    "Ahora planteo la objecion: la secuencia 0;0;0;0;0;0;0;0;0;0 tiene la misma probabilidad de salir que la secuencia 0;1;0;0;1;1;0;1;1;0."

    Sí. Pero también tiene la misma probabilidad de salir que la secuencia 0;0;0;0;0;1;1;1;1;1;, y que 0;1;1;1;1;1;0;0;0;0, y que 1;1;0;0;1;1;0;0;0;1, y que 1;1;1;0;0;1;1;0;0;0, etc. etc., y todas ellas me dan: 50% de gatos vivos y 50% de gatos muertos.

    La posibilidad de que salgan 50% vivos y 50% muertos es MUCHÍSIMO más alta que la de todos vivos o todos muertos, porque muchas combinaciones distintas pueden darme un 50% de vivos y un 50% de muertos, mientras que una sola puede darme todos vivos, y una sola todos muertos.

    La posibilidad de 10 vivos y 0 muertos es igual a la de 10 muertos y un vivo, la de 1 vivo y 9 muertos es igual a la de 1 muerto y 9 vivos (pero ambas son mayores a las de todos vivos o todos muertos, porque más de una combinación puede dar como resultado ese total), y así hasta llegar a la de 5 y 5, que es la más alta de todas. Las probabilidades de las de cada punta se compensan (9 y 1; 1 y 9), y así nos queda que:

    La probabilidad de que aparezcan 5 vivos y 5 muertos es la más alta de todas.
    La probabilidad PROMEDIO es que aparezcan 5 vivos y 5 muertos.

    Todo esto porque:

    Las probabilidades de todas las combinaciones es la misma, pero hay muchas más combinaciones probables que dan 5 y 5 que las que dan otra cosa.

    Ergo, tu mejor apuesta es decir que van a salir 5 y 5, aunque no puedas predecir qué combinación va a llevar a que salgan 5 y 5 (ya que todas tienen la misma probabilidad).

    Además, si hacés muchas veces el ejercicio, la probabilidad promedio va a tender a ser de 5 y 5 también, ya que los casos de 1 y 9, 9 y 1, 7 y 2, 2 y 7, etc., tenderán a compensarse.

    ResponderEliminar
  11. (Nacho me ahorro una parte de la respuesta, yo sólo agrego que hay 10 cadenas de números todos iguales, mientras que hay 10!=unos millones de cadenas de números todos diferentes)

    Sigo con

    OK, entonces lo que sacamos en limpio aqui hasta ahora es que los experimentos de mecanica cuantica no difieren de los de la mecanica clasica en el sentido de que su distribucion probabilistica es eso: probabilistica pero no obligada.

    El parecido se extiende en dos sentidos:

    1- Las predicciones deterministas son en realidad predicciones probabilistas, donde se predice un cierto resultado X con probabilidad 100%. Esto no es sólo un juego de palabras, si uno presta atención a que “X tiene probabilidad 100%” no quiere decir "X es seguro" sino "X es seguro salvo en un número despreciable de casos".

    Por ejemplo, la teoría de la termodinámica predice que el agua se congela a 0grados. Esta predicción implica que en la enorme mayoría de los experimentos, el resultado será ese. Pero no contradice que, en un número despreciable de mediciones, el resultado pueda ser por ejemplo 0.5grados o -1grados. El origen de estas desviaciones no tiene importancia mientras su número sea despreciable. No contradicen la teoría, porque la teoría dice que “el agua se congela a 0grados con probabilidad 100%” una predicción que –por definición- admite un número despreciable de desviaciones.

    2- Los experimentos probabilistas son en realidad experimentos deterministas, donde el resultado X (determinado con probabilidad 100%) no se refiere a lo que pasará en un solo experimento, sino a lo que pasará con el promedio de un número infinito de experimentos.

    En tu ejemplo: la teoría que viene en el manual de tu generador de números aleatorios no tiene nada que decir acerca de un resultado en particular, no hace absolutamente ninguna predicción para el próximo número que sale del generador. Dice que cada número entre 0 y 9 tiene probabilidad 10%, pero eso no dice nada sobre el próximo número que saldrá del generador. Sólo tiene una predicción acerca de lo que sucede cuando tirás un número infinito de veces: cada número saldrá el 10% de las veces . Esta predicción es una predicción determinista: segura salvo en un número despreciable de casos.

    Bueno, hasta acá: no hay diferencia entre predicciones probabilistas y deterministas: una predicción determinista es en realidad una predicción probabilista con probabilidad 100%, que admite un número despreciable de desviaciones; y toda predicción probabilista con probabilidad diferente de 100% es en realidad una predicción determinista sobre lo que pasará en un numero infinito de experimentos. Hay dos cosas que naturalmente hacen ruido

    1- Que quiere decir un numero despreciable de desviaciones o

    2- Que quiere decir un número infinito de experimentos.

    Las dos cuestiones son en realidad la misma: un dado número de desviaciones será despreciable o no dependiendo de cuantos experimentos haga (tres caras y una ceca me pueden hacer sospechar que la moneda esta cargada, mientras que 49 caras y 51 cecas no me harían sospechar demasiado). Cuando hago un número infinito de experimentos cualquier número finito de desviaciones es despreciable.

    La respuesta está en la famosa “ley de los grandes números”, un teorema que dice qué:

    La probabilidad P de que el promedio de N experimentos se desvíe del resultado predicho por la distribución de probabilidad p para cada experimento, tiende a cero cuando N tiende a infinito.

    En otras palabras el teorema dice que si tu generador tira N números, y sale M veces el “1”, la probabilidad P de que el promedio prom=M/N se desvíe del resultado esperado p=1/10, será tanto más pequeña cuanto mas grande sea N. Fijate que cuando N es infinito, la probabilidad P de que haya cualquier desviación es del 0%. En otras palabras, en ese límite la probabilidad p predice el promedio con probabilidad 100%. La predicción se vuelve determinista.

    (notar que hay dos probabilidades aca: la probabilidad de cada resultado p –digamos la probabilidad de que salga “1” del generador- y la probabilidad P de que el resultado se desvíe del promedio predicho por p –es decir la probabilidad de obtener algo diferente de un 10% de unos después de N tiros-)

    Claro que nadie puede hacer un número infinito de experimentos ¿entonces? Y acá es donde las limitaciones se transforman en virtudes: en la naturaleza no existen los números exactos. Siempre tenemos una tolerancia (los rangos de los que hablaba en mi comment anterior). Es decir que en realidad, no necesitamos tener una probabilidad 100% (lo que nos demandaría un número infinito de experimentos) sino una probabilidad de un 100% dentro de la precisión observable. Por ejemplo, dependiendo de la precisión de los aparatos, podríamos contentarnos con una probabilidad que esté entre el 99% y el 99.9%. Pero para obtener esa probabilidad no es necesario que N sea infinito, sino solo lo bastante grande. ¿Cuán grande? eso siempre se puede calcular (de eso viven los estadísticos y los buenos científicos experimentales -yo soy teórico y un ladri en el tema-).

    Es decir que siempre se puede lograr, para un número N finito de experimentos, obtener una predicción determinista dentro del rango observable, mediante el sólo recurso de aumentar N.

    ResponderEliminar
  12. Severian, wait.

    El problema aca es que hablas de "un numero infinito de veces", y el tema es que "infinito" es un concepto que no admite comparacion.

    Una probabilidad del 50% indica que un numero infinito de veces sera "la mitad de infinito" cara y "la mitad de infinito" ceca. El problema es que cualquier cantidad de experiencias resulta despreciable frente a infinito, y de esa forma nunca tengo idea de la cantidad de tiradas necesaria.

    Desde un punto de vista logico, es perfectamente factible que tire la moneda y salga 20 veces seguidas cara... porque la distribucion en una cantidad infinita de experiencias puede reequilibrarse en cualquier momento del futuro. Entiendo que esto contradice la experiencia y tambien la intuicion, pero desde un punto de vista logico no le veo refutacion.

    Dicho de otra forma: es verdad, hay muchas mas secuencias con cinco gatos muertos, sin embargo a lo que voy no es a eso, sino al hecho de que si digo que cada gato tiene un 50% de probablidades de morir, entonces eso significa que de infinitos gatos tengo la certeza que moriran la mitad. Muy bien ¿Y de 10 gatos? Ese numero esta tan lejos de infinito que bien podrian salir todos muertos, la secuencia tiene toda la eternidad para reequilibrarse.

    El problema es decir que "se equilibran en el infinito", eso es no decir realmente nada. En una secuencia infinita puede pasar cualquier cosa, puedo tener 20 tiradas seguidas de un mismo resultado, o 200, ya que son parte de una potencial cadena infinita de tiradas.

    Es como si los resultados en el infinito ya estuvieran dados (50% y 50%) pero solo ignoramos la distribucion de esos resultados a lo largo de esa cadena infinita de experiencias potenciales. Sabemos que la distribucion es 50% y 50% para el infinito, pero no tenemos idea de como estan distribuidas en los tramos que vamos a recorrer... ¿Y si los primeros 300.000 experimentos salen con el mismo resultado y se equilibran en los proximos 900.000? ¿Por que no? Podria pasar asi y aun asi respetar la probabilidad 50% y 50%.

    No se si soy claro.

    ResponderEliminar
  13. Si, es que me referí a eso en mi comment. El problema es que una probabilidad no dice nada sobre un número finito de gatos desde un punto de vista puramente probabilista. De hecho no existe ningun modo teórico de decir lo que va a pasar con un número finito de gatos usando solamente la teoría de las probabilidades. Lo más lejos que se puede ir es la ley de los grandes números.

    La ley de los grandes números te dice que:

    -Un resultado con 9 de 10 gatos vivos seria posible,

    -Uno con 90 de 100 ya sería raro

    -Uno con 900 de 1000, bueno, francamente llamaría la atención

    -Uno con 900.000 de 1.000.000 sería casi imposible.

    Es decir que las desviaciones son menos probables cuando más grande es el número de gatos. Idealmente el número necesario para estar seguro de que no habrá desviaciones es infinito (¡segui leyendo!). El punto es que "estar seguro" aquí no significa que "clavado palmaron la mitad de los gatos" sino que significa que "palmaron la mitad de los gatos con probabilidad 100%" (y repito que no es lo mismo).

    Pero el punto es que no hay qye usar sólo la teoría de probabilidades. En ciencia experimental, los números no son números sino rangos. Decir que tengo una "probabilidad 100%" es lo mismo que decir una "probabilidad tan cercana a 100% que mis aparatos no puedan notar la diferencia". Pero entonces no necesito infinitos gatos, sino un sólo numero lo bastante grande, tal que la probabilidad esté lo bastatate cerca al 100%, tal que los aparatos no noten diferencia. Eso es indistinguible de infinito en el experimento. Y el número de gatos vivos es indistiguible del 50% con una probabilidad que es indistinguible del 100%.

    A eso me refiero.

    ResponderEliminar
  14. Lo de la probabilidad 100% me parece que basta con entender que no es 100% sino un número muy cercano a 100, OK.

    Ahora, vos decis:

    Pero entonces no necesito infinitos gatos, sino un sólo numero lo bastante grande, tal que la probabilidad esté lo bastatate cerca al 100%, tal que los aparatos no noten diferencia

    ¿Y como determino ese numero lo bastante grande? ¿Experimentacion?

    ResponderEliminar
  15. No, se calcula.

    Me pongo un poco técnico lo que de hecho prueba que mi ignorancia pisa terreno poco firme:

    1- Existe una distribución de probabilidad "a priori" dada por la predicción

    p = probabilidad de gato vivo

    2- Si hago N observaciones y encuentro M gatos vivos tengo una distribución estadística que es

    M/N = proporción observada de gatos vivos

    3- Existe una resolución en la observación de M/N, supongamos que no distinguimos M/N = 0.541 de M/N=0.542, si llamamos a esa resolución r, entonces tenemos que r = 0.001

    r = resolución con la que observamos M/N

    esa resolución depende de los aparatos de medida, y en principio se puede estimar a priori de acerdo al funcionamiento de los aparatos y a su calibración.

    Es decir que en los hechos, decir que M/N - p < r es lo mismo que decir que M/N = p.

    4- Finalmente existe la probabilidad de que nuestra observación coincida con la predicción de la distribución de probabilidad

    P( p - M/N < r ) = probabilidad de que la distribución estadísitica observada M/N sea igual a la probabilidad a priori p dentro de la resolución r

    Para estar seguros de que la observacion nos dara igual a la predicción, tenemos que asegurar que esta última probabilidad P sea igual a 1 (o al 100%). Es decir que quereemos que P( p - M/N < r ) = 1

    5- Pero esta última probabilidad también se observa con una cierta resolución d que depende de los aparatos de medida

    d = resolucion con la que mido la probabilidad de que la distribución estadísitica observada M/N coincida con la probabilidad a priori p dentro de la resolución r

    O sea que decir que P( p - M/N < r ) - 1 < d es lo mismo que decir que P( p - M/N < r ) = 1 o, en otras palabras, decir que seguramente observaremos en el experimento que M/N coincide con la distribución predicha p.



    Con todo lo anterior la Ley de los Grandes Números establece que:

    Para cualquier resolución r y cualquier resolución d, existe un número Q(r,d) tal que

    P( p - M/N < r ) - 1 < d, si N > Q(r,d)

    Es decir que la probabilidad P que que la observación de M/N me de un resultado que coincida con la predicción p dentro de la resolución r, sera igual a 1 dentro de la resolución d, si N es mayor que Q(r,d). En otras palabras, si observo mas de Q(r,d) gatos, el promedio de gatos vivos M/N me dará exactamente igual a la probabilidad de gato vivo p.

    Q(r,d) es una funcion de d y de r que se puede estimar a priori, hacerlo es tarea de los estadísiticos y de los físicos experimentales, y cómo lo hacen es algo que yo ignoro tanto como ignoro las preferencias futbolísitcas de Mariano Moreno.

    ResponderEliminar
  16. Si, ya se, me puse muy técnico...

    Como dije eso denota alguna inseguridad.

    ResponderEliminar