Al que tema encontrarse aquí un tratado sobre las aplicaciones de la geometría a diversos aspectos de la teoría de las probabilidades, le recuerdo que este es un blog, y por lo tanto debe girar alrededor de los intereses del insignificante Lanark.
Por lo tanto, lo que hay aquí, es un intento del autor de aclarar lo que tiene en su cabeza, antes de hacer un texto y, eventualmente, una presentación, para exponer en la Universidad.
Y se trata de ciertas formas geométricas de representar las probabilidades de ciertos resultados de mediciones, sacadas de la teoría cuántica. Como toca explicar las cosas bien, voy a partir la cosa en dos, para no cansar al sufrido lector.
Empiezo postulando que en ciencias, lo que hace uno es separar, controlar y medir. Hablo de la parte experimental. Cuando uno separa, define un sistema; cuando controla (o prepara) define un estado; y cuando mide, define un observable.
Manjushri, el
Boddhisatva de la Sabiduría, empuña una espada, y eso simboliza el hecho de que tiene un criterio agudo para discernir. Lo pongo acá por exótico, aunque podría poner ejemplos mas occidentales donde la capacidad de juicio se representa como un instrumento cortante (¿qué tal la navaja de Occam?)
Y es que separar es vital en las ciencias. Todo lo que voy a hablar acá tiene que ver partir un conjunto en subconjuntos. Por ahora, voy a evitar la tentación de hablar de esa particularidad de la ciencia.
Cuando uno prepara de cierta forma, está poniendo el conjunto de posibles casos en la guillotina, para que cuando se mida, se separe limpiamente en los casos donde dio una cosa, o los casos donde dio otra cosa. Bueno, si hay más posibilidades, de pronto hay que descuartizar más, aunque el bisturí es más recomendado que la sierra de cadena. Estos son los pasos del científico-carnicero:
- Se agarra al especimen: ahí se lo separa de lo que no va a ser cortado. En este paso definimos a qué le llamamos sistema.
- Se amarra. Ahí, preparamos el sistema. La forma como lo amarramos, debería determinar qué pedazos van a salir. Es decir, la preparación determina el estado del sistema.
- Se corta. Ahí, medimos. Cada pedazo, corresponde a un valor posible de un observable.
Para interpretar la anterior lista, puede ser útil imaginar que tenemos una gran cantidad de oportunidades de repetir el experimento, lo cual es equivalente a decir que tenemos un
ensamble de sistemas preparados de la misma manera (ese es el conjunto que vamos a partir), y hacemos lecturas sobre ellos. Entonces, un
subensamble dará un resultado, otro otro, y así sucesivamente.
Si vemos
qué fracción del ensamble salió con un resultado, hemos encontrado la
probabilidad de ese resultado en ese sistema, para ese observable.
Probabilidad = (Tamaño del subensamble para un resultado)/(Tamaño total del ensamble)
LO UNO, O LO OTRO
Para ver cómo empezamos a utilizar la geometría para estas representaciones de los estados, tomemos el caso más simple, nuestra medición es binaria, puede dar sólo dos resultados. Sólo hay cero, o uno. Si el cero tiene una probabilidad P0, entonces el uno tiene una probabilidad P1=1-P0, porque las dos deben s
umar uno. Si suman menos, es porque nos falta contar posibilidades, y si suman más, es porque estamos contando algunas en ambos subensembles.
Como queremos hacer geometría, representamos las dos probabilidades en un cuadrado plano de lado uno, porque la mínima probabilidad es 0 y la máxima 1. (
x sería una probabilidad y
y la otra) y la condición de que sumen uno, se cumple en una linea diagonal en ese plano. Estamos representando entonces el estado con un vector, uno que señala algún punto en esa línea.
INFORMACIÓN, Y TRANSFORMACIONES QUE NO LA AFECTAN
Cuando uno dice que la preparación del sistema, donde se define el estado, determina las probabilidades de los resultados, implica que una buena representación del estado del sistema
debe tener alguna información sobre los resultados. La información, como veremos, depende sólo de las probabilidades:
- Si todos los resultados son equiprobables, no hay información
- Si un estado tiene probabilidad uno y los demás cero, la información es máxima.
Una definición que cumple con esas dos premisas, y otras mas estrictas, es la que definieron Shannon y Weaver, y dio lugar a la
Teoría de la Información. Pero, si tenemos opciones, no voy a agobiar al lector con esa definición, basta con tener en cuenta los dos puntos anteriores, y suponer que la información varía continuamente con las probabilidades.
La información depende de las probabilidades, pero no de cuál resultado tiene cuál probabilidad. Si les ponemos las mismas probabilidades, pero repartidas en resultados distintos, la probablidad es igual. Entonces, decimos que
las permutaciones de los resultados no afectan la cantidad de información.
En el caso del observable binario, sólo hay una permutación: 1 <---> 2 Geométricamente, consisiste en hacer girar el cuadrado respecto a la diagonal que parte el triángulo en dos partes iguales (la linea x=y)
Esta, de hecho, es lo que se llama una transformación de simetría del triángulo que forma la linea diagonal (x+y=1) con los ejes. Deja al triángulo exactamente igual, y en la misma posición.
NI LO UNO NI LO OTRO, SINO TODO LO CONTRARIOAparte de las dos probabilidades, hay una forma de darle a nuestra representación más simetría, y es convirtiendo el cuadrado en un círculo. No se trata de la famosa cuadratura del círculo, sino de algo mucho más simple. ¿qué pasaría si las probabilidades fueran otra cosa al cuadrado? Pues que si graficamos
esa otra cosa, no tendríamos una diagonal en cuadrado sino un pedazo de círculo en ese mismo cuadrado.
De x+y=1 pasamos a Ax2+Ay2=1
Richard P. Feynman, tal vez el primer humano en hacerse una idea clara de la mecánica cuántica, pensó que esas raíces cuadradas de la probabilidad, (que él llamó
amplitudes de probabilidad) eran el concepto clave para entender esa misteriosa teoría.
Si representamos los estados usando las amplitudes, nos damos cuenta, primero, de que el signo puede ser negativo. Ya no necesitamos un cuadrado que va entre 0 y 1 en cada eje, con una diagonal, sino un cuadrado que va de -1 a +1 en ambos ejes, y dentro tiene un círculo completo que contiene a las amplitudes que dan probabilidades que suman uno.
Tenemos que representar, eso sí, cada estado con un vector que no sólo señala un punto del círculo, sino también su punto opuesto, para ser consecuentes con el hecho de que el signo no importa (un vector va en dirección opuesta cuando se le cambia el signo) A estos vectores extraños, en mecánica cuántica se les llama
rayos.

Algo interesante de esta representación de los estados con amplitudes, es que todas las rotaciones alrededor del origen, dejan ese círculo igual. Al principio teníamos un observable representado por los ejes X y Y, y ahora, en realidad cualquier par de direcciones perpendiculares, pueden representar un observable. En el próximo texto veremos, sin embargo, que estos observables, no pueden ser completamente independientes.
APÉNDICE: ¿PORQUÉ UN CÍRCULO?
Por el teorema de Pitágoras. Las componentes
x y
y de cada vector son como dos lados de un triángulo unido en un ángulo recto; si la suma de los cuadrados de los dos es 1, quiere decir que la hipotenusa, es decir el lado diagonal, va a ser 1. como el
x y el
y se miden desde el origen, desde el origen (el cero) hasta cada punto, habrá una hipotenusa de longitud uno (Radio 1).
