domingo, 23 de noviembre de 2008

Einstein y belleza

Quisera recuperar una célebre cita de Albert Einstein. Pero antes desearía recordar en qué contexto se enmarca. Estados Unidos se hallaba en una profunda crisis de valores durante los años cincuenta. Un programa de radio intento modestamente levantar el ánimo de los ciudadanos con una fórmula sencilla. Grandes personajes públicos y gentes corrientes se situaban frente a un micrófono radiofónico y leían durante tres minutos un texto en el que se sinceraban. Decían abiertamente en qué creían, qué movía sus vidas, por qué luchaban cada día, cuáles eran sus anhelos y sus esperanzas. El programa llamado "This I belive" fue un enorme éxito que ahora se intenta recuperar (http://thisibelieve.org).

Entre muchos otros, Einstein aportó su grano de arena. La primera frase de su aportación es la siguiente:
The most beautiful thing we can experience is the mysterious—the knowledge of the existence of something unfathomable to us, the manifestation of the most profound reason coupled with the most brilliant beauty.
(Lo más bello que podemos experimentar es el misterio - el saber de la existencia de algo inimaginable, la manifestación de la razón más profunda con la belleza más brillante.)

En esta frase, Einstein incide dos veces en la idea de belleza, siempre asociada al misterio, al asombro del saber. Dice S. Weinberg que muchos científicos hablan de la belleza de su disciplina de una forma vaga, indefinida. ¿Qué es belleza? ¿Por qué una demostración es bella? ¿Por qué Dirac defendía que una ecuación, ante todo, debía ser bella? Weinberg sugiere que la belleza referida por los científicos se asemeja a la belleza que ve un cuidador de caballos en un hermoso ejemplar. Es una belleza subjetiva, asociada al profundo conocimiento de un oficio. Es la belleza de la factura perfecta, es el reconocimiento de una armonía indiscutible para el ojo educado.

Sin embargo, creo que Einstein utiliza la palabra belleza en un sentido múltiple. Su belleza halla su cúspide en el misterio, en la intuición de una armonía inimaginable. La belleza de su relatividad, decía, radicaba en su fragilidad (o inexorable completitud): bastaba que un elemento fuera incorrecto para rebatir toda su teoría. La belleza como asombro aparece repetidamente en sus escritos.

La visita a las páginas de "This I believe" está poblada de bellas ideas. No os lo perdáis.

domingo, 5 de octubre de 2008

El límite clásico de la función de onda cuántica

Una forma de entender que la función de onda de la Mecánica Cuántica no tiene un límite clásico es tomar ħ igual a 0 de forma naive en la ecuación de Schrödinger. De inmediato se observa una contradicción dado que el término cinético desaparece frente al potencial. Esto implica que la función de onda no tiene una expansión en potencias de ħ alrededor de una función clásica.

Para ser un poco más concretos, tomemos la ecuación de Schrödinger para el caso de los estados estacionarios de una partícula un potencial V(x). La ecuación de Schrödinger se reduce a H ψ = E ψ, donde el Hamiltoniano H=H_0+H_i tiene dos términos: uno describe la energía cinética de la partícula H_0=-ħ^2/(2m) d^2/dx^2 y otro su interacción con el potencial H_i=V(x). De forma naive parece que tomar ħ=0 equivale a suprimir el término cinético. De ahí se deduce que V(x) ψ = E ψ, es decir, V(x)=E lo cuál es imposible puesto que cualquier potencial que dependa de x no es igual a una constante E.

La forma correcta de tomar un límite semi-clásico de la función de onda es lo que recibe el nombre de aproximación WKB. La idea central es comprender que la función de onda presenta una singularidad esencial cuando ħ tiende a 0. Es decir, ψ(x)~A(x) e^(i B(x)/ ħ), donde A(x) y B(x) sí tienen expansiones en ħ alrededor de valores clásicos. Pero la singularidad en la exponencial hace imposible tomar un límite naive. Esta aproximación permite de forma sencilla permite estimar fenómenos tan sutiles como el efecto túnel.

La obstrucción a tener un límite clásico para la función de onda implica que no existe una descripción clásica de la información de un sistema equivalente al paradigma cuántico. Si eso fuera así, tendríamos una mecánica cuántica-clásica, profundamente diferente de los conceptos newtonianos. Las ideas de superposición y de entrelazamiento cuánticos quedan pues consistentemente resguardadas por estos límites singulares.

domingo, 7 de septiembre de 2008

La estadística de las guerras y problemas NP-completos

En numerosas ocasiones he recibido preguntas sobre recomendaciones concretas de libros de divulgación. Unos lectores buscan una presentación asequible a los temas de investigación que son la punta de lanza de la ciencia actual. Otros prefieren leer la opinión de los científicos, quieren conocer su forma de trabajar y enaltecen el aspecto humano de la creación del conocimiento. También es frecuente interesarse por una puesta a punto de todo un campo y, de esta manera, tomar una visión sólida de temas que aparecen de forma fugaz en los periódicos. La divulgación científica es un gran saco lleno de golosinas que no colman a la mayoría. Por eso es frecuente y cómodo evitar dar recomendaciones.

Esta vez quisiera tomar partido de forma positiva y sugerir la lectura de un libro reciente: "Group theory in the bedroom", de Brian Hayes y editado por Hill and Wang (2008). Me atrevo a recomendar este conjunto de artículos porque cada pieza que lo compone destila una innata elegancia en la forma de presentar temas abstractos y avanzar de forma amena a un conocimiento concreto y claro. Es un libro con oficio, entretenido, científicamente sólido y a la vez asequible.

Entresaco un par de artículos de todo el libro. Uno de ellos está dedicado a las aportaciones de Lewis Fry Richardson, pionero en el estudio cuantitativo de las guerras. Richardson compiló el primer catálogo de guerras, neutro y objetivo, para poder analizar sus características genéricas y, si fuera posible, su predicción. Los centenares de conflictos bélicos se clasifican por su intensidad en una escala logarítmica de muertes. Este tétrico análisis no deja de ser inquietante. Las guerras aparecen siguiendo distribuciones de Poisson, no muestran correlaciones con la afinidad de la lengua de los contendientes, ni con su nivel armamentístico. Las guerras se correlacionan levemente con la religión y fuertemente con disputas entre países vecinos. Un sobrio artículo, digno de ser conocido más allá del ámbito de este blog.

Un segundo artículo que quisiera recomendar es el que trata los problemas NP-completos y transiciones de fase. Es un hecho notable que ideas que aparecen en física se plasmen en terrenos aparentemente alejados como es el de la complejidad computacional. Para ser más concretos, consideremos el problema de particiones. Disponemos de un conjunto de N números. Cada número puede escribirse en notación binaria empleando M dígitos 0 o 1. Deseamos separarlos en dos conjuntos de forma que la suma de los que forman el primer conjunto es idéntica a la suma de los que forman el segundo. En muchísimos casos es muy sencillo hallar un reparto que verifique este requisito. En otros casos es casi imposible. El problema es computacionalmente duro cuando existe una única solución. La sorpresa es que la transición entre casos sencillos a duros se da de forma abrupta como función de los M/N. La analogía con una transición de fase (como la del agua al hervir) es inmediata y ha sido extensamente estudiada en los últimos años. Matemáticas, Física, Teoría de la computación se dan la mano. He escogido este ejemplo de artículo porque una parte de la comunidad de Información Cuántica lucha por aportar ideas del mundo cuántico a la teoría de la computación clásica. Tal vez un ordenador cuántico cambie nuestros conceptos de un campo tan interdisciplinar y en constante evolución.

Todo ello y otros temas tan curiosos como la construcción de relojes o la caracterización de la divisoria de aguas en un continente son tratados por Hayes con el buen oficio de la divulgación científica de calidad.

sábado, 19 de julio de 2008

5 preguntas

Respondo a un comentario lleno de preguntas interesantes. Tus preguntas, lector anónimo, son todas muy pertinentes. Hoy, intento elaborar una respuesta a las cinco primeras.

1) En un sistema uniformemente acelerado, ¿cuál es el valor de la velocidad de la luz cuando esta viaja paralelamente al vector de aceleración? ¿es diferente a c? ¿Puede llegar a observarse un valor nulo? ¿Tiene esto algo que ver con la imposibilidad de que un fotón no escape de un agujero negro?


Todas las paradojas asociadas a la relatividad especial y general siempre deben plantearse entendiendo en qué sistema de referencia se halla el observador. Cuando dices "en un sistema uniformemente acelerado" queda implícito que tú estás fuera de él y por ello lo consideras acelerado. Otro observador situado en ese sistema te consideraría a ti como acelerado. La velocidad de la luz siempre es la misma en ambos (por postulado). Por ello aparece un fenómeno inesperado. El tiempo parece correr a diferentes ritmos dependiendo del sistema de referencia en que nos situemos.

Intento ser más explícito. Para ello vamos a construir un reloj. Este reloj se compone de dos espejos paralelos y opuestos. Un fotón va del uno al otro rebotando sin cesar. Cada rebote en un espejo corresponde a un click. Esa es mi unidad de tiempo: el intérvalo entre dos clicks. Tengo mi reloj y veo como hace click-click-click. Pero otro observador situado en un sistema acelerado me está mirando atentamente y analiza mi reloj. Imagina bien la situación. Ese observador ve mis dos espejos y a mí mismo acelerados. Imagínatelos pasando de izquierda a derecha frente a ti, acelerándose. Dado que la luz siempre va a la misma velocidad, el recorrido del fotón entre rebotes sigue un camino en zig-zag que se va alargando. Para ese observador, mi reloj hace clicks lentos: click-cliik-cliiik-cliiiik. Mi tiempo se ralentiza, visto por él. En cambio en mi sistema el tiempo sigue como siempre.

Este es el efecto de "infinite red shift" en la caída en un agujero negro. Un reloj que caiga en él parece ralentizarse infinitamente.


2) ¿Interaccionan dos fotones (reales) entre sí? ¿Emiten estos partículas virtuales? Si es que sí, ¿hay alguna condición en que un fotón sufra autocampo?

Sí. Dos fotones interactúan intercambiando electrones. El diagrama que lo representa es más o menos así:

__ __
__O__


Las líneas horizontales de entrada y salida son fotones, la que forma el círculo son un electrón/positrón (de hecho cualquier fermión con carga eléctrica). La idea es la siguiente: un fotón pasa a ser una pareja electrón-positrón, el electrón va al otro fotón y sigue circulando hasta que es aniquilado por el positrón. Se trata de una fluctuación cuántica. Esta interacción es de cuarto orden en la electrodinámica cuántica y, por lo tanto, suprimido por un factor (1/500)^4. Es un fenómeno muy sutil pero muy bien conocido y verificado.



3) ¿Es compatible el principio de indeterminación de Heisenberg con decir que sabemos con exactitud la velocidad de la luz sin por ello tener al fotón completamente deslocalizado en el espacio? ¿O es la frecuencia la variable que se ve afectada por la incertidumbre, ya que es la que determina el momento?

Tomemos la energía del fotón. La variable conjugada es el tiempo. Sería preciso una medida que llevase un tiempo infinito para tener precisión infinita en el resultado de la energía. Cualquier medida en un laboratorio emplea un tiempo finito y lleva asociada una indeterminación en la energía. Las líneas espectrales tienen pues un grosor que no puede violar el principio de indeterminación.


4) Si por algún motivo existieran variables ocultas, ¿seguiría habiendo computación cuántica como tal? En caso afirmativo, ¿cambiaría algo en ella?


Si existieran variables ocultas que describieran correctamente toda la mecánica cuántica, tendríamos una forma claśica de entender las superposiciones cuánticas y el entrelazamiento. Sin ellos no habría ventaja alguna en un ordenador cuántico, porque de hecho sería clásico. No es aquí el lugar para analizarlo, pero existen numerosos experimentos que descartan las teorías de variables ocultas de forma contundente.



5) Si A="posición de una partícula" y B="probabilidad de A", gramaticalmente se acepta que B es derivada de A, o que B es un subconjunto de A. No obstante, me da la sensación de que la mecánica cuántica afirma que B es más fundamental que A. Si esto es así, ¿no habría que reconstruir algún concepto para que gramaticalmente fuera A la que se deriva de B?


Correcto. La mecánica cuántica te da la función de onda, es decir, la amplitud de probabilidad de hallar una partícula de hallarse en un punto. Con esa función de onda se puede predecir la probabilidad de encontrar la partícula en un lugar y, también, la de medir cualquier otra propiedad que deseemos (momento, energía, etc). El concepto de función de onda es pues más básico que las probabilidades explícitas que luego deseemos medir. Tal vez haya que cambiar la gramática para expresar esta idea pero confieso que no he entendido bien tu pregunta.



Otro día seguimos con las otras cinco preguntas!

Un saludo, ji.

domingo, 25 de mayo de 2008

El efecto Lamb

(Obituario también publicado el 22 de mayo del 2008 en El País.)
El pasado día 15 de mayo falleció Willis E. Lamb Jr. a la edad de 94 años en Tucson, Arizona. Lamb quedará en la historia de la Física como el descubridor de un sutil y fundamental efecto asociado al vacío cuántico en presencia de interacciones electromagnéticas. Su trabajo fue reconocido con el premio Nobel de Física en 1955 por sus descubrimientos relativos a la estructura fina del átomo de hidrógeno, compartido con P. Kusch por sus propios trabajos en fluctuaciones cuánticas.

Nacido en 1913, Lamb estudió química en la Universidad de California, en Berkeley, donde también se doctoró en 1934 bajo la supervisión de J. Robert Oppenheimer, célebre por dirigir posteriormente el Proyecto Manhattan que dio lugar a la bomba atómica. Su carrera se desarrolló en Stanford, Yale y Oxford hasta llegar a la universidad de Arizona, como una bien remunerada celebridad.

La gran contribución de Lamb fue realizar el experimento que mostró la necesidad de revisar la Mecánica Cuántica y comprender las llamadas fluctuaciones cuánticas del vacío. Gracias a la Mecánica Cuántica y el trabajo de P. A. M. Dirac, la descripción del átomo de hidrógeno parecía bien asentada en los años cuarenta. Esta teoría predecía que dos niveles específicos del átomo debían tener la misma energía. En 1947, el preciso trabajo de Lamb y su estudiante R. C. Retherford demostró en la Universidad de Columbia que esos dos niveles no tenían exactamente la misma energía. El efecto recibió el nombre de "desplazamiento Lamb" (Lamb shift). La comunidad científica se volcó en la comprensión de este hecho de la mano de Weisskopf, Fench, Feynman y Schwinger. Así nacieron los conceptos de partículas virtuales y fluctuaciones cuánticas y la capacidad de hacer una descripción increíblemente precisa del mundo atómico.

La propagación de una partícula en el vacío cuántico es, pues, no elemental. Podemos imaginar un electrón aislado. Este electrón puede permanecer inalterado, o emitir un fotón virtual que luego captura, o emitir varios que a su vez emiten otras partículas virtuales para ser reabsorbidas. El mundo que observamos tiene en cuenta todas estas posibilidades llamadas fluctuaciones cuánticas.
El experimentó ideado por Lamb dio pie a la incorporación de todos estos efectos virtuales en la
teoría de la Electrodinámica Cuántica.


La mentalidad analítica de Lamb desmenuzaba cada idea y cada proceso. Su forma de trabajo perfeccionista fue acompañada de una absoluta focalización de sus intereses, siempre centrados en el mundo de la ciencia. Fue un físico puro. Lamb no creía que su labor tuviera impacto sobre la vida cotidiana. Sin embargo, sus trabajos dieron lugar al perfeccionamiento de los relojes atómicos. La excelencia de Lamb fue premiada en numerosas ocasiones y debe ser recordada.

La desaparición de Lamb es un simbólico adiós a una época fulgurante en que se asentó nuestro sólido conocimiento del mundo atómico.

lunes, 12 de mayo de 2008

Divulgación de calidad

(Esta entrada también aparece en el nuevo blog de la revista Investigación y Ciencia.)

No es sencillo recomendar divulgación científica de calidad. Los textos excesivamente simplicados desencantan a los lectores que buscan una comprensión refinada. Los textos excesivamente técnicos son áridos, no transmiten una visión global y pierden al lector en un mundo de fórmulas.

Algunos libros sí logran transmitir un espíritu. Siempre recomiendo "La apología de un matemático" de G. H. Hardy. Su trabajo en Cambridge junto a Ramanujan es el trasfondo del libro. Hardy razona con sutileza los privilegios de su profesión. Entre ellos, el más sublime fue trabajar junto a un genuino genio.

En esta misma línea, tenemos el libro de V. F. Weisskopf "El privilegio de ser un físico". Humanista consumado, amante de la música, Weisskopf dirigió el CERN, armonizó los mundos de la ciencia y de la fe, hizo cálculos notables en electrodinámica cuántica.

Las cartas entre Born y Einstein siempre me fascinaron. Destilan el respeto mutuo entre verdaderos científicos. La pugna intelectual es subsidiaria frente a la amistad y a una voluntad acérrima por comprender la estructura de las teorías cuánticas.

Una cuarta recomendación de gran calado son los libros sobre la relación de física cuántica y filosofía de Heisenberg. Son exquisitamente precisos. Cada concepto se halla formulado con rigor, cada idea que se ha tornado obsoleta es considerada con respeto.

La divulgación contemporánea (tema para otro día) también se consolida en soportes audiovisuales. Os recomiendo toda la labor hecha desde el Perimeter Institute (su fundador, M. Lazarides, se enriqueció con su compañía RIM creadora de la Blackberry). En concreto, su último vídeo sobre Dark Matter es un intento ambicioso por hacer divulgación científica de alto nivel.

martes, 22 de abril de 2008

Principios de simetría

Las leyes que rigen el mundo de las partículas elementales se basan en principio de simetría. Por ejemplo, las interacciones fuertes respetan la simetría gauge SU(3) de color. Los gluones portan las interacciones entre quarks que poseen un número cuántico que llamamos color (nada que ver con colores reales!). El lagrangiano que describe estas interacciones es invariante bajo un cambio de base en el grupo de color. Toda partículas puede adoptar localmente su propio convenio. Para ello cada término del lagrangiano debe tener una forma precisa.

Las simetrías son pues el postulado último en la forma en que entendemos la naturaleza. Esta idea siempre me ha parecido de una profundidad abismal. Postulamos simetría. El universo parece regirse por principios de invariancia que permiten adoptar bases para los números cuánticos locales arbitrarias. Así sucede para las interacciones fuertes, para las débiles y para las electromagnéticas. En cada caso cambian los números cuánticos y, por consiguiente, el grupo de simetría.

El gran misterio sigue siendo hallar una construcción consistente y satisfactoria de la cuantización de la Relatividad General. El grupo de simetría subyacente sigue siendo desconocido, a pesar de los progresos conceptuales en teoría de cuerdas. El abismo de entender que las leyes corresponden a simetrías se hace más profundo al saber que difícilmente llegaremos a una solución aunque sea parcial durante nuestras vidas.

jueves, 3 de abril de 2008

Entropía de Shannon vs entropía de von Neumann

La entropía es una figura de mérito que cuantifica la sorpresa. Tiene una forma clásica que construyó Shannon y una forma cuántica (llamada de von Neumann).

Veamos cómo la entropía de Shannon mide la sorpresa en un mensaje de mil bits. Si el mensaje fuera todo ceros, bastaría enviar la frase "todo ceros". Si enviásemos 500 ceros seguidos de quinientos unos, también sería ventajoso enviar esta frase en lugar de mil dígitos. Si el mensaje fuese absolutamente aleatorio, deberíamos enviar el conjunto de los mil dígitos.

La pregunta no trivial es saber cuánto podemos comprimir un mensaje que no sea absolutamente aleatorio. La respuesta a esta pregunta fue obtenida elegantemente por Shannon. Partimos de que la probabilidad para cada dígito de ser 0 es p_0 i la de ser 1 es p_1=1-p_0. La entropía de Shannon se define como S_SH=-Suma_(i=0,1) (p_i log_2(p_i)). En el primer caso que hemos considerado, p_0=1 y p_1=0, luego la entropía vale cero. No hay sorpresa. En el caso aleatorio, p_0=p_1=1/2. La entropía vale S_SH=1 que es su valor máximo. Shanon demostró que podemos comprimir un mensaje de N bits en tan sólo M=N S_SH. Es un resultado brutal empleado en todo algoritmo de compresión, tanto para las comunicaciones como para el almacenamiento. Por ejemplo, los "zip", "gzip" etcétera se basan en algoritmos de Lempel-Ziv que saturan la cota de Shanon.

El mundo cuántico es más sutil. Podemos pensar en un sistema complejo hecho de muchas partículas y nos preguntamos si el estado está hecho de superposiciones. Para ser más precisos, nos preguntamos si una parte del sistema se "soprende" de tener correlaciones con el resto. La entropía de von Neumann cuantifica este hecho. La construcción és técnica y sólo escribo en paréntesis el resultado (sea un estado |psi> con dos partes AB, construimos su matriz densidad rho, tomamos la traza parcial sobre B para obtener la descripción de la parte A: rho_A=Tr_B(rho), la entropía de von Neumann es S_vN=-Tr(rho_A log_2 rho_A). De esta forma logramos cuantificar las correlaciones cuánticas de un sistema.

Es un tema delicado relacionar esta entropía con la entropía de Bekenstein para un agujero negro. Es tremendamente sutil e incomprendido.

La sorpresa es cuantificable.

Siempre me ha parecido un concepto magnífico.

miércoles, 26 de marzo de 2008

La energía del hombre

Un hombre es una máquina energética. Come, digiere, traduce comida en energía que después emplea para mantener su temperatura, para moverse, para realizar todas sus funciones internas, para pensar (pero en ésto gasta poquito).

Ingerimos alrededor de unas 2000 Cal (algunos comemos más). A menudo ovidamos que 1 Cal=1000 cal. La "C" mayúscula es importante. Una caloría es una cantidad de trabajo (1 cal=4.186 Joules). Una gran parte de lo que comemos se va en mantener nuestra temperatura. Nuestro metabolismo interno la aumenta, nuestro sudor, la conversión de agua líquida en vapor, la disminuye. Así, un cuerpo cede unos 150 Joules por segundo (1 J/s = 1 Watt). La parte de la cabeza se queda en unos 20 Watts. Somos una especie de bombilla que luce poco. Si nos juntamos 10 personas en una habitación pequeña, la temperatura sube porque emitimos como una estufita.

Es más costoso mantener nuestra temperatura si hace frío. Nuestro cerebro ordena rápidamente comer más substancias de alto contenido calórico. En climas cálidos, optamos por comer menos. Si alguien desea adelgazar, es más rápido pasar frío que ir a una sauna, pero es menos agradable.

El cuerpo humano también retiene carga eléctrica. Si caminamos por una moqueta con zapatos de goma aislantes, la carga que generamos por fricción no se transmite al suelo. Estamos cargados. Al tocar el pomo de la puerta, sentimos un chispazo. Si entonces besamos a un ser querido, notamos la magia de la electricidad (no de la química).

Cualquier modificación de nuestro entorno precisa de un intercambio energético. El hombre recibe y cede energía constantemente y de muchas formas. Es modificado y modifica lo que le rodea. Es afectado por las máquinas y las afecta. En el balance, dicen, se halla la sabiduría.

miércoles, 12 de marzo de 2008

El postulado de la medida en Mecánica Cuántica

El proceso de medida afecta de forma incontrolable el sistema físico medido. Este hecho implica que una teoría científica consistente quede limitada a describir el resultado de toda observación sin pretender hallar una verdad última en la naturaleza. Con este espíritu se construyó la Mecánica Cuántica (MC). Es un revolución epistemológica.

1)¿Cómo se describe un sistema cuántico?

La física clásica describe la naturaleza a través de sus observables. Por ejemplo, las ecuaciones de Newton describen la posición de una partícula. La MC, en cambio, describe la información de un sistema físico a través de la llamada función de onda. Para obtener una predicción sobre un observable, debemos actuar con un operador que representa al observable sobre la función de onda. La propia función de onda no es observable.

2)¿Cómo se representa un observable en MC?

Un observable corresponde a un operador autoadjunto que puede actuar sobre la función de onda del sistema. Es la representación matemática de un aparato de medida.

3)¿Es posible hallar cualquier resultado cuando se mide un observable?

No. La primera parte del postulado de la medida dicta que los resultados posibles al medir un observable son los autovalores del operador que representa al observable.

4)¿Me lo he de creer?

La MC se basa en unos pocos postulados indemostrables. Un largo proceso reduccionista nos ha llevado a ellos. Sí son correctos o no debe ser decidido en base a la verificación sistemática de las predicciones que se siguen. Si encontrásemos experimentos que contradicen a estos postulados deberíamos abandonarlos. En todo este siglo no se ha hallado ningún experimento que contradiga a la MC.

5)¿Cuando mido un observable, hallo siempre el mismo valor?

No. La segunda parte del postulado de la medida dicta que al realizar una observación obtenemos uno de los autovalores del operador que representa al observable con una cierta probabilidad (que se calcula como el módulo al cuadrado de la proyección de la función de onda sobre el autovector; ¡es más fácil escribir la fórmula correspondiente!) . El resultado es, pues, probabilístico.

6)¿El mundo no es determinista?

Correcto. El determinismo de Laplace queda desbancado por el postulado de la medida. Existe un elemento intrínsecamente aleatorio en el proceso de medida. No se trata de imperfecciones de los aparatos, de errores estadísticos ni de nada accesorio. El proceso de medida, según la MC, es inherentemente probabilístico.

7)¿Qué pasa después de medir?

La función de onda colapsa al autovector asociado al resultado obtenido. Después evoluciona de forma determinista según la ecuación de Schrödinger.

La oposición al postulado de la medida ha quedado inmortalizada en la frase de Einstein: “Dios no juega a los dados en el átomo”. Él siempre defendió la existencia de un elemento de realidad local que describiese de forma determinista las distribuciones de probabilidad que observamos experimentalmente. Durante el siglo XX numerosas confirmaciones de la MC en contra de las teorías de realismo local se han sucedido.

Quisiera dejar claro que la MC no sólo describe correctamente un pequeño grupo de experimentos. La MC permite obtener predicciones para funciones completas, distribuciones angulares, energéticas, de todo tipo. Formalmente, proporciona infinitas predicciones. No es de extrañar que hoy utilicemos la MC en nuestro provecho: láseres, relojes atómicos, resonancias nucleares magnéticas, superconductores, condensados, semiconductores y un largo etcétera.

La MC es una de las construcciones intelectuales más bellas de la humanidad.

sábado, 1 de marzo de 2008

Teoría de la Relatividad de Einstein y GPS

La frase "el taxista se ha perdido, llegaré tarde" está en vías de desaparición. Muchos vehículos empiezan a incorporar un GPS (Sistema de Posicionamiento Global) que nos permite saber dónde estamos sobre la Tierra con precisión de pocos metros y que puede sugerirnos una ruta para no llegar tarde. El GPS también permite a un avión volar casi sin piloto, a un barco conocer su posición en el mar o determinar cómo se están desplazando las placas tectónicas que conforman los continentes. Todos hemos oído hablar de este avance tecnológico sin ser conscientes de que su funcionamiento precisa de las teorías de la Relatividad Especial (1905) y de la Relatividad General (1915) de Albert Einstein.

La idea fundamental es que ambas teorías nos permiten entender cómo transcurre el tiempo medido por diferentes relojes. El funcionamiento de un aparato GPS se basa en recibir señales de distintos relojes cuya ubicación es conocida y deducir su propia posición a partir de esa información. Para ello, una treintena de satélites orbitan alrededor de la Tierra. Cada satélite lleva consigo un reloj atómico de Cesio de precisión casi inimaginable: hace un tic cada nanosegundo y sólo se atrasa unos 4 nanosegundos al día. La razón para una precisión tan abrumadora es sencilla de entender. La luz recorre unos 30 cm cada nanosegundo. Si deseamos determinar una posición con precisión de pocos metros empleando señales electromagnéticas procedentes de satélites, hemos de medir tiempos con un error menor que unos 20 nanosegundos. Necesitamos relojes precisos bien sincronizados.

Aquí entra la Relatividad. El tiempo no corre por igual para un reloj situado en un satélite que para otro que tenemos en casa. Veamos dos razones. Una, el reloj en órbita se mueve respecto al nuestro a unos 12 000 km/s. Dos, nuestro reloj se halla inmerso en un campo gravitatorio más intenso. En el primer caso, la Teoría de la Relatividad Especial predice que el reloj en órbita se atrasa unos 7 microsegundos al día respecto al reloj de nuestra casa. En el segundo caso, la Teoría de la Relatividad General dicta que el reloj en órbita se adelanta unos 45 microsegundos al día. Ambos efectos se combinan de forma que, si no los corregimos, los relojes se desincronizan unos 38 microsegundos al día. Dicho de otro modo, si no utilizamos la Relatividad, nuestro GPS no sirve para nada pasados dos minutos. Al cabo de un día, daría nuestra posición con un error de 10 km.

¡El GPS incorpora, pues, las ecuaciones de la Relatividad! De hecho, los relojes en órbita fueron ajustados en fábrica para que hagan sus tics más despacio y así corregir parte de los efectos relativistas que hemos mencionado. Es una gran lección histórica: la teoría de Einstein, motivada por la necesidad de unificar los paradigmas de la Física Clásica y del Electromagnetismo, ha dado lugar a una herramienta tecnológica cuyo impacto empezamos a vislumbrar.

Podemos especular sobre el impacto social del GPS. Combinando un GPS con la emisión de una señal podemos monitorizar remotamente la posición de cualquier objeto. Existen sistemas de localización para coches que tal vez extenderemos a todo tipo de objetos o a personas. La visión de un Gran Hermano que sabe dónde está cada ser humano me aterra. Es inaplazable iniciar la legislación de la limitación en el uso del GPS. ¿Es ético monitorizar la posición de un trabajador? ¿De un niño? Como otras veces en la historia de la ciencia, un logro conceptual se traduce en una tecnología que debemos emplear con criterios consensuados y de contención.

El sistema GPS opera bajo el control del Departamento de Defensa de los EEUU. Gracias a que la Relatividad no pertenece a nadie, Europa está construyendo Galileo, su propio GPS civil. La inversión pública en ciencia básica halla, al menos, dos justificaciones: sus imprevisibles frutos se producen en plazos de tiempo superiores a la necesidad de retorno de una empresa y, además, el conocimiento obtenido debe ser público y no propietario.

El futuro será mil veces más fascinante de lo que atisbamos. Disponemos de relojes atómicos cien mil veces más precisos que los empleados en el sistema GPS que seguirán procesos de estabilización, miniaturización y abaratamiento y que permitirán localizar un objeto con precisión de 1 cm. Ese objeto podría ser un coche sin conductor.

Más de un joven lector estará ideando un uso original del GPS, capaz de aportar el necesitado valor añadido. Sin ciencia básica, no hay desarrollo ni posterior innovación. La Mecánica Cuántica también nos aguarda. El estudio y construcción de láseres atómicos dará lugar a ondas cuánticas lentas, capaces de medir distancias con precisión superior. (Joven lector, estudia Mecánica Cuántica.)

domingo, 17 de febrero de 2008

Revoluciones científicas y magnitudes físicas

Os presento una forma peculiar de comprender las revoluciones de la Mecánica Cuántica y de la Relatividad Especial. El razonamiento parte del principio dinámico propuesto por Newton, F=m a, una fuerza corresponde a una acción sobre una partícula puntual y su resultado es que esta partícula se acelera. El lado izquierdo de la ecuación representa a las fuerzas de la naturaleza, mientras que el lado derecho establece la respuesta universal a esas fuerzas. Esta respuesta no depende de que tipo de fuerza actúe sobre la partícula, es una respuesta básica, la partícula no desea cambiar su estado de movimiento.

Analicemos en más detalle el lado derecho de la ecuación de Newton. Aparecen tres magnitudes físicas: masa (m), distancia(L) y tiempo(T) (la aceleración es una distancia dividida por un tiempo al cuadrado). Es un hecho profundo que sólo tres magnitudes rigen la respuesta de una partícula a cualquier acción que se ejerza sobre ella.

Tenemos, pues, tres magnitudes: M, L y T. Es natural estudiar sus relaciones. La relación entre L y T es una velocidad. La existencia de una velocidad máxima c (velocidad de la luz) da lugar a la Relatividad Especial. La existencia de una cuanto de acción mínimo (ћ) da lugar a la Mecánica Cuántica. Estos dos pilares fundamentales de la Física están pues ligados a dos razones de las magnitudes básicas.

De esta observación parece natural predecir que no quedan grandes revoluciones pendientes. Esta afirmación no es demasiado sólida. Existen campos de la Física, como la Física Estadística, que surgen al considerar un elevado número de partículas (número de Avogadro, que no tiene dimensiones). Pero es mucho más importante entender que debemos establecer una de las tres magnitudes como refencia y mantener las dos relaciones anteriores. Nos enfrentamos al problema conceptual de fijar sea una escala absoluta de masa, de distancia o de tiempo. Esa escala puede ser la escala de Planck, que caracteriza la aparición de fenómenos gravitatorios cuánticos.

A la escala de Planck, m c^2=10^19 Gev, el concepto de un espacio-tiempo diferenciable puede ser totalmente substituido por algo que desconocemos. El espacio-tiempo continuo correspondería a una aproximación efectiva de bajas energías
a una realidad subyacente.

Es una posibilidad fascinante.

martes, 29 de enero de 2008

El día en que nació la Mecánica Cuántica (ћ)

Cito a Max Planck:
El mundo exterior es algo independiente del hombre, algo absoluto, y la búsqueda de las leyes que describen este absoluto me parece el más sublime objetivo científico en la vida.

En el año 1900 existían dos leyes empíricas para describir la radiación emitida por un cuerpo negro. La primera era la llamada ley de Wien que, para una temperatura fijada, describía correctamente los resultados experimentales a altas frecuencias. La segunda era la de Rayleigh-Jeans que explicaba los resultados para bajas frecuencias. No existía una única ley capaz de describir correctamente la radiación emitida por un cuerpo negro para todas las frecuencias: el enigma estaba servido y fue Planck quien lo resolvió. La originalidad de Planck fue hallar una fórmula que describiera correctamente los resultados conocidos y que fuera válida para toda temperatura y toda frecuencia. El precio fue introducir una nueva constante en la física: la constante de Planck, h, que caracteriza todos los procesos de la Mecánica Cuántica. (Hoy en día es más frecuente tomar esta constante dividida por 2 pi y llamarla ћ.) Planck halló, empleando sus propias palabras

eine glücklich erratene Interpolationsformel
(una feliz fórmula de interpolación)


La hora y motivo del nacimiento de la mecánica cuántica pueden ser deducidos a partir de diferentes relatos de las personas implicadas. Parece ser que en la noche del 7 de octubre de 1900 Rubens, uno de los grandes físicos experimentales de aquellos tiempos, visitó a Planck en su casa y le mostró nuevos resultados de mayor precisión de la radiación de un cuerpo negro llevadas a cabo por él en colaboración con Kurlbaum. Estos resultados llamaron poderosamente la atención de Planck y se sabe que aquella misma noche intuyó la fórmula correcta por una postal del mismo día que Planck escribió a Rubens. Planck trabajó a fondo en su descubrimiento hasta sentirse en condiciones de presentar un artículo ante la comunidad científica. Dos meses después, concretamente el 14 de diciembre de 1900, Planck se sintió suficientemente seguro de su hallazgo y envió a publicar el artículo que fija simbólicamente el nacimiento de la Mecánica Cuántica. El siglo XIX se cerró con una grieta en la física clásica que pasaría a ser todo un abismo. En breve tiempo, nuevas experiencias confirmaron totalmente la ley de Planck y se hizo perentorio dar una justificación de la misma. El mismo Planck se preocupó del problema y en 1911 presentó al Congreso de Solvay la demostración de que su fórmula se podía deducir a partir de primeros principios si se suponía que la energía de vibración de un campo electromagnético de frecuencia dada no era una cantidad que pudiera variar de forma continua, sino que sólo podía tomar valores que eran múltiplos enteros de la constante de Planck multiplicada por la frecuencia de la onda.

Si bien es una trivialización reducir el nacimiento de la Mecánica Cuántica a la noche del 7 octubre de 1900 en que Planck intuyo la necesidad de introducir la constante h, es admirable ver como la ciencia siempre avanza a partir del intercambio de pequeñas informaciones seguido de reflexión individual.

lunes, 7 de enero de 2008

Los nombres del cero

He recopilado información sobre la historia del número 0, tanto del cero como total ausencia o representación de la nada, como del cero posicional de nuestro sistema de numeración. He resumido las diferentes ideas sobre la conceptualización de la nada en este breve texto: La nada matemática, que
seguramente contendrá imprecisiones y resultará incompleto.

Entresaco los nombres del cero:

Zeuero, zepiro, ceuero, sipos, tsiphron, tsiphra, zeron, cifra, zero, rota, circulus, galgal, omicron, theca y figura nihili.
Sin duda, figura nihili es la expresión más sutil.

El primer matemático europeo que empleó el cero fue Fibonacci (en 1202) y su texto aboga por su uso con esta frase: ...quod arabice zephirum apellatur.

Me parece bellísima la idea de que Zermelo postulase la existencia del conjunto nulo.