lunes, 22 de marzo de 2010

Un grupo hispano-británico busca nuevos superconductores

Científicos de la Universidad del País Vasco (UPV), liderados por Teófilo Rojo y M. Isabel Arriortua, y de la Universidad de Cambridge, bajo la dirección de Paul Attfield, han unido sus fuerzas para investigar estructuras de nuevos materiales con propiedades superconductoras y magnetorresistentes. La colaboración, con financiación pública británica y española, explora un campo de perspectivas muy importante para las aplicaciones industriales y que exige a la vez investigación fundamental.
El objeto de estudio de estos investigadores son las denominadas perovskitas. Se trata de estructuras tridimensionales que presentan ciertos materiales, como los óxidos mixtos de manganeso o de cobre, y que les permiten poseer propiedades magnetorresistentes o superconductoras. Además de las perovskitas sencillas, también investigan las dobles perovskitas, que ofrecen materiales con propiedades magnetorresistentes más baratos y que trabajan a temperaturas más elevadas, hasta 140º centígrados, "algo necesario, por ejemplo, para los potenciómetros empleados en los automóviles", explica Rojo.

Uno de los principales caballos de batalla de la ciencia es conseguir materiales superconductores a temperatura ambiente. En la actualidad, los materiales que presentan dichas propiedades son bastante frágiles y necesitan temperaturas muy bajas. "No así los materiales magnetorresistentes, con los que sí se puede funcionar a temperatura ambiente", comenta Rojo.

Los óxidos mixtos de cobre son los que más han levantado la temperatura, pero están llegando a su límite. Attfield, por su parte, habla también de límites en la teoría que trata de comprender estos fenómenos: "El entendimiento actual de la mecánica cuántica no es suficiente, por lo que habrá que desarrollarlo más para poder relacionarlo con nuestros modelos experimentales". En cuanto a la pregunta de cuándo podrá ser posible la superconductividad a temperatura ambiente, Attfield hace buen uso de la conocida flema británica para afirmar que "no se sabe cuándo se podrá conseguir, lo que sí es cierto es que nadie puede decir que no es posible".

En opinión de Rojo, "es importante contar con la colaboración de Attfield, un científico que ha publicado en revistas de primera línea y que trabajó desde sus comienzos en el Centro Interdisciplinario de Investigación en Superconductividad de Cambridge". 

http://www.areaminera.com/Contenidos/Tecnologia/Telecomunicaciones/001.act
Héctor A. Chacón C.

domingo, 21 de marzo de 2010

Tambor de Schrödinger macroscópico

Área: Física — Lunes, 22 de Marzo de 2010

Un grupo de científicos tiene éxito a la hora de poner un sistema macroscópico en una superposición de estados.
Foto
El dispositivo empleado consiste en una lámina vibrante. Fuente: O'Connell y colaboradores .
Una de las varias propiedades "mágicas" del mundo microscópico que describe la Mecánica Cuántica es la superposición de estados. De este modo, un electrón convenientemente preparado puede estar en dos estados de spin distintos a la vez. Pero por alguna razón, cuando nos vamos a objetos más grandes, este tipo de estados superpuestos desaparecen. De ahí la broma de Schrödinger sobre la posibilidad de tener un gato vivo y muerto a la vez. Lo mismo se puede decir del amigo de Wigner.
Como obviamente no vemos gatos de Schrödinger en el mundo clásico y cotidiano que nos rodea, se tuvieron que inventar mecanismos que hicieran que las leyes extrañas de la Mecánica Cuántica (MC) no se dieran en el mundo macroscópico. Así por ejemplo se introdujo la decoherencia, que básicamente dice que se mantendrán las leyes de la MC siempre y cuando no se perturbe mucho al sistema cuántico, de otro modo colapsará hasta un estado clásico.
Desde hace un tiempo se viene especulando que aunque no veamos gatos de Schrödinger, quizás si podamos preparar otros objetos mesoscópicos en extraños estados cuánticos. Así por ejemplo, habría moléculas, proteínas o virus de Schrödinger. Lo que superaría todos los sueños sería un sistema de este estilo que fuera más allá del mundo mesoscópico.
¿Qué tal un estado cuántico superpuesto en el mundo macroscópico, aunque el sistema chiquito? Esto es precisamente lo que ha logrado el equipo de Andrew Cleland en la Universidad de California en Santa Barbara, pues han conseguido un "tambor de Schrödinger" que se puede ver a simple vista, aunque sólo mida 30 micras de longitud.
En este caso los estados se refieren a los estados posibles de vibración de una pequeña lámina que hace las veces de tambor cuántico. Hay un estado de vibración que es el de mínima energía posible (el estado fundamental) y sobre él otros estados excitados de mayor energía. Como el sistema está bajo las leyes de la MC dichas energías se dan de manera discreta en cuantos de energía. El sistema es similar a las moléculas, que pueden vibrar, excitarse al recibir energía y devolver esa energía en forma de fotones infrarrojos cuando vuelven al estado fundamental.
En el experimento consiguieron hacer vibrar la lámina de un resonador mecánico en dos estados a la vez: el fundamental y el primer estado excitado. Dicho en lenguaje de la calle, la lámina estaba quieta y vibrando a la vez.
Este resultado muestra que los principios de la MC pueden ser aplicados a los objetos cotidianos además de a las partículas en la escala atómica.
Hasta el momento nadie había visto un sistema cuántico que mostrase superposición de estados con un tamaño tan grande, y en el cual intervienen billones de átomos.
El montaje consistió en una lámina vibrante sujeta por un extremo de unas 30 micras de longitud. Esta "paleta" estaba conectada a un circuito eléctrico superconductor que obedece las leyes de la MC. Este tipo de circuito fue desarrollado para la computación cuántica, pudiéndose usar sus qubits a modo de termómetro.
Todo el sistema estaba enfriado hasta una temperatura de una décima de grado kelvin por encima del cero absoluto. A esa temperatura la paleta se encuentra en el estado fundamental de mínima energía. Entonces usaron el circuito para imprimir a la paleta un empujón con una energía específica, llevando la paleta al primer estado excitado. Por tanto, podían escoger el estado de vibración de la paleta. Quedaba por hacer lo más difícil: su superposición.
Consiguieron poner el circuito en una superposición de estados "empujar" y "no empujar" y lo conectándolo a la lámina. Como el circuito y la paleta estaban entrelazados cuánticamente era de esperar que la paleta pasara a una superposición de estados. A través de una serie de experimentos pudieron demostrar que efectivamente la paleta estaba en una superposición de estados, y vibraba y no vibraba simultáneamente.
Algunos físicos están encantados con el resultado, pues demuestra que las leyes de la MC se mantienen a escalas más grandes de lo que se creía hasta ahora.
Si se puede poner en una superposición de estados un objeto con billones de átomos, ¿por qué no un automóvil en una superposición de estados "detenido" y "en movimiento"? Según Cleland el tamaño sí importa, cuanto mayor sea el objeto más fácil que el estado cuántico sea destruido por las fuerzas del exterior. El ambiente es grande y complejo. "Es la interacción con este sistema increíblemente complejo lo que hace que la coherencia cuántica desaparezca", dice Cleland.
Pese a todo sostiene que hay muchas razones para intentar esto mismo con objetos cada vez más grandes. Por el camino se puede aprender mucho sobre la relación entre MC y gravedad, por ejemplo. Además cree que un resonador cuántico puede ser útil para alguna aplicación práctica. "Debe de haber alguna aplicación interesante, pero, francamente, no tengo una ahora", dice.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3043
Fuentes y referencias:

O'Connell, A. D. et al. Nature doi:10.1038/nature08967 (2010).
Noticia en Nature.



http://neofronteras.com/?p=3043
Héctor A. Chacón C.

Partículas, espín, magnetismo, materia

Si estamos hablando de las partículas  no podemos dejar a un lado el tema del movimiento rotatorio de las mismas. Usualmente se ve cómo la partícula gira sobre su eje, a semejanza de un trompo, o como la Tierra, o el Sol, o nuestra Galaxia o, si se me permite decirlo, como el propio Universo. En 1.925, los físicos holandeses George Eugene Uhlenbeck y Samuel Abraham Goudsmit aludieron por primera vez a esa rotación de las partículas.  Estas, al girar, genera un minúsculo campo magnético; tales campos han sido objeto de medidas y exploraciones, principalmente por parte del físico alemán Otto Stern y el físico norteamericano Isaac Rabi, quienes recibieron los premios Nóbel de Física en 1.943 y 1.944, respectivamente, por sus trabajos sobre dicho fenómeno.

Esas partículas (al igual que el protón, el neutrón y el electrón), que poseen espines que pueden medirse en número mitad, se consideran según un sistema de reglas elaboradas independientemente, en 1.926, por Fermi y Dirac.  Por ello, se las llama y conoce como Estadísticas Fermi-Dirac.  Las partículas que obedecen a las mismas se denominan fermiones, por lo cual el protón, el electrón y el neutrón son todos fermiones.
Hay también partículas cuya rotación, al duplicarse, resulta igual a un número par.  Para manipular sus energías hay otra serie de reglas, ideadas por Einstein y el físico indio S.N.Bose. Las partículas que se adaptan a la "estadística Bose-Einstein" son "bosones".  Por ejemplo, la partícula alfa, es un bosón.
Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de ésta teoría en vez de las de la mecánica clásica.  En estadística cuantica, los estados de energía se considera que están cuantizados.  La estadística de Bose-Einstein se aplica si cualquier número de partículas puede ocupar un estado cuántico dado. Dichas partículas (como dije antes) son los bosones que, tienden a juntarse.
Los bosones tienen un momento angular n h/2p, donde n es cero o un entero y h es la constante de Planck.  Para bosones idénticos, la función de ondas es siempre simétrica.  Si sólo una partícula puede ocupar un estado cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n+½) h/2p y cualquier función de ondas de fermiones idénticos es siempre antisimétrica.
La relación entre el espín y la estadística de las partículas está demostrada por el teorema espín-estadística.
En un espacio de dos dimensiones es posible la presencia de partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones.  Estas partículas se conocen con el nombre de aniones; para aniones idénticos la función de ondas no es simétrica (un cambio de fase de+1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1.  Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.
Debido al principio de exclusión de Pauli es imposible que dos fermiones ocupen el mismo estado cuántico (al contrario de lo que ocurre con los bosones).
La condensación de Bose-Einstein es de importancia fundamental para explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7k) se puede formar un condensado de Bose-Einstein, en el que varios miles de átomos forman una única entidad (un superátomo). Este efecto ha sido observado con átomos de rubidio y litio. Este efecto (condensación Bose-Einstein), como ya habréis podido suponer, es llamado así en honor al físico Satyendra Naht Bose (1.894-1.974) y de Albert Einstein.
Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.
Si nos fijamos en todo lo que estamos hablando aquí, es fácil comprender como forma un campo magnético la partícula cargada que gira, pero ya no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado.  Lo cierto es que ocurre así. La prueba directa más evidente de ello es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma forma que lo haría si el hierro no estuviese magnetizado.  El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalentes a cero, aunque por alguna razón desconocida, lograr crear un campo magnético cuando gira la partícula.
Particularmente creo que, si el neutrón tiene masa, si la masa es energía (E=mc2), y si la energía es electricidad y magnetismo (según Maxwell), el magnetismo del neutrón no es tan extraño, sino que es un aspecto de lo que en realidad es, ¡materia! La materia es la luz, la energía, el magnetismo.  En definitiva, la fuerza que reina en el Universo y que está presente, de una u otra forma en todas partes aunque no podamos verla.
¡Es Curioso!
Sea como fuere, la rotación del neutrón nos de la respuesta a esas preguntas:
¿Qué es el antineutrón?  Pues, simplemente, un neutrón cuyo movimiento rotatorio se ha invertido; su polo sur magnético, por decirlo así, está arriba y no abajo.  En realidad, el protón y el antiprotón, el electrón y el positrón, muestran exactamente el mismo fenómeno de los polos invertidos.
Es indudable que las antipartículas pueden combinarse para formar la "antimateria", de la misma forma que las partículas corrientes forman la materia ordinaria.
La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965, donde fue bombardeado un blanco de berilio con 7 protones BeV y se produjeron combinaciones de antiprotones y antineutrones, o sea, un "antideuterón". Desde entonces se ha producido el "antihielo 3″, y no cabe duda de que se pudiera crear otros antinúcleos más complicados aun si se abordara el problema con más interés.
Pero, ¿existe en realidad la antimateria? ¿Hay masas de antimateria en el Universo?
Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serían idénticos a los de la materia corriente.  Sin embargo, cuando se encontrasen las masas de las distintas materias, deberían ser claramente perceptibles las reacciones masivas del aniquilamiento mutuo resultante del encuentro.  Así, pues, los astrónomos observan especulativamente las galaxias, para tratar de encontrar alguna actividad inusual que delate dichas interacciones materia-antimateria.
No parece que dichas observaciones, hasta el momento, fuesen un éxito.
¿Es posible que el Universo este formado casi enteramente por materia, con muy poca o ninguna antimateria? Y si es así, ¿por qué? Dado que la materia y la antimateria son equivalentes en todos los aspectos, excepto en su oposición electromagnética, cualquier fuerza que crease una originaria la otra, y el Universo debería estar compuesta de iguales cantidades de la una y de la otra.
Este es el dilema.  La teoría nos dice que debería haber allí antimateria, pero las observaciones lo niegan, no lo respaldan. ¿Es la observación la que falla? ¿Y qué ocurre con los núcleos de las galaxias activas, e incluso más aún, con los causares? ¿Deberían ser estos fenómenos energéticos el resultado de una aniquilación materia-antimateria? ¡No creo! Ni siquiera ese aniquilamiento parece ser suficiente, y los astrónomos prefieren aceptar la noción de colapso gravitatorio y fenómenos de agujeros negros, como el único mecanismo conocido para producir la energía requerida.
Con esto de la antimateria me ocurre igual que con el hecho, algunas veces planteado de su composición en lugares muy lejanos del Universo.
En cualquier parte del Universo, por muy lejana que pueda estar, rigen los mismos principios y las mismas fuerzas: la materia y la energía son las mismas en cualquier parte.
Lo único que puede diferir, es la forma en que se utilice, el tratamiento que se le pueda dar, y, sobre todo el poseer el conocimiento y la tecnología necesarios para poder obtener, el máximo resultado de las propiedades que dicha materia encierra. Porque, en última instancia ¿es en verdad inerte la materia?
emilio silver


http://www.emiliosilveravazquez.com/blog/2009/06/19/particulas-espin-magnetismo-materia/

Héctor A. Chacón C.

Tal vez la física cuántica sea insuficiente


Anthony Leggett
Anthony Leggett
El científico británico Anthony Leggett es un Premio Nobel de Física con una trayectoria inicial poco corriente. En los años cincuenta, después de seguir estudios clásicos en la Universidad de Oxford y cuando llegó el momento de decidir qué hacer con su vida. En lugar de optar por un doctorado en filosofía, como parecía natural, se planteó si realmente quería dedicarse a una carrera académica en una disciplina en la que, como el mismo recuerda en un artículo autobiográfico, "al parecer se carecía de un criterio objetivo sobre lo que era correcto y lo que no". Se planteó saltar a la matemática pura, pero lo descartó "ya que en matemáticas, casi por definición, estar equivocado significa que eres estúpido, y yo quería tener la posibilidad de estar equivocado sin ser estúpido, de estar equivocado, si uno quiere, por motivos interesantes y relevantes". Se decidió por la física, matriculándose para obtener su segundo título en esta disciplina.
Una brillantísima carrera en física de la materia condensada, en su vertiente teórica, culminó en 2003 con el premio Nobel, que galardona su teoría, desarrollada en los años setenta, acerca de cómo el helio 3 se hace superfluido a temperaturas ultra bajas.
Leggett, de 67 años, profesor en la Universidad de Illinois (EE UU), sigue dirigiendo el trabajo de jóvenes investigadores en mecánica cuántica, en computación cuántica, en superconductividad, etcétera. Recientemente participó en un encuentro sobre Fronteras de la Física Cuántica, organizado por la Facultad de Ciencias Físicas de la Universidad Complutense (Madrid), donde pronunció una conferencia sobre Los límites de la mecánica cuántica.
Pregunta. ¿Dónde sitúa esos límites de la mecánica cuántica?
Respuesta. Un posible punto de vista es que no hay límites a la mecánica cuántica y que, en cierto sentido, ésta describe el mundo al menos hasta el nivel de nuestra propia experiencia; o tal vez no describe ninguna experiencia, pero puede, de todas formas, hacer predicciones fiables hasta ese nivel. Si uno asume este enfoque, creo que al final se ve abocado a la perspectiva de que la mecánica cuántica no es realmente más que una serie de recetas. Esta es la conclusión lógica a la que lleva el pensamiento de Niels Bohr. Una posición intermedia es que la mecánica cuántica no corresponde a nada real en el mundo, pero proporciona una serie consistente de recetas para calcular probabilidades de resultados que observamos directamente. Por varias razones yo considero ese punto de vista muy inapropiado pero entiendo que es el único posible si realmente consideras que la mecánica cuántica es la última palabra del mundo físico.
La alternativa es que, en algún paso entre el nivel de los átomos y el nivel de nuestra experiencia cotidiana la mecánica cuántica desaparece y debe ser reemplazada por algún otro tipo de teoría que ahora no podemos ni imaginar. Yo soy muy partidario de empujar los experimentos hacia un punto en que podamos atisbar alguna esperanza de realizar un avance clave.
P. ¿Por qué la mecánica cuántica es tan oscura, tan difícil de comprender para las personas no especialistas, incluso un siglo de después de su formulación?
R. Tal vez sea posible, y lo digo por una simple cuestión de experiencia e historia, que en el año, pongamos, 2500 los niños aprenderán mecánica cuántica en el colegio como algo perfectamente natural. Es importante recordar que la mecánica cuántica no tiene una correspondencia inmediata con cosas que podamos observar directamente a nuestro alrededor, como sí ocurre en la mayor parte de la física clásica. Por supuesto, hay conceptos en física clásica que no tienen correspondencia directa con fenómenos que observamos; por ejemplo, la entropía en termodinámica. Pero creo que, al menos, podemos analizar lógicamente el concepto de entropía en términos de cosas observables directamente, mientras que en la mecánica cuántica eso es mucho más difícil hacer. Quizá el problema es que no somos suficientemente imaginativos, pero, por otro lado, el mismo hecho de que no seamos capaces de abordarla con la intuición sugiere que tal vez la teoría es insuficiente.
P. En los últimos años los físicos abordan experimentalmente, los fenómenos cuánticos en ese territorio del macrocosmos más allá de las partículas elementales o el átomo, que durante décadas parecía el único universo realmente cuántico. ¿Por qué ha costado tanto tiempo entrar en él?
R. Es cierto que, al menos en algún sentido, los experimentos están empezando a penetrar áreas que hace 20 ó 30 años eran dominio exclusivo de la física clásica, y que, cuando las investigamos experimentalmente resulta que forman parte del mundo cuántico. En ese sentido hemos desplazado, en varios órdenes de magnitud, la frontera entre lo que se considera comportamiento clásico y cuántico, acercándola a la experiencia cotidiana. Por ejemplo, en algunos experimentos hemos observado superposiciones cuánticas de estados en los que algo así como 10.000 millones de electrones se están comportando de modo diferente. Hace unos años esto parecía una quimera.
P. Usted recibió el premio Nobel por descubrimientos en el mundo ultrafrío. ¿Por qué tantos experimentos de mecánica cuántica se están haciendo a temperaturas ultra bajas?
R. Fue Kike Kamerlingh Onnes, premio Nobel en 1913, quien dijo algo así como que al ir a las temperaturas ultra bajas retiramos el velo del ruido térmico que enmascara las leyes básicas de la física. En otras palabras, a temperaturas altas todo tiende a estar mezclado aleatoriamente por el efecto térmico, mientras que a bajas temperaturas vemos el comportamiento más puro del sistema y, en particular, podemos ver los efectos cuánticos que son invisibles a temperatura más alta.
P. ¿Le interesa el problema de la aparente imposibilidad de cuantizar la gravedad?
R. Es un reto, un problema fundamental. Personalmente creo que lo solucionaremos si aclaramos mucho mejor la transición entre el mundo clásico y el mundo cuántico. Hay gente, como Roger Penrose, que cree que es esa tensión entre la gravedad y la mecánica cuántica lo que nos dará una pista sobre la solución de lo que yo llamo la paradoja de la medida cuántica, la transición de lo cuántico a lo clásico. Puede ser, pero personalmente no tengo mucha fe en ello [sonríe].
P. En cierto modo la revolución en la física, hace un siglo, arrancó de cosas que no cuadraban en el conocimiento de la naturaleza en ese momento. ¿Cree que hay cosas ahora que no funcionan en la física y que podrían conducir a una nueva revolución?
R. Posiblemente la paradoja de la medida cuántica. Tal vez la mecánica cuántica sea toda la verdad, pero si es así me parece que la misma noción de un mundo exterior objetivo se desvanece y tenemos que vivir con la idea de que..., citando a Bohr, "no es cometido de la física decir cómo es el mundo, sino sólo qué podemos decir acerca del mundo". Es un punto de vista que considero extremadamente desagradable y creo por tanto que hay muy pocas probabilidades de que semejante perspectiva estimule una revolución en física.

Ordenadores y comunicaciones 
Los trabajos encaminados hacia los ordenadores cuánticos y los ensayos de comunicación cuántica protagonizaron charlas del encuentro celebrado en la Universidad Complutense, con apoyo de la Fundación BBVA. Ignacio Cirac (Instituto Max Planck de Óptica Cuántica, Alemania), se ocupó de la computación y Markus Aspelmeyer (Universidad de Viena) de experimentos de comunicación. Anthony Leggett siguió las charlas con atención y perspectiva crítica.
Un ordenador cuántico, en principio, podría hacer lo mismo que hace uno convencional, calculando, pero de forma muchísimo más rápida. El ejemplo clásico es la factorización de números muy grandes. ¿Está lejos un ordenador cuántico o a la vuelta de la esquina? "Cuando intentas predecir dónde estará la computación cuántica dentro de unos 15 años, mi apuesta es que la situación será parecida a la actual de la fusión controlada del hidrógeno", dice Leggett. "No hay una razón fundamental para creer que no va a funcionar, pero ir poniendo todas las piezas del rompecabezas para que funcione es tan increíblemente tedioso que al final la gente se pregunta si merece la pena".
La comunicación cuántica, comenta Leggett, "es mucho más realista, de hecho ya se ha ensayado y sospecho que se utiliza en aplicaciones de alta seguridad militar". ¿Cuál es su ventaja? "Que sería inviolable. Debido a las leyes básicas de la física es imposible interceptar la comunicación sin que se desvele al que lo intenta".

http://www.webislam.com/?idt=1056
Héctor A. Chacón C.

MIRANDO AL CIELO CON FRIALDAD


HÉCTOR RUBINSTEIN
UNIVERSIDAD DE UPPSALA, SUECIA

En los últimos diez años se han buscado nuevas formas de interpretar la física de los fenómenos elementales. En materia de física de partículas, ello no debería sorprender. Sin embargo, para aplicar las nuevas ideas se requeriría, muy probablemente, unir la física de las distancias muy pequeñas con la de las más grandes, es decir, abarcar extensiones que van del orden de los 10-31cm hasta aquellas comparables con el tamaño del universo, es decir, 1028cm.
En la física actual se destaca una teoría usualmente llamada el modelo estándar de las partículas elementales, que explica los fenómenos observados en la naturaleza en la escala microscópica, todos excepto la gravedad (véase 'El modelo estándar', Ciencia Hoy, 26:38-39). En una sola fórmula contiene las leyes de Maxwell sobre el electromagnetismo, las fuerzas que forman los protones, las que producen la desintegración de las partículas, etc. Los elementos básicos constituyentes del mundo físico, según el modelo estándar, son de dos tipos:
  • (i) los que forman la estructura de la materia y
  • (ii) los que actúan como portadores de fuerzas.
Entre los primeros se cuentan los quarks (véase el 'Pequeño glosario'), algunos de los cuales forman los protones y neutrones, los componentes principales del núcleo atómico. También los leptones, como el electrón y su neutrino asociado, son parte de los elementos constitutivos de la materia. Quarks y leptones aparecen en la naturaleza agrupados en tres familias idénticas, que sólo difieren por la masa de algunos de aquellos de sus integrantes que se repiten; el electrón, lo hace en el muón y el tau (t), cada uno con un neutrino haciéndole de pareja. Lo mismo sucede con los quarks: el u se repite en el c y el t, y el d, en el s y el b. El porqué de esta repetición es uno de los misterios que aún no han sido resueltos. Una característica común a todas las familias, sin embargo, es que están formadas por partículas de espín semientero (1/2). El espín es una propiedad intrínseca –como la masa o la carga eléctrica– cuyo origen está en la física cuántica; carece de correlato o analogía en la mecánica clásica. Sin embargo, no existe físico que no lo piense en términos de rotación interna de la partícula, como si se tratase de un trompo que sólo puede girar en determinadas frecuencias.
Los elementos portadores de fuerzas son partículas de espín entero: el fotón, que propaga la fuerza electromagnética; el gluón, que transmite la fuerza fuerte o de color; los mesones W y Z, que propagan las interacciones débiles, y el gravitón, que propaga la gravedad. Finalmente, el modelo estándar incluye un mesón de espín cero, el mesón de Higgs, que sirve para que quarks, leptones y mesones W y Z puedan tener las masas que hemos descubierto experimentalmente que tienen. Sin él, ajustándose a los actuales conceptos sobre cómo debe ser una teoría física, sería imposible que se les adjudique masa en el modelo estándar. Resulta paradójico que la única fuerza no incluida en el modelo estándar sea la gravitación, porque, en los términos en que la concibieron Kepler y Newton, constituye el primer caso de teoría científica que pudo ser sometida al escrutinio experimental.
Mirado con un criterio estético o económico –y hasta filosófico–, el modelo estándar no resulta satisfactorio. La fórmula que resume el comportamiento de los fenómenos físicos requiere que se establezcan, por vías que le son ajenas, unos treinta valores o parámetros, que no puede calcular por ella misma. Si bien tal complicación no parece un precio muy alto por lo que luego se obtiene –nada menos que la posibilidad de reproducir toda la física conocida–, es razón suficiente para creer que no estamos en presencia de la última teoría posible, en la que esos treinta parámetros fuesen calculables por el modelo y no postulados.
Existe un enfoque teórico que resuelve el problema de unificar la gravedad con el resto de las fuerzas. Exige que la teoría posea una simetría tal que la distinción entre fuerzas y materia se pierde completamente; es decir, la teoría se construye de forma equivalente para las unas y la otra. Tiene la propiedad denominada supersimetría, por la que todas las partículas de espín semientero deben estar asociadas a otras de espín entero y viceversa. Dado que los electrones y quarks, que forman la materia, tienen espín fraccionario, y los portadores de las fuerzas espín entero, el mencionado requisito borra la distinción entre fuerzas y materia. Es pertinente mencionar que, hasta ahora, no existe evidencia experimental de las nuevas partículas postuladas por este enfoque.
Si al argumento de la supersimetría se agrega otro, más antiguo, por el cual las partículas elementales son cuerdas de 10-31cm de longitud –abandonando la idea de elementalidad asociada con no tener dimensiones espaciales–, se llega a una nueva teoría, llamada de las supercuerdas (véanse 'Virasoro' y '¿Han muerto las supercuerdas?, respectivamente, en Ciencia Hoy, 36:17-21, y 1:64-65). Recientemente ha incluido objetos de más de una dimensión (como las membranas) dando lugar a importantes desarrollos que, si bien no comentaremos, indican la importancia que está cobrando. En resumen, la teoría que tenemos y que ha sido verificada experimentalmente con gran precisión resulta incompleta. Hay otra, una generalización muy atractiva que incluye la gravitación, posible por la incorporación de argumentos de supersimetría, que, entre otras cosas, postula la existencia de nuevas partículas, de las que no hay por el momento evidencia experimental. En caso de existir, estas partículas no deberían interactuar apreciablemente con la luz, una propiedad a la que volveremos más adelante.
Si dejamos ahora los tamaños infinitesimales y miramos al universo, podemos afirmar que los tres pilares del modelo estándar cosmológico, popularmente conocido como el Big Bang, fueron verificados experimentalmente en los últimos veinte años. La velocidad de expansión del universo, medida por la constante de Hubble, ha sido determinada con una precisión del 20%; se han medido las abundancias de los elementos livianos, producidos durante los primeros minutos de vida del universo, un proceso denominado nucleosíntesis primordial, y se han obtenido resultados que concuerdan en un rango de diez órdenes de magnitud con los predichos por el modelo (una precisión mayor que estimar la longitud de un meridiano terrestre con error de un milímetro) y, finalmente, las fluctuaciones del ruido cósmico de fondo, que también se han medido, resultaron de una magnitud concordante con las predicciones del modelo, que postula el origen gravitatorio de las galaxias.


PEQUEÑO GLOSARIO
Axión : partícula hipotética (aún no observada), que resuelve problemas de consistencia en la teoría de las fuerzas de color.
Constante cosmológica : presión en el vacío de materia gravitatoria, que integra las ecuaciones de la teoría de la relatividad general de Einstein, quien la usó para describir un universo estacionario, carente de la expansión con que se lo concibe hoy.
Espín : castellanización del inglés spin, propiedad de las partículas postulada por la mecánica cuántica, sin correlato imaginable en el mundo de la experiencia cotidiana.
Leptones : constituyentes de la materia, junto con los quarks. El electrón y el neutrino son leptones. No participan de las interacciones fuertes.
Mesón de Higgs : partícula aún no descubierta que, en el modelo estándar, tiene por función dar masa a las otras partículas.
Nucleosíntesis primordial : período durante el cual el fluido primordial formó elementos como el hidrógeno, helio, deuterio y otros. Ello ocurrió cuando la temperatura era 106eV.
Inflación : crecimiento rápido del radio del universo debido a una inestabilidad. Este fenómeno explica, entre otras cosas, la homogeneidad del universo y que W=1.
Omega (W) : densidad del universo dividida por la densidad crítica.
Quark : constituyente de los protones (tres en cada uno), participa de todas las interacciones posibles.
Ruido cósmico de fondo : fotones emitidos cuando la radiación se desacopló de la materia a la temperatura de 0,2eV.
Supersimetría : propiedad por la que partículas de espín semientero deben estar asociadas a otras de espín entero y viceversa

A pesar de estos éxitos, la situación del modelo estándar cosmológico es mucho menos satisfactoria que la del de partículas elementales. Muchas preguntas fundamentales, que están en la raíz misma del modelo, quedan todavía sin respuesta. Nada sabemos acerca del origen del universo, cuando el espacio-tiempo era fluctuante o, de hecho, no existía; no sabemos si hubo un período de expansión violenta o inflación del universo y, de haberlo habido, qué lo desencadenó, e ignoramos si la densidad del universo es crítica, como a primera vista se deduce de la inflación, o si volverá a contraerse. A tales interrogantes, que deben imponerse al modelo como condiciones de contorno, se agregan otros que les están relacionados, como: ¿es posible que exista una constante cosmológica y que haya un nuevo tipo de materia en el universo?

Lo último merece un párrafo aparte. ¿Cuáles son las razones para creer que en el universo pueda haber materia desconocida? Tanto ciertas evidencias experimentales como algunas especulaciones teóricas así lo indican. Las primeras, por el momento, son de tipo indirecto, lo que explica el enorme esfuerzo que se hace en estos momentos por obtener datos experimentales más precisos sobre estas posibles nuevas formas de materia (véase recuadro 'Búsqueda de materia oscura en la Argentina') . Consideremos cuáles son dichas evidencias y analicemos por qué detectar esa forma de materia es una empresa muy difícil.
La primera evidencia es proporcionada por las curvas de rotación de las galaxias espirales. Si consideramos los movimientos de estrellas en dichas galaxias, las leyes de Kepler predicen que su velocidad de rotación alrededor del centro de la galaxia debe disminuir con su distancia de este, salvo que la masa de la galaxia crezca de forma proporcional a dicha distancia. En una galaxia, la masa de la materia visible decrece rápidamente más allá de cierta distancia del centro (se dice que está confinada) pero, en cambio, la velocidad de estrellas situadas más allá del radio visible no disminuye. Para explicar este hecho, es necesario que la masa de la galaxia aumente con la distancia a su centro. Por ello, se ha llegado a cierto acuerdo en el sentido de postular que todas las galaxias están sumergidas en un halo de materia oscura, que interactúa muy débilmente con los protones y otras formas de materia habitual, incluida la luz. Tal halo tendría un radio diez veces más grande que el de la materia visible de las galaxias.
La segunda evidencia indirecta sobre la existencia de materia no visible es proporcionada por las lentes gravitatorias. Una galaxia lejana alineada con otra más cercana a la Tierra y con nuestro ojo produce imágenes que resultan afectadas por la acumulación de masas de la segunda. Se trata, esencialmente, del mismo fenómeno que constatamos cuando ponemos una lente común en el camino de un haz de luz. Las características de las imágenes galácticas en cuestión, como su forma y posición, dependen de varios factores, entre ellos, las distancias a la Tierra de ambas galaxias y la masa de la más cercana, o galaxia lente (que hace las veces de lente óptica). La masa de una galaxia se puede estimar por su luminosidad, pero, en todos los casos en que se produce el efecto que estamos comentando, resulta que la masa necesaria para explicar las observaciones tiene que ser diez veces mayor de la que se deduce de la luminosidad de la galaxia cercana. Se concluye así, nuevamente, que hay más masa que ejerce efectos gravitatorios que la que emite luz.
La tercera evidencia, la más débil, proviene de simulaciones numéricas realizadas para explicar la formación de las estructuras cósmicas. El origen de estas se remonta a fluctuaciones del líquido primordial, compuesto por protones, electrones y fotones. Debido a la inestabilidad intrínseca de las fuerzas gravitatorias, que sólo ejercen atracción, pequeñas fluctuaciones de esta ocasionaron el colapso de la materia, lo cual –se piensa– dio lugar a las estructuras que observamos en el universo. Los resultados de dichas simulaciones suelen resumirse en una cantidad que los científicos llaman omega (W), que se define como el cociente entre la densidad de materia observada o predicha, que se simboliza por r, y una densidad patrón que se denomina densidad crítica, rcri. La última se calcula mediante dos constantes físicas, la velocidad de expansión del universo y la constante gravitatoria de Newton; su valor aproximado es 10-29g/cm3, lo que equivale a un protón cada tres metros cúbicos. Las simulaciones predicen que, trabajando en escalas muy grandes, la cantidad de materia debería ser tal que se obtuviera un valor de W cercano a uno, y no inferior a 0,3. Esto es importante, porque la nucleosíntesis primordial, que predice con gran precisión la abundancia de los elementos como función de W, requiere que tal valor sea del orden de 0,1. La única manera de compatibilizar ambos resultados es concluir que protones, neutrones y electrones no pueden ser toda la masa medida como materia oscura, sino sólo una parte relativamente pequeña de ella. Como no hay otra forma de masa conocida, la conclusión inevitable es que debe existir una nueva forma de materia, que no es visible pero ejerce fuerza gravitatoria.
Si la materia oscura fuese dominante en el universo, debería ser sencillo encontrarla. Sin embargo, no es así. La razón es simple. Vivimos en una galaxia: a nuestro alrededor se registra una densidad de materia r de 1028Wg/cm3, 1028 veces mayor que la del espacio intergaláctico. Como las secciones de choque de partículas son del orden de 10-27cm2, advertimos que en las cercanías de la Tierra la situación de una partícula es diferente que en el espacio intergaláctico, donde dos efectos se compensan: la probabilidad de que una partícula choque con otra es ínfima, porque hay poquísimas por unidad de volumen, pero este es tan grande que de todos modos puede ocurrir la colisión. En las cercanías de la Tierra hacen falta volúmenes muy grandes para que exista alguna probabilidad de encontrar materia oscura.
La búsqueda primaria de esta se orienta hacia algunos objetos conocidos o, por lo menos, propuestos. Los conocidos son: el neutrino y los llamados MACHOs (sigla de massive astrophysical compact halo objects). Del primero sabemos, ante todo, que existe; sin embargo, para que pudiese conformar la materia oscura sería necesario que tuviera masa, una propiedad que todavía no puede claramente adjudicársele. Un análisis complejo fija la masa del neutrino entre 20eV y 80eV (un electrón-voltio equivale aproximadamente a 1,8x10-33g): compáresela con la del electrón, que es de 511.000eV. Medir la masa del neutrino es muy difícil, pero se espera que se lo pueda lograr dentro de los próximos diez años, cuando se completen ciertos experimentos que están en marcha en el Centre Européen de Recherche Nucléaire (CERN), en Ginebra. Suponer que el neutrino es tan liviano lleva a que las simulaciones numéricas que lo postulan como único componente de la materia oscura no puedan dar como resultado estructuras del tamaño y masa típicos de una galaxia (aproximadamente 1011 masas solares). Es posible que los neutrinos formen parte de la materia oscura, pero difícilmente sean su único componente.
Por MACHOs entendemos los cuerpos celestes compuestos de materia ordinaria –como los planetas– que no han adquirido la masa suficiente para dar lugar a reacciones nucleares y que, por lo tanto, tienen baja temperatura y carecen de brillo propio. Júpiter es el ejemplo clásico de esta clase de cuerpos, pues es un planeta con una masa casi igual –pero inferior– a la necesaria para encenderse nuclearmente. Usando la técnica de lentes gravitatorias adaptada a cuerpos pequeños, se ha podido establecer la abundancia de estos cuerpos celestes en la vía láctea, aunque su cantidad resulta insuficiente para explicar las curvas de rotación de nuestra galaxia; en otras palabras, se ha determinado que existe un número de estrellas frustradas, pero no bastantes como para crear el campo gravitatorio necesario para inducir esa rotación.


por ANÍBAL GATTONE

A los 41º40' de latitud sur y 65º23' de longitud oeste, en la provincia del Río Negro, a 2km de la localidad de Sierra Grande y 380m debajo de la superficie, en uno de los túneles de la mina de hierro que explotaba la empresa HIPARSA, está instalado el primer laboratorio subterráneo de Sudamérica. Puesto en operación a mediados de 1994 por un grupo de científicos españoles, estadounidenses y argentinos, la razón fundamental de su existencia fue el propósito de buscar materia oscura.

Mediante un detector ubicado en dicho del laboratorio se comenzaron a recolectar datos del ambiente, con el propósito de identificar entre ellos a los que pudiesen tener origen en la materia oscura galáctica. ¿Cómo distinguir los fenómenos –en la jerga también llamados eventos– buscados de aquellos que, para los propósitos del laboratorio, fuesen espurios? En experimentos en los que el número de los fenómenos buscados es muy bajo con relación a otros que también se registran, esta pregunta es, justamente, una de las más difíciles de contestar. Hay que encontrar alguna característica de los eventos que se buscan que los distinga de los más abundantes que no interesan. Los segundos reconocen dos fuentes dominantes: (i) la radiación cósmica y (ii) la radiactividad natural. Si se pudiese suprimir por completo la influencia de ambas radiaciones, sólo habría que aguardar la llegada del evento esperado, pero la realidad es que no existe blindaje perfecto que logre tal exclusión, por lo que es tarea del experimentador separar unos eventos de los otros.
Un primer paso para hacerlo es producir el mejor blindaje posible. Por ello se instaló el detector bajo tierra: los casi 400m de roca que hay por encima del laboratorio de Sierra Grande reducen los efectos de la radiación cósmica de muones a la diez milésima parte. Además, se lo rodeó con plomo, el material inerte más pesado que existe, para que absorba la radiación emitida por los materiales que lo rodean. Se utilizaron 16 toneladas de plomo, de las cuales dos, las más cercanas al detector, tienen propiedades especiales, pues carecen de un isótopo contaminante, el 210Pb. También se lo rodeó con bloques de parafina y láminas de cadmio, para frenar y absorber neutrones, respectivamente. El mismo detector se fabricó en una estación subterránea, en condiciones de cuidada limpieza, para minimizar su contaminación, si bien al trasladarlo de una estación subterránea a la otra resultó algo contaminado por la radiación cósmica.
Un segundo paso para identificar los fenómenos buscados es determinar su señal característica. En el experimento de Sierra Grande, la primera idea explorada apuntó a uno de los posibles tipos de materia oscura, los WIMPs (Weakly Interacting Massive Particles). Los científicos especulan con que, por trasladarse la Tierra a través de la vía láctea enfrentando a un 'viento' de materia oscura, su rotación cada 24 horas debe causar diferencias en los eventos registrados por el detector. En ciertos puntos de la superficie terrestre se atenuaría parcialmente ese viento, porque la propia Tierra se interpondría entre el detector y la materia oscura. Tal efecto día-noche no se aplica a las otras dos fuentes mencionadas, que siempre actúan igual. Al anular eventos semejantes ocurridos con una separación de doce horas, los causados por las últimas fuentes deberían desaparecer y sólo quedarían los de la primera.
osc0.jpg  (16340 bytes)
EL LABORATORIO SUBTERRÁNEO
DE SIERRA GRANDE
Otra idea, válida para otro tipo de materia oscura (los axiones), es verificar si, dada la estructura monocristalina del detector, se producen procesos de difracción parecidos a los que los rayos X hacen sobre cristales, que serían característicos de estas últimas partículas. Los grupos que llevan a cabo la investigación trabajan activamente sobre ambas ideas. Como el número registrado de eventos del tipo que interesa es bajo, se requiere esperar mucho para obtener los datos que permitan confirmar o excluir la presencia de la clase de materia oscura buscada. A casi tres años de iniciado el experimento, los primeros datos obtenidos están siendo cuidadosamente analizados en momentos de publicarse esta nota.

Entre los candidatos propuestos, el preferido por muchos es la partícula supersimétrica de menor masa, denominada neutralino, una mezcla de las partículas supersimétricas asociadas con el fotón y el mesón de Higgs (para la mecánica cuántica, una partícula puede consistir en una mezcla de otras). El neutralino tiene una razón de ser teórica en el modelo de supercuerdas; cumple, además, con ciertos requisitos que se explicarán en seguida.

La lógica que permite postular la abundancia de materia oscura parte del hecho de que, apenas originado el universo, todas las especies de materia y de radiación habrían estado en un equilibrio fijado por las leyes de la mecánica estadística para un universo en continua expansión. Dicho equilibrio habría implicado que la materia se aniquilara y se creara en cantidades dependientes de las interacciones de las diferentes especies de ella, y de la probabilidad de encontrarse unas con otras. Al continuar la expansión del universo, habría llegado un momento en que las partículas ya no se habrían encontrado. La densidad residual habría quedado congelada (tal período se denomina, en jerga, el freeze out) en un valor que se puede calcular con relativa certeza. Como las secciones de choque de partículas dependen enormemente de las masas, en este proceso quedaron fijadas, entre otras cosas, las posibles masas de los neutrinos, así como la de cualquier otro potencial candidato a constituir la materia oscura. Si alguno de los posibles existiera, su contribución a la densidad de materia oscura vendría determinada por su masa.
Lo atractivo de los neutralinos es que, dados los límites actuales pueden tener una masa tal que contribuyen lo necesario para hacer que el valor de W sea igual a la unidad. Los cálculos teóricos indican que esa masa sería del orden de cien a quinientas veces la del protón, lo cual, por otra parte, es compatible con los límites de la masa mínima. De esta manera, la física de partículas elementales haría una predicción que, al mismo tiempo, satisfaría los requerimientos del mejor modelo disponible, hasta ahora, de la evolución universal.
¿Cómo encontrar a los neutralinos, esas partículas tan abundantes pero, a la vez, tan escasas? Se han propuesto tres métodos complementarios:
  • (i) su detección directa,
  • (ii) la observación de líneas espectrales con satélites y,
  • (iii) la detección de los neutrinos provenientes del Sol, donde se han acumulado neutralinos.
El primer método es simple pero difícil de poner en práctica, por varias razones. Debido a su masa, si un neutralino choca con un protón en el laboratorio, el segundo recibe un impulso de algunos miles de eV, pero:
  • (a) se mueve poco como consecuencia de la colisión,
  • (b) en un kilogramo de material, una reacción de ese tipo ocurre un par de veces por día y,
  • (c) hay que poder distinguirla de muchos otros fenómenos con los que se puede confundir. Sin embargo, después de una década de desarrollo de tecnología de superconductividad, se espera que en un futuro cercano los experimentos necesarios para hacerlo puedan ser viables.
El segundo camino para dar con los neutralinos, ideado en Suecia, confía en poder detectar dos neutralinos que se aniquilan mutuamente en el halo de la galaxia. Como resultado se producirían rayos gamma monocromáticos de alta energía. Para registrar su presencia, se necesitaría trabajar con un satélite, pues la atmósfera terrestre absorbe tal radiación. El experimento ha sufrido demoras debido al costo de los satélites, pero constituye una opción posible.
El tercer método explica el título de este artículo. Se basa en que los neutralinos se desacoplaron del resto de las otras especies que formaron el magma inicial en una época muy temprana. Medida en términos de la temperatura actual del universo, que es de 10-5eV (o 2,73 Kelvin, es decir 270ºC bajo cero), ese desacoplamiento ocurrió a una temperatura del orden de 109eV, o sea, cuando en promedio el universo estaba cien billones de veces más caliente que hoy. Desde entonces los neutralinos se desplazan al azar por el universo. Cuando se formó el sistema solar, a temperaturas del orden de centésimos de eV, algunos chocaron con acumulaciones de materia y perdieron velocidad en grado suficiente como para quedar atrapados en el sistema solar, en particular, en los centros del Sol y de la Tierra. La densidad que se estableció en la Tierra es pequeña, pero el ángulo sólido visto desde la superficie del planeta es grande, y todos los que quieran escapar deben cruzar dicha superficie; en cambio, en el Sol ocurre lo opuesto: el volumen es mucho más grande pero el ángulo sólido subtendido por la Tierra es muy pequeño, de modo que muchos escapan sin siquiera rozar la superficie de nuestro planeta. El número de eventos es calculable: dos neutralinos se aniquilarán y producirán quarks, los cuales se desintegrarán en procesos sucesivos y emitirán, finalmente, un neutrino que, en promedio, llevará un tercio de la energía del neutralino. Estos neutrinos de alta energía interactúan muy débilmente con la materia y escapan del Sol; llegan a la Tierra con energías de decenas de Gev (1GeV=109eV). La Tierra, a su vez, no impide que esos neutrinos la atraviesen, pero uno en millones produce una interacción que, entre otras cosas, origina un mesón m, una partícula con carga eléctrica. Cuando tienen energía del orden de 108eV, los mesones m atraviesan varios kilómetros de roca antes de parar. Si se cuenta con un dispositivo que los pueda detectar, hay gran probabilidad de que lo pueda hacer si la conversión del neutrino a muón se produjo en un radio de varios kilómetros en torno al detector. El electrón, por contraste, sólo se propagaría un metro. La enorme capacidad de sobrevivir del muon hace que el volumen efectivo del detector deba ser enorme y compense la escasez de eventos.
Conociendo la masa de los neutralinos y postulando que son la materia oscura y que W es aproximadamente uno, se puede concluir que en un volumen de un kilómetro cúbico se producirían unos cientos de dichas interacciones por año. A primera vista, esta parece una técnica menos eficaz que la detección directa, pero ello no es así porque los neutrinos en cuestión tienen energías del orden de los 108eV, lo que facilita su identificación, ya que la perturbación que pueden causar otras partículas de esa energía en el detector, o ruido de fondo, es muy pequeña. Además, la direccionalidad de sus trayectorias, debido a que deben venir del Sol o del centro de la Tierra, ayuda a reducir aún más ese ruido de fondo. Lo esencial para descubrirlos es encontrar un detector que permita identificar el pasaje y la dirección del muón. Como este tiene carga eléctrica y se desplaza a muy alta velocidad, se trata de advertir la onda de choque de radiación que se produce cuando se propaga por un medio con velocidad mayor que la de la luz en dicho medio. Esta onda de choque recibe el nombre de radiación de Cerenkov.


osc1.jpg  (23374 bytes)
FIG 1 : ESQUEMA DEL DETECTOR AMANDA. CADA FOTOMULTIPLICADOR ESTÁ CONTENIDO EN UNA ESFERA (OPTICAL MODULE) PARA SOBREVIVIR A LA ALTA PRESIÓN.
Para que pueda ser registrada se deben cumplir algunos requisitos. Uno es que los fotones (es decir, la luz) se propaguen por lo menos unas decenas de metros, ya que si ello no sucediera, debido al precio de cada detector, que asciende a mil dólares, el costo de cubrir un kilómetro cúbico con suficientes detectores haría inviable el proyecto. Otro requisito es que los fotones no se desvíen de su trayectoria debido a interacciones en el medio. Tal requisito es necesario para establecer la trayectoria original del muón midiendo los tiempos de arribo de los fotones a, digamos, una decena de detectores. El muón se desplaza prácticamente en la misma dirección que el neutrino del que se originó: si se sabe que provino del centro de la Tierra o del Sol, se hace más sencillo eliminar gran parte del ruido de fondo, cosa importante porque se piensa que, por cada muón proveniente del Sol, arriban a la atmósfera unos cien mil procedentes de los rayos cósmicos. No es fácil de obtener tal poder de discriminación, pero es posible. Como no se conoce fenómeno físico capaz de producir neutrinos con energías próximas a los 108eV, ya sea en el centro del Sol o en el de la Tierra, la señal debe provenir, necesariamente, de la materia oscura.

Si bien puede haber otros lugares en los que es posible hacer el experimento, como el fondo del océano, se ha concluido que el más apropiado es el polo sur, donde un grupo de treinta investigadores de las universidades norteamericanas de California y Wisconsin, de dos suecas –Uppsala y Estocolmo– (en las que se desempeñan tres argentinos) y del laboratorio alemán DESY (Deutsche Elektron Synchrotron) está construyendo un detector como el de la figura 1. El aparato lleva el nombre Antartic Muon and Neutrino Detector Array (AMANDA). El hielo antártico data de hace cincuenta mil años y, a una profundidad de 1400 metros de la superficie, está formado por pequeños cristales; por encima es nieve, que contiene burbujas de aire, pues en la composición de esta hay 6% de dicho fluido. Al irse depositando más nieve, la presión sobre las capas inferiores da lugar a una reacción química por la que las mencionadas burbujas desaparecen y se producen clateritas, compuestos que, hasta una parte en mil, tienen el mismo índice de refracción que el hielo. Por otro lado, el hielo no contiene potasio radiactivo, presente en el mar, lo que evita señales falsas. Entre las profundidades de 1400m y 2000m, el medio es ideal; más abajo, y hasta su profundidad máxima de 3km, el hielo se desplaza por efecto de la presión y, por lo tanto, no es estable para sostener el detector. Debido a tales deslizamientos, las capas inferiores de hielo van desapareciendo continuamente en el océano. Por ello, la edad máxima de los 3000m de hielo es 50.000 años.
Los detectores de luz, o tubos fotomultiplicadores, se colocan cada diez metros en cuerdas que los sostienen; se ubican a partir de una profundidad de 1800m y hasta los 2000m. Están conectados con la superficie por un cable de alto voltaje, que transmite las señales del arribo de los fotones. Las cuerdas, a su vez, se disponen en puntos que, sobre la superficie del hielo, forman los vértices de un hexágono de 30m de lado. El cable actualmente instalado, de dos kilómetros de largo (Fig. 2), llega al polo enrollado en carreteles. Para hacerlo descender con los detectores es necesario realizar una perforación en el hielo, que lleva tres días y requiere 40.000 litros de combustible para alimentar una caldera en la que se calienta agua. Se bajan los fotomultiplicadores con cierta celeridad, para evitar que se congele la cuerda mientras descienden, y luego se espera que se vuelva a formar hielo en la perforación. Los detectores, en una escafandra especial, se hallan a una presión de 500 atmósferas. Han resistido bien y algunos están en uso desde hace dos años, lo que prueba que el sistema funciona.


osc2.jpg  (18062 bytes)
FIG 2 : DETECTOR DE NEUTRINOS EN EL POLO SUR.
El calibrado de los detectores –que consiste en enviarles una señal conocida para fijar la escala– se realiza mediante luz emitida por un láser, lo cual permite, también, determinar exactamente la posición de cada tubo. Los chubascos de rayos cósmicos que atraviesan el detector permiten, igualmente, calibrar los aparatos. A la profundidad en que estos están colocados actualmente, la calidad de sus medidas resulta excelente. En 1999 quedará instalado el número necesario de detectores para controlar un volumen de un kilómetro cúbico, pero en el momento de aparecer esta nota las instalaciones del polo sur ya constituyen el telescopio de neutrinos de alta energía más grande del mundo.
Si el componente de la materia fuese el neutralino y este –formado por una mezcla de partículas– fuese, principalmente, el compañero supersimétrico del fotón, sería fácilmente detectado por AMANDA; si, en cambio, fuese sobre todo compañero del mesón de Higgs, cuya composición no se puede predecir, la medición directa posiblemente tuviese mejor probabilidad de advertirlo. El detector polar podrá estudiar, además, otros objetos astronómicos, en particular, explorar si existen otras fuentes de neutrinos en el universo. Los núcleos galácticos activos, por ejemplo, podrían ser una de esas fuentes; se cree que producen neutrinos con energías del orden de 1015eV.
Nos podemos imaginar al detector instalado en el polo sur como unos ojos constantemente avizores que, a cuarenta grados Celsius bajo cero, miran con frialdad al universo, en la calma de las profundidades congeladas de la Antártida. Con la sutileza de sus percepciones, nos podrán hacer saber si, en última instancia, los neutralinos son el ingrediente fundamental del cosmos. Este es parte de una constelación de esfuerzos para medir, en los próximos años, los parámetros básicos de universo, cuánta materia es visible y cuánta oscura, descubrir las propiedades del universo en su juventud y determinar si existe una constante cosmológica. La base teórica de esta actividad es compleja; científicos de todo el mundo participan del esfuerzo, incluyendo equipos de la Comisión Nacional de Energía Atómica y de las universidades de Buenos Aires y La Plata. En este conjunto de actividades se pone una vez más de manifiesto que la realidad física resulta muy distinta del mundo de los sentidos. Lo extraordinario es que podamos trascender las apariencias y concebir de otra manera las cosas.
http://www.cienciahoy.org.ar/hoy39/cielo.htm
Héctor A. Chacón C.

Equilibrio térmico




Se dice que los cuerpos en contacto térmico se encuentran en equilibrio térmico cuando no existe flujo de calor de uno hacia el otro. Esta definición requiere además que las propiedades físicas del sistema, que varían con la temperatura, no cambien con el tiempo. Algunas propiedades físicas que varían con la temperatura son el volumen, la densidad y la presión.
El parámetro termodinámico que caracteriza el equilibrio térmico es la temperatura. Cuando dos cuerpos se encuentran en equilibrio térmico, entonces estos cuerpos tienen la misma temperatura.
En realidad, el concepto de equilibrio térmico desde el punto de vista de la Termodinámica requiere una definición más detallada que se presenta a continuación.

AdTech Ad

Tabla de contenidos


Definición termodinámica del equilibrio térmico

Para poder dar una definición más precisa del concepto de equilibrio térmico desde un punto de vista termodinámico es necesario definir algunos conceptos.
Dos sistemas que están en contacto mecánico directo o separados mediante una superficie que permite la transferencia de calor lo q se conoce como superficie diatérmica, se dice que están en contacto térmico.
Consideremos entonces dos sistemas en contacto térmico, dispuestos de tal forma que no puedan mezclarse o reaccionar químicamente. Consideremos además que estos sistemas están colocados en el interior de un recinto donde no es posible que intercambien calor con el exterior ni existan acciones desde el exterior capaces de ejercer trabajo sobre ellos. La experiencia indica que al cabo de un tiempo estos sistemas alcanzan un estado de equilibrio termodinámico que se denominará estado de equilibrio térmico recíproco o simplemente de equilibrio térmico.
El concepto de equilibrio térmico puede extenderse para hablar de un sistema o cuerpo en equilibrio térmico. Cuando dos porciones cualesquiera de un sistema se encuentran en equilibrio térmico se dice que el sistema mismo está en equilibrio térmico o que es térmicamente homogéneo. Experimentalmente se encuentra que, en un sistema en equilibrio térmico, la temperatura en cualquier punto del cuerpo es la misma.

Interpretación microscópica del equilibrio térmico

La Termodinámica proporciona una descripción macroscópica de los sistemas que estudia, sin hacer hipótesis acerca de la estructura microscópica de esos sistemas. Sin embargo, existen otras disciplinas, como la Mecánica Estadística, que estudian los mismos fenómenos que la Termodinámica, pero desde un enfoque microscópico.
En particular, el concepto de equilibrio térmico esá ligado al concepto de temperatura al decir que dos sistemas en equilibrio térmico tienen la misma temperatura. Desde un punto de vista microscópico, la temperatura esta asociada a la energía cinética promedio que tienen las partículas que constituyen el sistema, a saber, átomos, moléculas y/o la estructura electrónica de la sustancia que constituye el sistema. Macroscópicamente, esta energía cinética promedio de las partículas de un sistema es lo que en la Termodinámica se llama energía interna, que es una energía que depende casi exclusivamente de la temperatura del sistema. A mayor energía cinética promedio de las partículas que constituyen un sistema, mayor energía interna y, en general, mayor temperatura del sistema.
La situación de dos sistemas en contacto térmico se interpreta microscópicamente como que las partículas de la superficie de interfase de ambos sistemas son capaces de interactuar entre sí. Básicamente se puede ver que, microscópicamente, las partículas del sistema de mayor temperatura (que tienen mayor energía cinética) van a transferir parte de su energía a las partículas del otro sistema. Se encuentra que esta interacción entre los dos sistemas da lugar a que las partículas de los dos sistemas alcancen la misma energía cinética promedio y, por lo tanto, la misma temperatura. Es decir, desde un punto de vista microscópico, se entiende como equilibrio térmico entre dos sistemas que las partículas de los dos sistemas tengan la misma energía cinética promedio.
Desde un punto de vista macroscópico, se dice que los sistemas un estado de equilibrio, bajo las condiciones indicadas en la sección definición termodinámica del equilibrio térmico. En cambio, desde un punto de vista microscópico, el estado de equilibrio se refiere al promedio, ya que los dos sistemas continúan intercambiando energía incluso una vez alcanzado el equilibrio térmico. Sin embargo, la energía cinética individual de una partícula no es estacionaria, sino que es el promedio de la distribución de energías de todas las partículas del sistema lo que no cambia en el tiempo.
De igual manera que para el caso macroscópico, se puede extender el concepto de equilibrio térmico a un único sistema donde, en esa situación de equilibrio, las partículas de dos partes cualesquiera del sistema tienen la misma energía cinética promedio.

Ley Cero de la Termodinámica

El concepto de equilibrio térmico es la base de la llamada Ley Cero de la Termodinámica. Esta ley proposición fue enunciada por R. H. Fowler en 1931. La ley cero de la termodinámica se enuncia diciendo:
La experiencia indica que si dos sistemas A y B se encuentran, cada uno por separado, en equilibrio térmico con un tercer sistema, que llamaremos C, entonces A y B se encuentran en equilibrio térmico entre sí.

Aplicación del concepto de equilibrio térmico: Termometría

 
Para saber la temperatura de una sustancia o cuerpo, se utiliza un dispositivo que permite determinar su propia temperatura. Tal dispositivo se denomina termómetro. Para determinar la temperatura de un cuerpo, se pone un termómetro en contacto térmico con él hasta que ambos alcanzan el equilibrio térmico. Sabemos que en el equilibrio térmico tanto el cuerpo como el termómetro se encuentran a la misma temperatura. Por tanto, la temperatura que indique el termómetro será también la temperatura del cuerpo en cuestión. Se recalca que, lo que un termómetro indica es su propia temperatura, por esto es importante conocer el concepto de equilibrio térmico.


http://www.quimica.es/enciclopedia/es/Equilibrio_t%C3%A9rmico/
Héctor A. Chacón C.

Supervidrio/vidrio con fricción cero?



Algunos átomos en un sólido similar al vidrio podrían fluir con una fricción cero Se conoce como supervidrio, súper en el mismo sentido que los superconductores y los superfluidos, lo cual es como decir que tienen escondida cierta extrañeza cuántica. Imagina un fluido que fluye tanto perfectamente como nada en absoluto.


El vidrio es un material duro, frágil, transparente y amorfo que se usa para hacer ventanas, lentes, botellas y una gran variedad de productos.
El vidrio se obtiene por fusión a unos 1.500 ºC de arena de sílice (SiO2), carbonato sódico (Na2CO3) y caliza (CaCO3).
El sustantivo "cristal" es utilizado muy frecuentemente como sinónimo de vidrio, aunque es incorrecto debido a que el vidrio es un sólido amorfo y no un cristal propiamente dicho. Es un material inorgánico y tiene varios tipos de vidrio.
Imagina un fluido que fluye tanto perfectamente como nada en absoluto. Un maestro Zen podría proponer tal acertijo, pero en una nueva prueba teórica, los físicos han demostrado que tal estado paradójico de la materia puede existir en realidad.
Se conoce como supervidrio , súper en el mismo sentido que los superconductores y los superfluidos, lo cual es como decir que tienen escondida cierta extrañeza cuántica.

Un supervidrio parecería un sólido vidrioso normal. Como un vidrio común, los átomos en un supervidrio se ordenarían de forma aleatoria en lugar de en una red cristalina debido a que un vidrio es esencialmente un líquido que ha dejado de fluir.
Pero toma un trozo de supervidrio y gíralo, y alguna porción de sus átomos no rotarán. En lugar de esto, los átomos fluyen a través del sólido giratorio con fricción cero, como en un superfluido. Y debido a que no existe fricción, el resto de átomos en el sólido no pueden arrastrar estos escurridizos átomos  justo de la misma forma que un superfluido en un recipiente giratorio, desde el punto de vista de un observador, se mantendrá perfectamente quieto en lugar de girar con la copa.
Aunque la existencia de supervidrios no ha sido demostrada de forma concluyente en el laboratorio, una investigación de la que se informa en el ejemplar del 8 de diciembre de Physical Review B demuestra que las leyes de la física permiten este exótico estado de la materia a temperaturas cercanas al cero absoluto, o -273º Celsius.
En realidad es un poco paradójico que normalmente pienses en un vidrio como un fluido que no fluye, pero un supervidrio se comporte también como un superfluido", dice Claudio Chamon, teórico de materia condensada en la Universidad de Boston y coautor del estudio. El fenómeno es "sólo mecánico cuántico  no sucede en el sistema clásico", en el cual los átomos se piensa que imaginan actuando como diminutas bolas de billar.
Los físicos aún no comprenden completamente cómo algunos de los átomos de un supervidrio serían capaces de moverse con fricción cero. Chamon dice que el fenómeno podría estar relacionado con el hecho de que, cuando los átomos se enfrían cerca del cero absoluto, comienzan a actuar menos como partículas y más como ondas mecánico cuánticas. Cuando los átomos similares a ondas se enfrían, se "difuminan" y comienzan a solaparse entre sí. Finalmente, algunos de estos átomos del supervidrio se difuminan tanto que pueden fácilmente intercambiar sus lugares con los átomos vecinos, permitiéndoles moverse a través del sólido sin impedimento.
"Depende del hecho de que son idénticos, por lo que pueden ocupar el mismo estado mecánico cuántico", dice Chamon. Por esta razón, sólo los átomos que contienen un número par de partículas subatómicas pueden formar un supervidrio. Tales átomos son conocidos como bosones, y al contrario que los átomos con un número impar de partículas subatómicas, los bosones vecinos pueden asumir el mismo estado mecánico cuántico, haciéndose de esta forma completamente indistinguibles unos de otros.
"Es realmente importante demostrar teóricamente que un estado de vidrio superfluido puede ser estable", comenta Boris Svistunov, teórico de materia condensada en la Universidad de Massachusetts en Amherst. En 2006, Svistunov y sus colegas descubrieron la fase de supervidrio en una simulación por ordenador de helio-4 sólido. Pero estas simulaciones no pudieron demostrar si el nuevo estado de la materia era estable, o si duraría más de una fracción de segundo.
Con la nueva prueba, Chamon y sus colegas "básicamente demuestran por primera vez que existe un modelo en el cual el estado de supervidrio se garantiza que es estable", dice Svistunov.
sciencenews.org

http://www.joltivan.com/noticia9888-supervidrio-vidrio-con-friccion-cero.html

Héctor A. Chacón C.