sábado, 27 de agosto de 2016

La descuantización de la carga permite observar los instantones de Korshunov

Dibujo20160804 nanodevice to investigate charge quantization 536038a-f1

La carga eléctrica de los átomos está cuantizada en unidades de la carga del electrón. En 1909 lo demostró Robert Millikan con su famoso experimento de la gota de aceite. La física cuántica predice que la cuantización de carga se puede destruir mediante fluctuaciones cuánticas (descuantización). Lo demuestra un experimento con un nanodispositivo que controla estas fluctuaciones y observa en detalle cómo se produce la descuantización de la carga almacenada. Se puede interpretar el resultado como la primera observación de los instantones de Korshunov.
En lugar de una gota de aceite de Millikan, el nuevo experimento usa una nanoestructura, una isla metálica conductora que almacena una unidad de carga eléctrica. La isla está en contacto con un baño térmico a 17 mK que induce fluctuaciones cuánticas. La cuantización de la carga se observa gracias a las llamadas oscilaciones de Coulomb en la nanoestructura. Las fluctuaciones cuánticas reducen la amplitud de estas oscilaciones de Coulomb de forma gradual hasta llegar a cero, lo que implica que la cuantización de la carga disminuye hasta llegar a cero.
El artículo es S. Jezouin, Z. Iftikhar, …, F. Pierre, “Controlling charge quantization with quantum fluctuations,” Nature 536: 58–62 (04 Aug 2016), doi: 10.1038/nature19072. Más información en Yuli V. Nazarov, “Quantum physics: Destruction of discrete charge,” Nature 536: 38–39 (04 Aug 2016), doi: 10.1038/536038a.
Dibujo20160804 Tunable quantum connection to a metallic island nature19072-f1
La relación de indeterminación de Heisenberg entre posición y momento lineal nos dice que una medida precisa de la posición requiere una medida muy imprecisa del momento lineal debido a fluctuaciones cuánticas imposibles de evitar. De la misma manera están conectados la carga eléctrica y el flujo magnético en nanoestructuras superconductoras. Si las fluctuaciones cuánticas incrementan la incertidumbre en la cuantización de la carga eléctrica, la reducen en la cuantización del flujo magnético.
En un metal, que no esté en un estado superconductor, el flujo de carga es continuo, no está cuantizado. Sin embargo, hay una excepción. En 1987, el físico Sergey Korshunov descubrió que unas soluciones matemáticas de tipo solitón llamadas instantones podían cuantizar el flujo de carga en un metal. Los instantones pueden transferir dos cuantos de flujo entre sendos estados de flujo no cuantizados. Estos dos cuantos de flujo se comportan como un levitón, una cuasipartícula que fue observada en el año 2013 (LCMF;LCMF). Los levitones son excitaciones de los electrones en el metal cuyo estado fundamental, su vacío sin levitones, es un sistema de instantones de Korshunov. Para observar estos instantones (y confirmar su existencia, aunque no se observen de forma individual) se puede usar la cuantización de la carga vía las oscilaciones de Coulomb (Vds versus Vsw).
Dibujo20160816 Tunable quantum connection to a metallic island nature com
El experimento usa un transistor de electrón único (SET) tipo híbrido metal-semiconductor; en concreto, una isla metálica de una aleación AuGeNi. La isla se rodea de un baño térmico (Q) que será responsable de las fluctuaciones cuánticas. A una temperatura de T ≈ 17 mK, el baño está implementado con un gas de electrones bidimensional de alta movilidad de Ga(Al)As (con una profundidad de 105 nm).
El sistema se somete a un campo magnético transversal de gran intensidad, B ≈ 4 T, que produce un efecto Hall cuántico entero con factor de llenado ν = 2. En este régimen, la cuantización de la carga se observa en la isla central gracias a las oscilaciones periódicas en el SET. Para controlarlas sin perturbar la isla hay que usar el efecto túnel cuántico, por ello se usan como electrodos dos contactos tipo túnel, τR y τL (a la derecha y a la izquierda en la figura). La conductancia en la nanoestructura sigue un comportamiento oscilatorio (véase en la figura abajo-izquierda para Vds respecto a Vsw), las oscilaciones de Coulomb. La teoría de Korshunov predice la ley de escala para estas oscilaciones en función de los instantones en el estado fundamental del sistema.
Dibujo20160816 coulomb oscillations in metallic island nature com
Esta figura muestra las oscilaciones de Coulomb para τL = 0,24 variando τR = 0,1, 0,6, 0,88, 0,98 y 1,5. Entre τR = 0,1 y τR = 0,6 se observan que las oscilaciones crecen, para decrecer entre τR = 0,6 y τR = 0,98. Para τR > 1, las oscilaciones desaparecen por completo.
Dibujo20160804 Charge quantization versus connection strength nature19072-f2
Esta figura muestra la cuantización de la carga ΔQ en función de τR a la temperatura T ≈ 17 mK, para diferentes valores de τL < 1. Para τR ≲ 0,6 se observa la cuantización en un valor casi constante para ΔQ. Para valores mayores de τR < 1, dicha cuantización se va reduciendo de forma gradual, hasta alcanzar cero para τR ≥ 1. Esta curva se puede modelar de forma teórica usando instantones de Korshunov.
En resumen, se han observado efectos no perturbativos (instantones) en un gas de electrones en interacción fuerte. La observación de muchos instantones de Korshunov es el primer paso para su observación individual. Cuando se logre en un futuro no muy lejano podremos pensar en desarrollar mecanismos para su control y uso en aplicaciones prácticas. En especial, las cuasipartículas de electrones de carga fraccionaria (no cuantizada) se comportan como aniones, que en teoría permiten realizar computación cuántica topológica, mucho más robusta que la convencional.

La habitabilidad del planeta Próxima b

Dibujo20160825 artist recreation proxima b ESO M  Kornmesser eso1629j

La habitabilidad del planeta rocoso de tamaño terrestre más cercano, Próxima Centauri b, ya ha sido estudiada por varios artículos que se han publicado hoy mismo en arXiv. De hecho, los propios autores del artículo publicado ayer en Nature afirman en tres artículos que se trata de un candidato viable a planeta habitable y que lo ha sido durante miles de millones de años. Quizás son muy optimistas, pues otros dos artículos no lo son tanto, aunque tampoco se les puede calificar de pesimistas.
Por supuesto, estudiar la posible atmósfera de Próxima b debe ser un prioridad en los próximos años. El telescopio europeo extremadamente grande (E-ELT) de la ESO quizás podría observar directamente este nuevo planeta y realizar un análisis espectroscópico de alta resolución de su atmósfera. Así se podrían buscar señales de O2, H2O, CO2, y CH4. Gracias a ello se podrían evaluar con mayor confianza los escenarios posibles para su habitabilidad presente y pasada. Sin lugar a dudas, el estudio de Próxima b en los próximos años conducirá a resultados apasionantes.
Los tres artículos optimistas sobre la habitabilidad de Próxima b son: Ignasi Ribas, Emeline Bolmont, …, Guillem Anglada-Escude, “The habitability of Proxima Centauri b. I. Irradiation, rotation and volatile inventory from formation to the present,”arXiv:1608.06813 [astro-ph.EP]; Martin Turbet, Jeremy Leconte, …, Guillem Anglada-Escudé, “The habitability of Proxima Centauri b II. Possible climates and Observability,”arXiv:1608.06827 [astro-ph.EP]; y Gavin A. L. Coleman, Richard P. Nelson, …, Guillem Anglada-Escude, “Exploring plausible formation scenarios for the planet candidate orbiting Proxima Centauri,” arXiv:1608.06908 [astro-ph.EP].
Otros dos artículos que no son tan optimistas son Rory Barnes, Russell Deitrick, …, Eddie Schwieterman, “The Habitability of Proxima Centauri b I: Evolutionary Scenarios,”arXiv:1608.06919 [astro-ph.EP]; y James R. A. Davenport, David M. Kipping, …, Chris Cameron, “MOST Observations of our Nearest Neighbor: Flares on Proxima Centauri,”arXiv:1608.06672 [astro-ph.SR].
[PS 27 Ago 2016] Recomiendo encarecidamente el estupendo artículo de Daniel Marín, “Un punto rojo pálido: a vueltas con la habitabilidad de Próxima b,” Eureka, 27 Ago 2016.
Dibujo20160825 All of the data sets phase-folded at the 11 day signal planet proxima centauri nature19106-f2
Lo primero, el nuevo planeta que orbita la estrella Próxima Centauri es un candidato a planeta, mientras no sea confirmado de forma independiente. Así funciona la ciencia. Aunque se publique en Nature a bombo y platillo, no debemos afirmar a la ligera que se trata de un planeta sin que haya sido confirmado. En el año 2012 se publicó en Nature el descubrimiento de un planeta con una masa terrestre orbitando la estrella Alpha Centauri B (que junto a Próxima Centauri y Alpha Centauri A forman un sistema estelar triple). Como ya sabrás, no fue confirmado y hoy está descartado. El candidato a planeta, que los medios vendieron como planeta, al final fue una falsa alarma. Ya te conté mis dudas en su momento en “Un granito de sal sobre el exoplaneta más cercano a la Tierra que orbita la estrella Alfa Centauri B,” LCMF, 17 Oct 2012, y en “Más información sobre la órbita del exoplaneta Alfa Centauri B b, el más cercano a la Tierra,” LCMF, 19 Oct 2012.
Dibujo20160825 Phase-folded radial-velocity curve with a period of 3 days alpha centauri b planet nature11572-f5
Por si no lo recuerdas, el artículo era Xavier Dumusque, Francesco Pepe, …, Stéphane Udry, “An Earth-mass planet orbiting α Centauri B,” Nature 491: 207–211 (08 Nov 2012), doi: 10.1038/nature11572; recomiendo también Artie P. Hatzes, “Astronomy: Meet our closest neighbour,” Nature 491: 200–201 (08 Nov 2012), doi: 10.1038/nature11636. El planeta que tenía una masa mínima de 1,13 ± 0,09 veces la masa de la Tierra, se descubrió por el método Doppler (o de la velocidad radial) con el espectrógrafo HARPS (High Accuracy Radial Velocity Planet Searcher) del telescopio ESO de 3,6 m en La Silla, Chile, el mismo que se ha usado ahora. Su periodo (año) de solo 3,236 días indicaba que se encontraba a 0,04 unidades astronómicas de su estrella, luego era demasiado caliente para estar en la zona habitable de su estrella. Además, cuando se anunció se hablaba de candidato a planeta, pues el método Doppler se consideraba poco fiable para la detección de un planeta de tamaño tan pequeño (similar al terrestre).
El (candidato a) planeta tipo terrestre alrededor de Alpha Centauri B, cuya confianza estadística se estimó en tres sigmas, no fue confirmado con un análisis independiente de los mismos datos de HARPS, ni por Artie P. Hatzes, “The radial velocity detection of earth-mass planets in the presence of activity noise: the case of α Centauri Bb,” The Astrophysical Journal 770: 133 (05 Jun 2013), doi: 10.1088/0004-637X/770/2/133, ni por V. Rajpaul, S. Aigrain, S. Roberts, “Ghost in the time series: no planet for Alpha Cen B,” Monthly Notices of the Royal Astronomical Society (MNRAS) 456: L6-L10 (11 Feb 2016), doi: 10.1093/mnrasl/slv164. Como resultado hoy en día se considera que dicho planeta no existe. El viento se llevó al candidato a planeta.
Dibujo20160825 Detection of a Doppler signal at 11 day proxima centauri nature19106-f1
Para minimizar las posibles dudas sobre el candidato a planeta alrededor de Proxima Centauri, los astrónomos han combinado dos métodos para su detección (y tres conjuntos de datos): 90 medidas HARPS anteriores a 2016 (HARPS pre-2016), 54 medidas HARPS obtenidas en 2016 por el proyecto Pale Red Dot entre el 19 de enero y el 31 de marzo (HARPS PRD), y 72 medidas UVES obtenidas entre 2000 y 2008 (Ultraviolet and Visual Echelle Spectrograph). Ambos instrumentos de ESO, HARPS y UVES, están instalados en sendos telescopios y sus datos han sido analizados por el mismo equipo de investigadores, lo que no evita el sesgo de confirmación, luego su análisis independiente me parece imprescindible. El artículo es Guillem Anglada-Escudé, Pedro J. Amado, …, Mathias Zechmeister, “A terrestrial planet candidate in a temperate orbit around Proxima Centauri,” Nature 536: 437–440 (25 Aug 2016), doi: 10.1038/nature19106.
Dibujo20160825 planet proxima centauri parameters nature table
Como indica esta tabla el periodo (año) del nuevo (candidato a) planeta es de 11,186 ± 0,002 días, con una órbita de semieje mayor a 0,048 ± 0,005 unidades astronómicas y una masa mínima de 1,27 ± 0,19 veces la terrestre. La relación entre masa y radio para un planeta rocoso indica que su radio será inferior a 1,2 veces el radio terrestre, lo que garantiza que no se trata de un planeta gaseoso (Li Zeng, Dimitar Sasselov, Stein Jacobsen, “Mass-Radius Relation for Rocky Planets based on PREM,” The Astrophysical Journal 819: 127 (Mar 2016), doi: 10.3847/0004-637X/819/2/127arXiv:1512.08827 [astro-ph.EP]). Muchos medios hablan de este planeta omitiendo estos detalles, quizás porque así lo ha hecho en esta ocasión Artie P. Hatzes, “Astronomy: Earth-like planet around Sun’s neighbour,” Nature 536: 408–409 (25 Aug 2016), doi: 10.1038/536408a. ¿Por qué ahora no tiene dudas sobre este planeta como ocurrió en 2012? Porque la confianza estadística bayesiana en contra de la hipótesis nula alcanza 21 millones (como ves en la tabla), es decir, unas 5,4 sigmas (la del planeta de 2012 rondaba las 3 sigmas). Sin embargo, repito, la confirmación independiente me parece imprescindible.
Dibujo20160825 Schematic diagrams climate regimes function CO2 atmospheric content synchronous spin state proxima b
No se conocen en detalle los parámetros orbitales, luego hay dos escenarios posibles. Una órbita casi circular en rotación síncrona 1:1, con lo que el planeta siempre ofrece la misma cara a su estrella, o una órbita excéntrica en rotación asíncrona 3:2. La posibilidad de la existencia de oceános o lagos de agua líquida depende del contenido de gases de efecto invernadero en su atmósfera y de la cantidad de agua que se pudo perder durante la evolución temprana del planeta. Esta figura presenta los escenarios posibles en el caso síncrono en función de la concentración de CO2 y del contenido actual de agua retenida. Hay una amplia región del espacio de parámetros en el que habría un océano de agua líquida en la superficie, pero también es posible que se trate de un planeta seco con pequeños lagos superficiales solo durante la noche.
Dibujo20160825 Schematic diagrams climate regimes function CO2 atmospheric content asynchronous state proxima b
Esta figura presenta los escenarios posibles en el caso asíncrono en función de la concentración de CO2 y del contenido actual de agua retenida. Hay una amplia región del espacio de parámetros en el que habría agua líquida en la superficie. Se observa que para un efecto invernadero pequeño (baja concentración de CO2) podría ser un mundo cubierto de nieve, quizás con océanos bajo la superficie, o un mundo similar a Marte, con agua sólo en los casquetes polares. Siendo optimistas es posible que tenga grandes océanos o un gran número de lagos con agua líquida en su superficie.
Dibujo20160825 Annual mean surface temperatures of completely dry atmospheres proxima b
Estas figuras muestran las temperaturas medias anuales para el caso de una atmósfera seca en función de la presión de CO2 (las de abajo corresponden a una atmósfera similar a la terrestre). Recuerda que 355 K son unos 82 ºC, que 265 K son −8 ºC y que 145 K son −128 ºC. Si Próxima b está en resonancia 1:1 su temperatura superficial sólo permitiría albergar vida en la cara que ofrece a su estrella. Pero si estuviera en resonancia 3:2 esta región se extendería a casi todo el planeta.
Guillem Anglada-Escudé y sus colegas realizan un análisis de gran número de escenarios posibles, y no quiero aburrirte con los detalles. Lo más importante es que afirman que Próxima b es habitable casi con toda seguridad. Por supuesto, todo depende de su contenido inicial de agua y de la cantidad que haya perdido durante su evolución en los últimos miles de millones de años. Todos los extremos son posibles, desde un planeta casi seco, hasta un mundo acuático similar a la Tierra.
Dibujo20160825 high-energy fluxes received proxima b
Un elemento clave en Próxima b es la irradiación de alta energía que recibe desde su estrella. Esta tabla muestra la estimación entre 0,6 y 170 nm, comparada con la que recibe la Tierra. La irradiación en rayos X promedio que recibe hoy en día Proxima b se estima en 250 veces la que recibe la Tierra; en el ultravioleta cercano (XUV) recibe 60 veces la terrestre y en el lejano (FUV) unas 10 veces más. Esta irradiación promedio está compuesta por un flujo constante y por eventos más intensos (llamaradas).
Más importante que la irradiación actual es su evolución en el pasado, desde que la estrella Próxima se formó hace unos 4800 millones de años. Se han considerado dos escenarios posibles, que la irradiación XUV en Proxima b fuera unas ~150 veces más fuerte que la terrestre durante sus primeros 3000 millones de años, cayendo luego hasta los valores actuales, o que el flujo haya sido constante en el tiempo, es decir, ~60 veces más fuerte que la Tierra de forma continua. En ambos casos puede haberse retenido una atmósfera y suficiente agua líquida en la superficie para permitir la evolución de la vida.
Dibujo20160825 multiple evolutionary pathways for the water on proxima b
Esta figura muestra múltiples escenarios para la evolución del contenido de agua y de oxígeno atmosférico en Próxima b en función de las condiciones iniciales, bajo la hipótesis de la superficie es ineficiente a la hora de captura el oxígeno. La zona azul correponde a la existencia de agua pero no oxígeno (planeta habitable ideal para el origen de la vida), la amarilla a la de agua y oxígeno (planeta habitable, pero cuyo contenido en oxígeno dificulta el origen de la vida), la rosada a oxígeno pero no agua (planeta inhabitable, pero cuya atmósfera mostraría rastros de oxígeno) y la gris a la ausencia de ambos (planeta seco e inhabitable).
Dibujo20160825 efficient oxygen sinks multiple evolutionary pathways for the water on proxima b
Para el origen de la vida lo ideal sería que hubiera mecanismos superficiales eficientes para la captura del oxígeno, como muestra esta figura. La clave de la vida en Próxima b es cómo fue su evolución temprana. Lo más razonable es que estaba fuera de la zona habitable de su estrella y entró en ella más tarde. Exactamente cuándo es clave para saber cuánta agua retuvo y si pudo retener una atmósfera.
En resumen, no te aburro más, si te interesa el tema te animo a leer los artículos de arXiv que cito más arriba. Sabemos tan poco sobre Próxima b que hay hueco para casi todos los escenarios posibles. Lo importante es que muchos de ellos permiten que la vida haya surgido en dicho planeta y que en la actualidad haya agua líquida en su superficie.
 Sin lugar a dudas Próxima b será un planeta que dará mucho que hablar en los próximos años.
http://francis.naukas.com/

Una galaxia ultradifusa con un 99,99% de materia oscura

Dibujo20160826 Deep Gemini image Dragonfly 44 Black circles compact objects brighter than the completeness limit ApJ Letters


Las galaxias ultradifusas están dominadas por la materia oscura, que constituye más del 98% de su masa. El proyecto Dragonfly ha observado unas 1000 galaxias ultradifusas en el cúmulo de Coma. El récord actual lo tiene Dragonfly 44, que contiene un 99,99% de materia oscura. Su masa (un billón de masas solares) y su diámetro (cien mil años luz) es similar a los de la Vía Láctea, pero tiene cien veces menos estrellas. El récord anterior, un 99,96% de materia oscura, publicado en marzo de este año, lo tenía la galaxia VCC 1287 en el cúmulo de Virgo.
El nuevo récord se ha publicado en Pieter van Dokkum, Roberto Abraham, …, Jielai Zhang, “A High Stellar Velocity Dispersion and ~100 Globular Clusters for the Ultra-Diffuse Galaxy Dragonfly 44,” The Astrophysical Journal Letters 828: L6 (25 Aug 2016), doi: 10.3847/2041-8205/828/1/L6arXiv:1606.06291 [astro-ph.GA]; el récord anterior en Michael A. Beasley, Aaron J. Romanowsky, …, Aaron L. Deich, “An Overmassive Dark Halo Around An Ultra-Diffuse Galaxy In The Virgo Cluster,” The Astrophysical Journal Letters 819: L20 (03 Mar 2016), doi: 10.3847/2041-8205/819/2/L20arXiv:1602.04002[astro-ph.GA].
Más información divulgativa sobre galaxias ultradifusas en español en Rafael Bachiller, “Galaxias ultradifusas dominadas por materia oscura,” Ciencia, El Mundo, 13 Julio 2015; y en este blog “Galaxias ultradifusas en el cúmulo de Coma con un 99% de su masa en forma de materia oscura,” LCMF, 01 Jul 2015.
http://francis.naukas.com/

viernes, 19 de agosto de 2016

Antimateria, el otro lado del espejo...


Varios años después de viajar al País de las Maravillas, el escritor inglés Lewis Carroll retomó el personaje de Alicia en el libro A través del espejo y lo que Alicia encontró al otro lado, escrito en 1871. La historia comienza con Alicia sentada en el sofá de su sala, meditando sobre lo que ella llama la casa del espejo. Por extraño que parezca, Alicia está convencida de que al otro lado del espejo que hay encima de la chimenea existe un mundo tan real como el de su sala, sólo que las cosas están dispuestas a la inversa. Los libros, por ejemplo, se parecen a los suyos, pero con las letras escritas al revés. El humo que sale de la chimenea es el mismo que el que sale del otro lado, aunque Alicia no puede ver si ahí también encienden el fuego en invierno.
Pero lo que más intriga a Alicia es lo que se intuye cuando ella deja abierta la puerta del salón. ¿Y si más allá de la puerta de la casa del espejo fuera completamente diferente? ¿Habría alguna forma de atravesar el espejo y comprobarlo?
De repente, una niebla empieza a rodear el espejo como si se estuviera disolviendo el cristal. Alicia se encarama a la chimenea y un instante después atraviesa el cristal sin saber muy bien cómo. ¡Alicia ha pasado al otro lado!
Entonces empieza a mirar atentamente a su alrededor y descubre que allí dentro, en la casa del espejo, todo es muy distinto…

La ecuación de Dirac
El principio del libro de Carroll enlaza a la perfección con nuestra historia, cuyo argumento hubiera asombrado al propio escritor. ¿Te imaginas que el Universo en el que vivimos se pareciera al salón y a la casa del espejo de Alicia?
Todo empezó a finales de la década de 1920. Por aquel entonces, los científicos sabían que el átomo está formado por electrones, partículas con carga negativa que giran alrededor de un minúsculo núcleo donde se concentran los protones, con carga positiva (el otro componente del núcleo, el neutrón, sin carga eléctrica, todavía no se había descubierto).
Sin embargo, no se había podido describir con exactitud el comportamiento de los electrones en el interior del átomo. El problema estaba en que las ecuaciones de la mecánica cuántica, que se encarga de los fenómenos subatómicos, se basaban en la mecánica de Newton. Ésta es muy útil en el caso de sistemas en los que las velocidades son mucho menores que la de la luz, como ocurre en nuestra vida cotidiana o con el movimiento de los cuerpos celestes. Pero no sirve para partículas como el electrón, que se mueven casi tan rápido como la luz. En tales casos hay que recurrir a la teoría especial de la relatividad de Einstein, que explica lo que sucede cuando los objetos se mueven a velocidades cercanas a las de la luz.
En 1928, el físico inglés Paul Dirac fue el primero en combinar la relatividad y la mecánica cuántica, y así llegó a una ecuación que describe con precisión al electrón. Pero había algo más. Igual que una ecuación simple como x2 = 4 tiene dos soluciones, x = 2 y x = -2, la ecuación de Dirac predice también la existencia de una partícula con las mismas propiedades que el electrón, pero con carga positiva: una antipartícula. Y no sólo debía existir una antipartícula para el electrón, sino también para el resto de partículas conocidas.
El descubrimiento en 1932 del positrón, la antipartícula del electrón, confirmó la teoría de Dirac y dejó la puerta abierta a una fascinante posibilidad. De la misma manera que las partículas ordinarias forman la materia que nos rodea, también sus correspondientes antipartículas podrían formar átomos de antimateria; es decir, positrones que dan vueltas alrededor de un núcleo compuesto por antiprotones y antineutrones. La antimateria sería el reflejo de la materia, como la casa del espejo lo era del salón de Alicia antes de atravesar el espejo.
La antimateria, ¿fuente de energía?
Cuando la antimateria entra en contacto con la materia se genera una enorme cantidad de energía, más que en cualquier otra reacción conocida en física. Para que te hagas una idea, la aniquilación materia-antimateria es 2 000 millones de veces más energética que la combustión de la gasolina y 100 veces más que la fisión nuclear (la energía de los reactores nucleares y las bombas atómicas). Bastaría un gramo de antihidrógeno para producir más energía que la bomba de Hiroshima.
Pero eso no significa que la antimateria sea una fuente de energía útil. El principal inconveniente es que la antimateria que existe en el Universo es muy escasa, así que lo primero que hay que hacer es fabricarla. Y resulta que éste es un proceso muy poco eficiente, porque se necesita crear millones de antiprotones y positrones para producir unos pocos átomos de antihidrógeno. En definitiva, la energía que se aporta para crear antimateria es mucho mayor que la que se obtiene después cuando se aniquila. Parece casi imposible que en el futuro vaya a existir, por ejemplo, un motor de antimateria como el que propulsa la nave espacial Enterprise de Star Trek.
Pero imagínate que nuestro propósito no es utilizar la antimateria como fuente de energía, sino para otros fines más dudosos. Como los terroristas de la novela Ángeles y demonios de Dan Brown, que roban antimateria del CERN (Organización Europea de Investigaciones Nucleares) con la intención de crear una devastadora bomba. Después de todo, un gramo de antimateria es muy poca cantidad, ¿no?
Supongamos que pudiésemos atrapar todos los antiprotones que se producen en el CERN y utilizarlos para formar antihidrógeno, algo impensable de momento. Eso nos daría unos 1 000 millones de átomos de antihidrógeno por segundo. O lo que es lo mismo, unos 30 000 billones (3 x 1016) al año. Parece mucho, pero es que si quieres formar un gramo de antihidrógeno se necesitan 6 x 1023 átomos de antihidrógeno. A ese ritmo serían necesarios millones de años para reunir un gramo, algo inviable por mucho que se perfeccionen las técnicas. En la realidad, los terroristas que quieran hacer armas de antimateria se las van a ver más difíciles que en la ficción. Así que podemos olvidarnos de la antimateria como fuente de energía o arma destructiva y centrarnos en el verdadero interés de los científicos, que es comprender las leyes que gobiernan la naturaleza.
El origen de la antimateria
Nuestro Universo está compuesto básicamente de materia ordinaria, así que ¿de dónde surgió la antimateria y por qué no la vemos a nuestro alrededor? Para responder a esta pregunta debemos retroceder en el tiempo más de 13 000 millones de años, cuando toda la energía del Universo estaba concentrada en un único punto minúsculo. En un momento incierto se produjo lo que hoy se llama Big Bang, una catastrófica explosión que inició la expansión del Universo. A medida que crecía, el Universo se fue enfriando y parte de la energía que se generó en el estallido comenzó a transformarse en partículas y antipartículas. Eso debió ocurrir cuando ni siquiera había transcurrido una billonésima de segundo desde el Big Bang.
Fue el único momento en que materia y antimateria coexistieron de forma natural. Cuando una partícula se encuentra con su antipartícula, las dos se aniquilan y se transforman en radiación. En principio, el Big Bang debería haber generado el mismo número de partículas y antipartículas, que se habrían destruido mutuamente hasta convertir el Universo en nada más que pura radiación. Podemos estar seguros que eso no ocurrió, porque en tal caso no estaríamos aquí para contarlo. Por algún motivo desconocido, el equilibrio entre materia y antimateria se decantó a favor de la materia. Se calcula que por cada 1 000 millones de antipartículas, se formaron 1 000 millones más una partículas. Es decir, por cada 1 000 millones de pares partícula-antipartícula que se aniquilaron, hubo una afortunada partícula que se salvó. La diferencia puede parecer insignificante, pero ahí empezó a formarse el Universo tal y como lo conocemos hoy: estas partículas supervivientes se unieron luego para formar los primeros átomos, que más tarde constituirían las primeras estrellas y galaxias.
Los científicos sospechan que la causa de este desequilibrio entre materia y antimateria es que ambas se comportan de distinta manera y que, por tanto, las leyes físicas para una y otra no son exactamente las mismas. Esto sería algo extraordinario, tan sorprendente como lo fue para Alicia descubrir que su salón y la casa del espejo eran diferentes.
¿Cómo comprobarlo? Una manera sería crear un átomo de antihidrógeno —que es el más simple de todos, formado por un antiprotón y un positrón—, estudiar sus propiedades físicas y luego comparar los resultados con los del átomo de hidrógeno, que conocemos tan bien.
Producción de antimateria
La producción de antipartículas como positrones y antiprotones se ha convertido en algo rutinario en los aceleradores de partículas. Pero juntar estas antipartículas y formar átomos de antimateria es mucho más difícil, ya que cualquier contacto con la materia ordinaria tiene desastrosas consecuencias. Los primeros intentos se remontan a principios de la década de 1990. El método consistía en hacer pasar un antiprotón muy veloz cerca de un núcleo atómico pesado, por ejemplo, xenón, lo que de tanto en tanto creaba un par electrón-positrón. En este hipotético caso, el antiprotón podía unirse con el positrón y formar un átomo de antihidrógeno, aunque esto era todavía menos frecuente que lo anterior. Fue un logro enorme que unos investigadores del CERN (Organización Europea de Investigaciones Nucleares), en Ginebra, consiguieran en 1995 crear así los primeros nueve átomos de antihidrógeno. El problema de esta técnica, además de ser muy poco eficiente, es que el antihidrógeno se fabrica a velocidades cercanas a las de la luz, por lo que no había ninguna posibilidad de estudiar sus propiedades antes de que los antiátomos desaparecieran.
A principios de la década de 2000, el experimento ATHENA del CERN producía por separado positrones —a partir de diversas sustancias radiactivas, como el flúor o el sodio— y antiprotones —en los aceleradores de partículas—. Como los átomos de antihidrógeno no se pueden enfriar de la manera convencional —por ejemplo, con helio líquido— porque se aniquilarían al entrar en contacto con él, deben crearse ya con poca energía, o como dicen los físicos, fríos. Y su energía depende principalmente de la energía de los antiprotones incidentes, pues son mucho más masivos que los positrones. Cuanto más fríos estén los antiprotones (es decir, cuanto más lentos sean), más fácil será luego crear y capturar los átomos de antihidrógeno.
Con esta idea se construyó el llamado Desacelerador de Antiprotones (AD, por sus siglas en inglés), un anillo en el que se colocaban diversas láminas llamadas degradadores. Los antiprotones se hacían girar por el anillo y chocar con los átomos de las láminas; los que no se aniquilaban, se frenaban a un 10% de su velocidad inicial.
Los antiprotones que salían del AD se mezclaban con los positrones en unas "botellas" electromagnéticas llamadas trampas de Penning. Estas trampas son recipientes de donde se extrae por bombeo todo el aire del interior y se rodean con helio líquido, el cual se mantiene a una temperatura de apenas 4 kelvin (-269º C). En el núcleo de la trampa se crean campos electromagnéticos que facilitan la unión de las antipartículas y, al mismo tiempo, impiden que entren en contacto con las paredes de la trampa.
Gracias a los antiprotones fríos y a la trampa de Penning, el equipo ATHENA consiguió en 2002 crear átomos de antihidrógeno durante sólo unos microsegundos. Fue tan breve porque al formarse el átomo de antihidrógeno, la carga de una antipartícula compensa la de la otra y, como ocurre con el átomo de hidrógeno cotidiano, su carga eléctrica total es cero. Sin carga, los campos eléctricos y magnéticos del interior de la botella ya no tienen efecto sobre él y se escapa, perdiéndose para siempre. Las trampas de Penning son muy útiles a la hora de crear átomos de antihidrógeno, pero no sirven para tenerlos quietos.
La antimateria en nuestra vida diaria
Es cierto que la antimateria escasea en nuestro universo, pero eso no significa que sea algo tan raro y exótico como pueda parecer. Los físicos crean y destruyen antipartículas a diario desde hace décadas. Y en los hospitales se utiliza la antimateria en una técnica de imagen médica muy importante: la llamada tomografía por emisión de positrones (PET, por sus siglas en inglés).
La tomografía es una técnica que permite tomar imágenes del cuerpo en cortes. En el caso de la PET se consigue gracias a la radiactividad de determinados elementos, que emiten positrones de manera natural; el más utilizado es el flúor-18. Estos elementos radiactivos tienen una vida media corta, de unos 10 minutos, lo que significa que transcurrido ese tiempo la cantidad de dicho elemento se reduce a la mitad. La muestra radiactiva se introduce en el cuerpo del paciente, normalmente por vía intravenosa u oral, y se espera a que se acumule en el área de interés. Los positrones que emite continuamente se encuentran enseguida con los electrones de los átomos de nuestro cuerpo, explotando en dos fotones de alta energía, que son emitidos en direcciones opuestas, de acuerdo con las leyes de la física.
Alrededor del paciente se disponen los detectores en forma de anillo, que son capaces de medir el tiempo de llegada de los fotones y su dirección. Cuando se detectan dos fotones que llegan a la vez desde direcciones opuestas, sabemos que se ha producido una aniquilación electrón-positrón. Estos fotones detectados se convierten en señales eléctricas y la información que se obtiene permite construir una imagen por secciones.
La PET es una técnica diagnóstica muy útil porque también detecta regiones de alta actividad química. Cuando el metabolismo de una zona aumenta —por ejemplo, en un tumor—, la concentración de sustancias químicas también aumenta, y con ella la densidad de electrones. Por tanto, las aniquilaciones serán más numerosas en esta zona que en otra de baja actividad metabólica. En definitiva, la PET no sólo proporciona imágenes, sino que permite visualizar procesos biológicos como el flujo sanguíneo, el metabolismo y los receptores neuronales. De todo ello se están beneficiando diversas áreas de la medicina.
La trampa dentro de la trampa
Había que pensar en otra estrategia para atrapar los átomos de antihidrógeno. Con este objetivo surgió en 2005 el proyecto ALPHA, que tomó el relevo de ATHENA en el CERN. Su planteamiento se basaba en que aunque no tenga carga eléctrica, el átomo de antihidrógeno se comporta como una pequeña brújula sensible a un campo magnético. El equipo ALPHA diseñó una trampa magnética a base de un complejo imán con varios polos magnéticos, una configuración que se conoce como trampa de Ioffe. La trampa de Penning se sitúa dentro de la trampa de Ioffe, de manera que cuando se forman los átomos de antihidrógeno y la trampa de Penning ya no los puede retener, entra en acción la trampa de Ioffe y los atrapa. La combinación de ambas trampas es el arma perfecta para cazar antimateria, siempre que los antiprotones sean lo suficientemente lentos.
En efecto, el campo magnético creado por la trampa de Ioffe es muy débil, por lo que es necesario enfriar todavía más los antiprotones para poder atraparlos. Por eso se incluyó antes de la trampa un ingenioso mecanismo de frenado a base de electrones. La idea es parecida a detener un balón de fútbol haciéndolo pasar por un montón de pelotas de tenis. De la misma manera, los científicos utilizan los electrones para enfriar los antiprotones haciendo que choquen con ellos. La ventaja de los electrones es que son fáciles de enfriar y pueden interactuar con los antiprotones sin aniquilarlos, puesto que no forman un par partícula-antipartícula. En apenas un minuto, electrones y antiprotones llegan a una temperatura de equilibrio de 20 kelvin (-253º C). Los antiprotones ya están listos para mezclarse con los positrones y formar átomos de antihidrógeno fríos que puedan ser luego capturados en la trampa de Ioffe.
En noviembre de 2010, los responsables del experimento ALPHA confirmaron que de la interacción de 10 millones de antiprotones y 700 millones de positrones, se habían formado 38 átomos estables de antihidrógeno, que duraron 172 milisegundos cada uno. Éste era el tiempo mínimo para asegurarse que se habían barrido de la trampa el resto de antipartículas que no habían llegado a formar antimateria. Apenas unos meses después, consiguieron atrapar 309 átomos de antihidrógeno, 19 de los cuales aguantaron 1000 segundos. Este tiempo sí es suficiente para estudiar el antihidrógeno en profundidad y comprobar si se comporta tal y como indican los modelos teóricos.

Agujeros en el tiempo...


Los metamateriales, producto de la nanotecnología, ya se están usando para crear algo parecido a una capa de invisibilidad para ocultar objetos en el espacio. Ahora podrían aplicarse para hacer invisible un acontecimiento en el tiempo.
A primera vista, el caso no tenía nada de especial. El robo del cuadro se había producido el sábado por la noche, cuando el museo estaba cerrado. Los ladrones habían conseguido desactivar la alarma y penetrar en el interior sin llamar la atención de los guardias de seguridad. Nadie había notado la desaparición del cuadro hasta el lunes a primera hora. Fue entonces cuando llamaron al inspector Tapia.
El inspector acudió al museo ese mismo lunes y estuvo examinando el lugar del delito sin encontrar ninguna pista. La sorpresa llegó al revisar los videos del circuito de seguridad. El cuadro se exhibía en una de las salas principales, donde había varias cámaras de vigilancia. Sin embargo, y por muy increíble que parezca, la grabación no había registrado nada en absoluto. Es decir, el cuadro estaba en su sitio, con la sala completamente vacía, ¡y de repente desaparecía como por arte de magia! El inspector estaba tan extrañado que vio el video varias veces.
Entonces se acordó de una noticia que había leído en el periódico hacía ya varios meses. Unos físicos del Imperial College de Londres afirmaban haber encontrado una forma teórica de crear agujeros en el tiempo. La idea era similar a la que hacía posible las llamadas capas de invisibilidad, pero en vez de ocultar objetos en el espacio, escondería eventos en el tiempo. E igual que un observador no sería capaz de ver un objeto cubierto por una capa de invisibilidad espacial, tampoco podría ver un suceso que ocurriera en ese agujero temporal, aunque le pasara frente a los ojos.
¿Sería aquello lo que habían utilizado los ladrones para robar el cuadro?
Esquivar la luz
El inspector, desde luego, no era experto en esos temas, así que lo primero que hizo fue intentar comprender cómo funcionaba una capa de invisibilidad común y corriente. Había oído hablar a su hijo pequeño de la capa de invisibilidad de Harry Potter, pero eso era pura fantasía. Él quería saber cuál era el principio físico en el que se basaban las capas de invisibilidad que intentaban crear los científicos en sus laboratorios.
Su hija mayor era una lectora habitual de ¿Cómo ves? y el inspector recordaba haber visto una portada dedicada a ese tema. Cuando regresó a su casa, se puso a buscar entre los ejemplares atrasados hasta que la encontró: era el número 124. Se leyó de una sentada el artículo "Invisibilidad a la vista" y ahí descubrió la existencia de los llamados metamateriales, materiales con unas propiedades extraordinarias que no se pueden encontrar de forma espontánea en la naturaleza.
Los metamateriales son estructuras artificiales que se crean en el laboratorio a partir de elementos naturales tales como metales (cobre, plata…) o semiconductores (silicio, carbono…). Los científicos manipulan estos ingredientes de manera minuciosa a la escala nanométrica, cientos de veces más pequeña que el grosor de un pelo. Construyendo una estructura nanométrica adecuada se puede lograr que la luz se comporte de maneras anómalas cuando se refleja en el metamaterial o lo atraviesa. Por ejemplo, los científicos podrían modificar el llamado índice de refracción, la medida en que un rayo se desvía al penetrar en el material, de tal manera que la luz lo rodee en vez de atravesarlo o reflejarse en él. La idea es similar a lo que hace el agua de un río cuando se encuentra una roca: la rodea y luego se vuelve a juntar, sin que quede ninguna huella de la presencia del obstáculo.
El inspector se imaginó que envolvía un objeto en uno de esos metamateriales. Como el metamaterial impediría que la luz lo iluminara directamente, entonces Tapia no podría ver ni siquiera su más mínimo reflejo ni sombra. Más aún, al rodear la luz el objeto y seguir su camino, Tapia podría ver las cosas que se encuentran detrás como si no se interpusiera nada. Si no se puede ver un objeto y sí lo que tiene a su espalda, entonces es que el objeto se ha vuelto invisible. Para todos los efectos, ese metamaterial funcionaría como una auténtica capa de invisibilidad.
El pollo en la autopista
El inspector asintió con la cabeza. Aunque desconocía los detalles, el concepto de una capa de invisibilidad espacial le había quedado claro. Pero, ¿y eso de los agujeros temporales? ¿Funcionaban de la misma manera? En el artículo de la revista no decían nada al respecto y ya era muy tarde para llamar a nadie, así que decidió investigar por su cuenta. Buscando en Internet se encontró con la página web de Paul Kinsler, físico del Imperial College londinense, y uno de los cerebros de la capa de invisibilidad temporal. Además de artículos técnicos, que el inspector simplemente leyó por encima, Kinsler compartía diversos enlaces en los que se explicaba, de una manera bastante sencilla y clara, el concepto de invisibilidad temporal.
Especialmente ilustrativo le resultó al inspector el siguiente ejemplo del propio Kinsler. Un pollo se encuentra al borde de una autopista por donde circulan los coches a una cierta velocidad constante. En algún lugar, más adelante en la autopista, se encuentra lo que Kinsler llama el observatorio de tráfico, encargado de vigilar la circulación de los coches. El pollo quiere llegar al otro lado de la autopista sin perturbar el tráfico y de forma que su acción pase inadvertida para el observatorio. Si cruza sin más, los coches se verían obligados a pegar un brusco frenazo o a cambiar de dirección para esquivarlo, lo que alteraría la circulación normal y, con toda seguridad, provocaría un accidente. La maniobra, además de temeraria, sería fácilmente reconocible por el observatorio. ¿Qué puede hacer el pollo?
La idea de Kinsler era la siguiente. Justo cuando el pollo decide cruzar, los coches que ya lo han superado aceleran, y los que todavía no han llegado hasta él frenan (es decir, desaceleran), de tal manera que se abre un hueco en el tráfico. Entonces el pollo aprovecha para atravesar rápidamente la autopista sin ser atropellado. Una vez que el pollo ha alcanzado su objetivo, los coches de delante frenan, mientras que los de atrás aceleran. Así se reestablece la circulación y todo vuelve a la normalidad. El pollo no ha interactuado en ningún momento con los coches, ya que éstos siguen manteniendo la misma trayectoria inicial. Es verdad que algunos han tenido que acelerar y otros han frenado, pero luego lo han compensado frenando y acelerando, respectivamente, de tal manera que la velocidad media de los vehículos sigue siendo la misma. En consecuencia, cuando los coches llegan a la altura del observatorio de tráfico, no existe ninguna evidencia de que el pollo ha cruzado la autopista.
Una brecha en el tiempo
Aunque parezca extraño, así es como funcionaría una capa de invisibilidad temporal. Sólo habría que sustituir los coches por fotones —las partículas de la luz—, el observatorio de tráfico por nuestros ojos y el pollo que cruza la autopista por el suceso que se quiere ocultar. En otras palabras, el observatorio de tráfico de Kinsler recoge y analiza los datos del flujo de coches de la misma forma que los ojos procesan la información de los fotones que impactan en la retina.
El inspector empezó a concebir la forma de actuar de los ladrones. Las cámaras de seguridad graban todo lo que ocurre en la sala gracias a que la luz de las lámparas rebota en los objetos y alcanza la lente de la cámara. Si los ladrones fueran capaces de manipular la velocidad de la luz, frenándola antes de un momento dado y, justo después, volviéndola a acelerar, se crearía un breve periodo de "oscuridad" en el flujo de fotones, igual que ocurría en el tráfico al acelerar y frenar los coches.
Tapia se imaginó que, aprovechando este momento de oscuridad, los ladrones entraban en escena y robaban el cuadro, dejando todo lo demás tal y como estaba. Justo después de marcharse, el proceso de acelerar y frenar la luz se invertiría, de manera que, cuando la luz alcanzara las cámaras de vigilancia, todo tendría el mismo aspecto que antes. Una persona que viera las grabaciones de las cámaras de vigilancia durante ese lapso comprobaría que no hay ni rastro del robo del cuadro.
Así, modificando la velocidad de la luz en una región del espacio durante cierto tiempo se podría crear, en teoría, una brecha en el tiempo que permitiría ocultar sucesos. Existen, sin embargo, dos importantes obstáculos a la hora de pasar a la práctica. El primero es que la luz viaja muy rápido, casi a 300 000 kilómetros por segundo en el vacío, por lo que habría que frenar y acelerar muchísimo los fotones para conseguir un hueco temporal apreciable. Por si fuera poco, los fotones no se pueden acelerar por encima de la velocidad de la luz en el vacío: lo prohíbe la teoría de la relatividad de Einstein. Así que esta artimaña sólo funcionaría, si acaso, en un medio en el que la luz se mueva más despacio que en el vacío.
El experimento de Cornell
El inspector empezaba a dudar de la viabilidad de la capa de invisibilidad temporal hasta que se tropezó con una noticia que le devolvió las esperanzas. A mediados de 2011, un equipo de físicos de la Universidad Cornell, en Estados Unidos, había conseguido crear un agujero en el tiempo mediante un ingenioso dispositivo óptico. La clave del dispositivo se basa en que la luz de distintos colores se mueve a velocidades diferentes cuando atraviesa un medio que no sea el vacío. Eso es lo que ocurre, por ejemplo, en el interior de una fibra óptica —una delgada hebra de vidrio de silicio o materiales plásticos muy usada en telecomunicaciones.
La luz visible, aquella que el ojo humano puede captar, es en realidad un conjunto de ondas electromagnéticas de distintas longitudes de onda, comprendidas entre los 400 y los 750 nanómetros. Estas longitudes de onda son percibidas por el ojo humano como colores diferentes, que van del violeta al rojo. El azul, por ejemplo, tiene una longitud de onda de 450 nanómetros, mientras que la del rojo es de 700 nanómetros.
En su experimento, Moti Fridman y sus colaboradores utilizaron una lente especial conocida como lente temporal, que descompone los rayos de luz en distintas longitudes de onda, pero, a diferencia de las lentes tradicionales, no modifica la dirección del haz incidente. Cuando hicieron pasar un láser de un único color —verde— por la lente temporal, el haz se dividió en una gama de colores, primero con tonos azulados, que después se fueron convirtiendo progresivamente en rojo. A continuación, los investigadores guiaron el rayo resultante a través de una fibra óptica, medio en el que la velocidad de la luz depende de la longitud de onda (es decir, del color): la luz azul viaja más rápido que la roja, por lo que se abrió un hueco en el haz. Todo lo que ocurriera en este hueco sería indetectable, porque no habría luz que interactuara con el suceso para llevar después la información a un ojo o a un detector.
El dispositivo se encargaba luego de restaurar las características originales del láser. Primero se le hacía pasar por otra fibra óptica que funcionaba a la inversa que la anterior: la luz roja viajaba más rápido que la azul, cerrándose el hueco que se había abierto. Por último, el haz atravesaba una segunda lente temporal que revertía el efecto de la primera. Cuando el láser emergía del dispositivo, el detector situado a la salida era incapaz de apreciar ninguna diferencia entre su color verde y el del láser incidente.
Otras capas de invisibilidad
Aunque al principio las investigaciones se centraron únicamente en la luz, desde hace varios años los científicos estudian dispositivos de invisibilidad para otros tipos de ondas. Unas de las primeras fueron las ondas sonoras, que tendría evidentes aplicaciones militares: la presencia de los submarinos en el mar se detecta por sónar. El sónar (o sonar) es un aparato que emite ondas sonoras en el agua. Al toparse con un cuerpo, estas ondas se reflejan y vuelven al punto de partida, lo que permite saber la ubicación y la velocidad del objeto. Una capa de invisibilidad sonora lograría que dichas ondas rodearan el objeto en vez de rebotar contra él, de manera que el sónar fuera incapaz de detectarlo. Aparte del ámbito militar, también podría usarse en lugares donde se quiere conservar el sonido y evitar que se degrade; por ejemplo, en teatros y auditorios.
A principios de este año, un equipo de la Escuela Universitaria de Matemáticas de Manchester (Reino Unido) anunció que había encontrado una forma teórica de camuflar edificios, haciendo que las ondas elásticas de los terremotos no los vieran y simplemente los rodearan. Esta capa de invisibilidad, hecha a base de goma a presión, sería muy interesante para proteger de sismos las plantas nucleares, centrales eléctricas y edificios oficiales.
Otro tipo de capa de invisibilidad podría evitar que los materiales se calienten demasiado rápido. El calor no se transmite en forma de onda, sino que se difunde por el espacio. Sin embargo, unos investigadores de la Universidad de Marsella han encontrado una forma de conseguir un efecto análogo que podría proteger, por ejemplo, a vehículos espaciales en su reingreso a la atmósfera. Además, esta misma técnica también podría usarse para concentrar el calor, con interesantes aplicaciones en la tecnología solar.
La última novedad en capas de invisibilidad llegó hace pocos meses. Un equipo de científicos de España y Eslovaquia diseñó un cilindro que impide que el campo magnético penetre en su interior. Esto podría servir para aislar marcapasos e implantes auditivos de campos magnéticos cuando la persona debe someterse a un examen por resonancia magnética nuclear.
Todas estas cosas eran impensables hace apenas una década.
La idea de la lente temporal del equipo de la Universidad Cornell había surgido a mediados de la década de 2000 como parte de un dispositivo que aumentaba la velocidad de transmisión de datos en una fibra óptica, algo que normalmente consume mucha energía y requiere una óptica compleja. Este nuevo sistema era muy eficiente energéticamente, estaba integrado en un chip de silicio compacto y podría utilizarse para enviar enormes cantidades de datos a grandes velocidades a través de la red.
La investigación dio un giro cuando Alexander Gaeta, uno de los miembros del grupo, leyó por casualidad la propuesta de Kinsler y compañía. Gaeta comprendió enseguida las posibilidades de utilizar la lente temporal para crear un agujero en el tiempo. Se pusieron manos a la obra y apenas un año después, en abril de 2011, el equipo del Imperial College conseguía ocultar un pulso de luz durante 15 picosegundos. El artículo donde se describía el experimento fue enviado a la prestigiosa revista Nature. Sus editores, sin embargo, consideraron que el agujero temporal era demasiado pequeño y animaron a los investigadores a ampliarlo de manera que pudiera ser detectado por los sensores de luz más precisos.
Menos de un mes después, el equipo había modificado el experimento y ya estaba preparado para una nueva prueba. En esta ocasión, consiguieron ampliar el hueco hasta 50 picosegundos. El artículo sobre el primer experimento que crea un agujero temporal fue finalmente aceptado por Nature, donde se publicó el 5 de enero de 2012.