CIENCIA ESPECTACULAR

? Cómo sería la nueva tecnología 6G

Plataforma de realidad virtual Daydream de Google POLITICA INVESTIGACIÓN Y TECNOLOGÍA GOOGLE

Aunque aún faltan algunos años para que esta conexión sea una realidad, ya se ha empezado a hablar acerca de su velocidad y su impacto en la súper mejorada realidad virtual.

Hace más de un año, y con la pandemia del covid-19 en auge, se filtró una teoría que en varias ocasiones ha sido desmentida: “la vacuna contra el coronavirus nos controlará por medio de las antenas 5G”.

Aunque por sí sola esta hipótesis conspirativa no dice mucho de lo que en realidad es esta tecnología, sí logró que al menos esos dos caracteres estuviesen en mente y boca de la mayoría de la población mundial.

Actualmente, “5G” arroja cerca de 1.120 millones de resultados cuando se realiza la búsqueda en Google, lo que demuestra que este es uno de los temas más importantes para las personas en los últimos meses.

Sin embargo, aunque aún hay mucho por aprender de esta nueva tecnología, tal parece que la evolución no se puede detener y es momento de ir hablando de un nuevo avance: el 6G.

Aunque cada una de las generaciones de conexión inalámbrica dura alrededor de unos diez años, desde su auge hasta que empieza a ser trasladada por una nueva, el 6G podría ser un tema que hay que tratar desde ya.

Según expertos, no será sino hasta 2029 que se empiece a ver un pequeño ápice de lo que será esta tecnología, pero de que existirá, claro que existirá.

6G: Más que velocidad

Por supuesto, tal como ocurrió con la conexión 4G, la 5G significó hace un par de años un cambio de velocidad sin precedentes en la historia de las conexiones inalámbricas. Con el paso de los meses, más y más dispositivos se fueron adaptando a esta nueva tecnología, creando un entorno veloz y capaz de conectar a más y más personas entre sí.

Como es de esperar, el 6G no será la excepción durante este proceso de evolución; sin embargo, esta conexión no será solo veloz, sino que también, literal, detectará el entorno de las personas que lo usen. 

Con la ayuda de radios de última generación, los dispositivos tecnológicos mantendrán nutridas de información a las redes 6G, logrando una transición inédita entre el mundo físico y el virtual.

Por ejemplo, las Project Glass de Google ya no funcionarán como una simple pantalla que refleja la búsqueda de una persona, sino que actuarán como visor principal de la realidad.

Así, por ejemplo, ya no será necesario ni siquiera preguntar sobre el menú de un restaurante, pues solo con mirar hacia el sitio la realidad virtual hará su papel y mostrará la lista de platos que ofrecen en dicho lugar.

Las Project Glass de Google permiten percibir el mundo real desde la virtualidad de unos lentes.

Lo real será guiado, aún más, por lo virtual, desplazando poco a poco lo que se conoce como “normal” y creando una nueva “realidad”.

“De hecho, puedes sentir el medio ambiente, por lo que debería ser más poderoso”, dijo Tingfang Ji, director senior de ingeniería de Qualcomm, quien añadió que, al funcionar como un radar, la tecnología 6G se podrá emparejar entre un número de dispositivos ilimitados que encuentre en su camino.

Con todo esto, no hablar de una velocidad superior y la forma en que se lograría sería obviar uno de los puntos importantes de toda evolución del internet.

Por esto, los expertos han dicho que, en pro de dejar a un lado la limitación de alcance que le ha significado manejar una frecuencia de gigahercios a la 5G, con la conexión 6G se buscará dar un paso más allá e implementar una frecuencia en terahercios que sería 1.000 veces más rápida que la de la 5G.

De esta forma, se podría dar solución al dilema de rango ofrecido por la 5G, mejorando exponencialmente la capacidad de conexión, logrando así la mayor perfección alcanzada hasta ahora en la relación entre lo físico y lo virtual.

“Habrá alguna tecnología fundamental que querremos introducir para superar eso (…) Es algo en lo que estamos trabajando y que es muy emocionante”, finalizó Ji.

Infobae

? Un automóvil volador recorrió 80 kilómetros en el aire y luego se convirtió en un vehículo convencional

Un coche con alas vuela 80 km en Eslovaquia

El AirCar cubrió en 35 minutos la distancia que separa las ciudades eslovacas de Nitra y Bratislava y, al aterrizar, se transformó en un auto deportivo en menos de 180 segundos.

Un coche que puede desplegar alas y convertirse en un avión cubrió en 35 minutos una distancia de 80 kilómetros entre los aeropuertos de Nitra y Bratislava (Eslovaquia), un tercio del tiempo que se necesita por carretera, y después circuló como un vehículo convencional por el centro de la capital del país.

El híbrido de coche y avión AirCar, diseñado por el eslovaco Stefan Klein, ha sido el primer vehículo de este tipo en aterrizar en el aeropuerto internacional de Bratislava tras completar la distancia a una media de 170 kilómetros por hora.

“Este vuelo inicia una nueva era de vehículos de transporte duales. Abre una nueva categoría de transporte y devuelve al individuo la libertad asociada a los coches”, señaló Klein, según un comunicado de su empresa.

“La máquina funcionó perfectamente”, aseguró el eslovaco tras volar entre Nitra y Bratislava.

“Después de aterrizar, con el clic de un botón, el avión se transformó en un coche deportivo en menos de 3 minutos”, dijo el inventor.

(@kleinvision_official)

En las imágenes del vuelo se observa cómo el prototipo vuela acompañado por dos avionetas y tras el aterrizaje repliega las alas y la cola para poder circular por carretera.

El AirCar Prototipo 1 está equipado con un motor BMW de 160 caballos con una hélice fija y un paracaídas.

Durante las 40 horas de vuelo, este aparato ha alcanzado una altura de unos 2.500 metros y una velocidad de 190 kilómetros por hora.

(@kleinvision_official)

Hace cuatro años, Klein presentó el prototipo Aeromobil 4.0., que se diferencia del AirCar no sólo por su diseño, sino por cómo se transforma de avión en un vehículo normal, algo que con el nuevo modelo dura menos de tres minutos.

El diseñador no ha dado pistas sobre cuándo se comercializará el AirCar, que aún debe superar 50 horas de vuelo.

(@kleinvision_official)

Seguirá después un segundo prototipo con ligeros retoques en el diseño y con mayor potencia, lo que permitirá alcanzar mayor velocidad.

Klein espera lograr con este modelo mejorado el certificado de la Agencia Europea de Seguridad Aérea (EASA).

(Con información de EFE) Infobae

? Descubren una partícula que se balancea entre la materia y la antimateria

Físicos del CERN han descubierto una partícula elemental que oscila entre la materia y la antimateria, balanceándose entre dos mundos imposibles: puede tener el secreto de la asimetría que hemos detectado a lo largo y ancho del universo.

Un nuevo descubrimiento establece que hay un tipo de partículas elementales que se balancean entre la materia y la antimateria, aparentemente impulsadas por fuerzas desconocidas no contempladas en el Modelo Estándar.

El mundo subatómico intriga a los científicos desde que descubrimos que el átomo no era el componente básico de la materia.

No solo observamos que un átomo se compone en un 99,99% de vacío, sino que existen también partículas mucho más pequeñas que son los constituyentes últimos de la materia y sus interacciones.

Las partículas elementales de la materia y sus interacciones surgieron después de Big Bang y perduran hasta nuestros días otorgando consistencia a todo lo que conocemos.

Desde los años 70 del siglo pasado disponemos incluso de un Modelo Estándar que detalla, tanto las estructuras que conforman los niveles más básicos de la materia, como las interacciones que se producen entre las partículas elementales.

Esas interacciones son la interacción fuerte, la interacción débil, el electromagnetismo y la gravedad. Sin embargo, el Modelo Estándar no describe la cuarta interacción, la interacción gravitacional: la relatividad general, que describe el campo gravitatorio, no termina de encajar con los modelos matemáticos del mundo cuántico.

Las partículas elementales no son visibles, pero se pueden detectar si se aplica suficiente energía. De esta forma, hemos podido saber que las partículas elementales de la materia son 12 en total: seis quarks (Up, Charm, Top, Down, Strange, Bottom), tres electrones (electrón, muon, tau) y tres neutrinos (electrón, muon, tau).

También hemos descubierto que, si dentro de cada átomo se esconde todo un universo de masa y energía, el interior de cada partícula elemental revela también universos de particularidades que nos conducen a fronteras inexplicables.

La frontera de la antimateria

Una de esas fronteras señala que, además de la materia, existe también la antimateria, una réplica de la materia conocida, menos abundante, que está constituida por antipartículas, en vez de por partículas.

Las antipartículas son idénticas a las partículas, con la salvedad de que su carga eléctrica es opuesta a la de las partículas. Otra cosa que hemos constatado es que partículas y antipartículas no pueden convivir: se anulan recíprocamente si se encuentran.

La Tierra es bombardeada constantemente por antipartículas que nos traen los rayos cósmicos, e incluso nuestros cuerpos son una fuente de antipartículas. Las dos caras del universo están por todas partes. Y cuando coinciden, se produce un espectacular destello de luz, producto de la aniquilación mutua.

Las paradojas no terminan ahí, porque, por un lado, hay partículas que no tienen carga eléctrica que también contienen antipartículas: se considera que el neutrino es simultáneamente materia y antimateria.

Por otro lado, también sabemos que hay cuatro tipos de partículas recogidas en el Modelo Estándar que pueden convertirse en su antipartícula: son mesones de diferentes tipos, todos  formados por quarks (que integran la materia nuclear) y antiquarks.

Aunque el descubrimiento de los mesones se remonta a 1935, no fue hasta 2007 cuando nos dimos cuenta de que hay varios tipos de mesones que cambian espontáneamente de materia a antimateria.

Este comportamiento responde al principio de superposición cuántica, según el cual una partícula puede registrar simultáneamente dos o más valores diferentes.

Oscilación inesperada

Sin embargo, ahora se ha producido otro descubrimiento relevante: unos tipos de mesones, conocidos como mesones charm (encanto), sencillamente oscilan entre el estado de partícula y antipartícula.

Es decir, sabíamos que unos tipos de mesones podían cambiar de estado, pero lo que hemos descubierto ahora, merced a una proeza tecnológica, es que otro tipo de mesón cambia de estado de forma oscilatoria, periódica: esos mesones se balancean constantemente entre la materia y la antimateria. Una familiaridad inédita en las interacciones cuánticas.

Los científicos no saben cómo explicar este descubrimiento, que no encaja con el Modelo Estándar. Sospechan que hay más partículas elementales enredándose entre los pies de la materia, que originan estos comportamientos extraños. Otra brecha se abre en la teoría más robusta que tenemos para describir al universo cuántico.

Esta oscilación entre la materia y la antimateria, que se produce en el interior de los mesones, podría aportar sin embargo algo importante: explicar la asimetría que hemos detectado a lo largo y ancho del universo.

Todavía no sabemos por qué, después del Big Bang, prevaleció la materia sobre la antimateria. Puede que el balanceo de unos mesones entre dos estados irreconciliables tenga la respuesta.

Observation of the mass difference between neutral charm-meson eigenstates. LHCb collaboration. arXiv:2106.03744 [hep-ex]. / Tendencias

Foto superior: CERN

? Google anunció la llegada de un nuevo cable submarino a la Argentina

Los cables de fibra óptica están a 4.000 metros bajo el nivel del mar

Se llama Firmina y unirá al país con la costa este de Estados Unidos. Será el primero en el mundo que, a pesar de su larga distancia, es capaz de funcionar con una sola fuente de energía en uno de los extremos.

Google anunció hoy la construcción de Firmina, un nuevo cable submarino internacional que unirá la costa este de los Estados Unidos con Las Toninas, Argentina, con extensiones a tierra adicionales en Praia Grande, Brasil, y Punta del Este, Uruguay.

Firmina será el primer cable del mundo que, a pesar de su larga distancia, es capaz de funcionar completamente con una sola fuente de energía en uno de los extremos del cable, en caso de que sus otras fuentes de energía no estén disponibles temporalmente.

¿Por qué se llama Firmina?

Al igual que otros cables de la empresa que homenajean a personalidades de la cultura y las ciencias, Firmina fue nombrado en honor a una intelectual pionera que trabajó para promover la comprensión humana y la justicia social.

Maria Firmina dos Reis (1825-1917) fue una autora y abolicionista brasileña cuya novela de 1859, Úrsula, describe la vida de los afrobrasileños bajo la esclavitud. Firmina es considerada la primera novelista de Brasil. La elección de este nombre para el cable es una manera de destacar su trabajo y espíritu pionero.

Los beneficios de este cable

La llegada de la pandemia por COVID-19 impulsó aún más el uso de servicios digitales por las personas y las empresas. En este contexto, el cable contribuirá a mejorar la conectividad de todos los usuarios y empresas que usan los productos de la compañía en América del Sur. 

Con 12 pares de fibra óptica, el cable transportará el tráfico de forma rápida y segura entre América del Norte y América del Sur, brindando a los usuarios un acceso rápido y de baja latencia a los productos de Google como el Buscador, Gmail y YouTube, y a los servicios de Google Cloud.

”La llegada de Firmina potenciará la infraestructura de Google en la región, aportando más resiliencia a la red y mejorando la experiencia de nuestros usuarios y clientes. Estamos muy contentos de marcar un nuevo hito en términos de conectividad: Firmina tendrá la capacidad de alimentarse de energía de un solo extremo del cable, a pesar de su extenso recorrido, reforzando la fiabilidad de nuestra red.

Este año comenzarán las actividades de reconocimiento del lecho submarino. Estimamos finalizar los trabajos para que el cable esté listo en 2023″, dijo Cristian Ramos, gerente de Desarrollo de infraestructura de Google, en el comunicado difundido por la empresa.

”El anuncio y la confirmación por parte de Google de la construcción de este cable submarino, que además tiene nombre de mujer y se llama Firmina, es muy bien recibida por el Gobierno argentino.

Celebramos la inversión y el compromiso de empresas internacionales en términos de infraestructura, robustecimiento e incremento de la conectividad, no solo en Argentina sino también en toda en la región”, dijo Micaela Sánchez Malcolm, secretaria de Innovación pública de Argentina.

El cable submarino Tannat, que está funcionando desde 2017, llega a Las Toninas, zona conocida como el kilómetro 0 de internet en Argentina.

La infraestructura

En un cable submarino, los datos son transportados mediante luz dentro de una fibra óptica. Al mismo tiempo, el cable debe llevar una corriente eléctrica de alto voltaje suministrada por estaciones con tomas a tierra en cada extremo, alimentando amplificadores en el fondo marino que aumentan la luz óptica en intervalos de alrededor de 100 km.

Para una máxima resistencia y protección contra fallas, lo ideal es que la fuente eléctrica en tierra pueda alimentar todo el recorrido del cable hasta que se restablezcan las operaciones normales. 

Tradicionalmente, esto ha sido imposible de lograr en cables de mucha longitud: debido a que el número de fibras ópticas en cada cable ha aumentado en los últimos años, proporcionar suficiente energía se ha convertido en un desafío de diseño cada vez mayor. Firmina será el primer cable en romper esta barrera.

Con la llegada de Firmina, el gigante informático ya cuenta con 16 cables submarinos propios en todo el mundo. Además, éste se sumará a los otros cables que tiene la compañía en la región: Curie (que conecta Chile con Estados Unidos), Monet (Brasil – Estados Unidos), Junior (que conecta las ciudades de Praia Grande y Rio de Janeiro en Brasil) y Tannat (Argentina – Uruguay – Brasil).

Infobae

? Los telescopios cuánticos revolucionarán la astronomía

El intercambio de información cuántica entre varios telescopios individuales puede conducir al desarrollo de redes interferométricas de telescopios que nos dejarán ver más nítido lo que está lejos.

Nos permitirían resolver sistemas binarios de estrellas, conocer con gran precisión la velocidad de las estrellas de nuestra galaxia e incluso observar estrellas individuales más allá de la Vía Láctea.

Recientemente un colega mío, el divulgador Anil Ananthaswamy, ha publicado un artículo en Scientific American (véase referencia) en el que realiza un estupendo análisis del que podría convertirse en uno de los mayores avances en décadas en el ámbito de los telescopios astronómicos.

Se trata de la posibilidad de construir un gran telescopio interferométrico por medio de la conexión de varios telescopios individuales a través de algún tipo de sistema que les permita intercambiar información cuántica.

Hay aquí bastante tela que cortar. Y, si bien el artículo de Anil plantea un excelente cuadro de situación, lo cierto es que a mi entender da por hechos varios puntos que requieren cierta aclaración para la completa comprensión del asunto.

En definitiva, hablamos de un problema de interferometría óptica que, para su solución, nos lleva a las comunicaciones y memorias cuánticas. Por tanto, como resulta completamente obvio… vamos a empezar hablando del sonido, que no es ni luz ni cuántico : )

Pero es que tanto sonido como luz son ondas.

De niño había una cosa que me tenía muy intrigado. Una entre muchas. Al fin y al cabo, ser niño consiste en poseer una hiperdesarrollada capacidad para hacer preguntas, reforzada por una subdesarrollada capacidad para darles respuestas cocinadas por otros.

Una maravillosa anomalía que, posteriormente, tan bien se encarga de corregir nuestro sistema educativo y productivo. Los responsables de una magnífica violación de principio de causalidad, consistente en ofrecer las respuestas antes de haber propiciado las preguntas. Pero hay excepciones. Gloriosas excepciones que hacen que el mundo sea entretenido.

Lo que tan intrigado me tenía era la capacidad de nuestros oídos para localizar la procedencia de los sonidos. Recuerdo haber tenido varias conversaciones sobre este asunto con mi buen amigo Pablo, compañero mío en estas y muchas otras aventuras más o menos inmóviles.

“Pablo”, decía uno, “porque si los ojos sienten la profundidad es porque son dos y ven de forma estereoscópica [como en los sistemas diapositivas estereoscópicas que aun habían conocido nuestros hermanos mayores y, nosotros, de rebote]… Así que algo deberá de influir que tenemos dos oídos”.

“Pero Pablo”, decía el otro, “no puede ser que los oídos sientan la profundidad solo por el volumen del sonido”.

“Tienes razón”, el otro. “Los ojos perciben la profundidad gracias a la diferencia de punto de vista [eso que llamamos «perspectiva», que siempre suma información]. Y esa diferencia de punto de vista se parece a la diferencia de volumen que llega a cada oído en el caso del sonido. Pero las cosas no encajan”.

“Es cierto. Porque puede que la diferencia de volumen ayude con sonidos cercanos a la cabeza. Pero de nada sirve con sonidos lejanos…”.

“¡Y aun así somos capaces de percibir de qué dirección vienen los sonidos lejanos!”…

Con el tiempo y la gran ayuda de nuestro profe de ciencias (ayuda de guía y aliento sin ofrecer respuestas de las que están en los libros… Jaítos, una de aquellas gloriosas excepciones) terminamos averiguando cuál era la historia: la fase. Y de paso pudimos entender el cómo de otros fenómenos que sobre el sonido nos tenían intrigados.

El sonido son ondas y las ondas (todas las ondas) pueden concebirse como compuestas de “átomos de onda” (permítame la divergencia): cada uno correspondiendo a un tono puro (con la conocida forma senoidal que todos asociamos con las ondas) que posee una frecuencia dada, una longitud de onda dada y una fase dada.

Pues bien, terminamos descubriendo que oímos como oímos no sólo porque tengamos dos pares de orejas-oídos, sino porque cada oído analiza los sonidos que siente descomponiéndolos en cada uno de sus “átomos” constituyentes (en el sentido anterior, no en el ortodoxo de Demócrito, Dalton y subsiguientes) y enviando todos estos datos a una parte del cerebro especializada en procesarla.

Dicha parte del cerebro tiene la habilidad de extraer la máxima cantidad de información de esos datos. Por un lado, detectando las coincidencias entre lo que viene de uno y otro oído, consigue reforzar el reconocimiento de qué estamos oyendo. Y, por otro, detectando sus diferencias, consigue obtener información de calidad sobre la localización del origen del sonido.

Y así llegamos a la cuestión: La forma en que nuestro cerebro cuantifica las diferencias entre cada una de las dos ondas de la misma frecuencia que le llegan de uno y otro oído es haciendo que ambas ondas interfieran. Esto genera un patrón (el patrón de interferencia) que tiene una forma diferente según sea la diferencia de fase entre ambas ondas.

En otras palabras, nuestro sistema auditivo (pareja de orejas-oídos + corteza cerebral auditiva) es, realmente, un potente sistema interferométrico. Uno que es capaz de medir los patrones generados por interferencia de parejas de señales.

Vía Láctea. ESA.

¿Y si hiciésemos que los telescopios oyesen?

Como resulta que la luz también son ondas, todo el planteamiento anterior es teóricamente aplicable a las señales luminosas que perciben esos grandes observadores del cielo que llamamos telescopios. (Lo de “teóricamente”, como veremos, es cuestión muy relevante).

Hace poco se cumplieron 100 años de la medida del diámetro de la primera estrella diferente al Sol hecha justamente de esta manera.

En diciembre de 1920 un sistema interferométrico se montó en el telescopio reflector del Monte Wilson y de esta forma se pudo medir Betelgeuse, la gigante roja que es uno de los hombros del cazador de la constelación de Orión en milenaria pelea con el toro de Tauro.

Porque eso es lo que nos permite la interferometría en la observación de ondas luminosas, lo mismo que nos permite nuestro sistema auditivo con las ondas sonoras: conseguir mucha mayor resolución de direcciones (por tanto, también distancias, por tanto, también velocidades).

Sí… Lo de “teóricamente” nos lleva al mundo de las comunicaciones cuánticas

Pero hay “peros”. ¡Cómo no!

La interferometría se ha venido aplicando de forma muy fructífera desde hace 80 años en los radiotelescopios. Esos trastos con forma similar a descomunales orejas que sirven para “oír” las señales de radio del universo.

Ahora bien, las señales de radio, debido a su muy inferior frecuencia (la más baja de todo el espectro electromagnético), son más fáciles de tratar.

Se hace con ellas lo que nuestros oídos hacen con las señales de sonido: se convierten en señales de otro tipo (señales eléctricas) para someterlas a análisis posterior. En el caso de nuestra audición, lo que la corteza auditiva de nuestro cerebro procesa son las señales electroquímicas que cada oído ha creado con forma análoga a las señales sonoras recibidas («codificación analógica», lo mismo que hace un micrófono).

Y es ahí donde surgen los problemas.

La luz visible y las señales de radio son ambas ondas electromagnéticas, pero la frecuencia de las primeras es, al menos, un millón de veces mayor que la de las segundas.

Tan altísima frecuencia convierte las señales ópticas en intratables para ser convertidas en señales eléctricas analógicas (de forma análoga).

Lo ideal sería transportar los fotones en sí mismos. Eso sí, sin alterar el estado individual de cada uno de los fotones, cosa crucial para que el patrón de interferencia final no se falsee.

Y es ahí donde surge la necesidad de disponer de un sistema de comunicación cuántico. Una línea de comunicación que permita transportar fotones sin alterar el estado cuántico individual de cada uno.

La fibra óptica es una posibilidad. Ahora bien, ya muy por debajo de distancias de kilómetros, las líneas de fibra óptica generan pérdidas o interacciones en los fotones que transportan. En otras palabras, producen pérdidas o alteración de la información cuántica de estos fotones y, por tanto, anulan el valor del patrón de interferencia que se obtenga. Resulta que, si inicialmente este debía ser un Velázquez, puede que terminemos obteniendo un Pollock.

Otra posibilidad es utilizar una línea de comunicación intermediada por pares de fotones entrelazados que son emitidos desde el punto medio de la línea de comunicación para que cada miembro de la pareja interaccione con los fotones de cada telescopio (supuesto ahora que estamos hablando de conectar dos telescopios).

Al estar entrelazados, uno y otro fotón tienen estados cuánticos correlacionados (de hecho, forman juntos el mismo sistema cuántico, que no otra cosa es el fenómeno del entrelazamiento cuántico). Y gracias a esto, podremos inferir cómo interferirían los fotones de un telescopio con los del otro, a través de la interacción de cada uno de estos grupos con las parejas de fotones entrelazados.

Como vemos, los fotones entrelazados funcionan como una especie de traductores simultáneos. Empleando aquí lo de “simultáneos” con un sentido de endiablada literalidad. Un sentido que estará haciendo que Einstein se revuelque en su tumba, salvo que finalmente haya capitulado y se haya ido a echar una partidita a los dados con Dios.

Por último, otra posibilidad es almacenar la información cuántica de los fotones recibidos por cada telescopio (en este caso, tantos telescopios como queramos) en una memoria cuántica.

Después transportamos todas esas memorias a la misma localización y allí reconstruimos los fotones cuyos estados están almacenados en las memorias para que interaccionen entre sí y generen nuestro tan buscado patrón de interferencia.

Diferentes grupos de investigación a lo largo y ancho del mundo han conseguido éxitos en los tres procesos involucrados: almacenamiento, reconstrucción y, entre medias, mantenimiento de la información cuántica durante el tiempo suficiente para que el transporte sea posible. En esto último han tenido que luchar con ese deterioro de la información cuántica que se llama «pérdida de coherencia». El sustrato físico: estados de spin nuclear en redes de ciertos cristales dopados.

Pero no terminan aquí los retos

Por otra parte, tenemos que calibrar los diferentes telescopios. Es crítico que su diferencia de distancia con respecto al cuerpo celeste en estudio sea conocida con precisión.

En caso contrario, no podremos saber cómo correlatar entre sí las fases de los fotones que provienen de los diferentes telescopios.

Asimismo, tenemos que discriminar los efectos de distorsión en los fotones recibidos causados por las turbulencias atmosféricas.

Y estos dos no son retos en absoluto menores.

Para la neutralización de alteraciones atmosféricas en los telescopios de alta precisión no espaciales (los situados en la superficie de la Tierra) se utiliza un sistema de óptica adaptativa combinado con estrellas artificiales emuladas por un haz de láser proyectado desde la misma ubicación del telescopio. (¡Pardiez! Pero así es).

Y si bien dicho sistema permitiría tanto calibrar los telescopios entre sí como discriminar los efectos atmosféricos, no resulta claro cómo poder adaptarlo a un conjunto de telescopios que trabajen en red.

¿Tienen solución?… Pues a ver si a alguien se le ocurre. La pregunta está ya formulada. Y tener una pregunta suele resultar muy útil para terminar descubriendo cosas.

Personalmente, me voy a atrever a conjeturar la posibilidad de disponer de satélites que sirviesen de estrellas artificiales de luz láser. Quizás no sea una completa locura que esto pudiese llegar a funcionar (aunque la cosa tiene tela).

Pero, aun siendo así, imagínese usted la desfachatez… Esto significaría que los científicos dispondrían de una constelación de satélites (a modo de tenues y puras estrellas artificiales) cuyas trayectorias podrían alterar a antojo. (¡!).

En otras palabras, significaría que la ciencia dispondría de la cantidad de recursos que en este mundo que tan racionalmente nos hemos montado está solo disponible para pelear contra nuestros congéneres y otros miedos reales o inducidos.

Conclusión

La combinación de conocimientos e investigaciones en telescopía y en computación cuántica nos puede conducir al desarrollo de redes interferométricas de telescopios ópticos.

Una tecnología que nos permitiría resolver sistemas binarios de estrellas como el de Sirio B y conocer con gran precisión la velocidad de las estrellas de nuestra galaxia. Incluso la de las estrellas orbitando el agujero negro en el centro galáctico presumiblemente situado, desde nuestro punto de vista, en la constelación de Sagitario (la radiofuente Sagitario A*).

Además, nos permitiría observar estrellas individuales en las galaxias hasta el centro del Supercluster de Virgo del que forma parte el Grupo Local al que pertenece nuestra galaxia.

Entre tanto, confiemos en la capacidad de los científicos para seguir haciendo preguntas y encontrar lentamente las respuestas. Y, pese a todo, seguir consiguiendo financiación por el camino.

Como nos debería haber enseñado a todos la actual situación de pandemia: la ciencia da respuestas, pero tarda en darlas.

Y esto es porque la ciencia, al contrario que los ignorantes y los vendedores de elixires maravillosos, duda como método y se cuestiona a sí misma como acto reflejo.

Los aerosoles, la dinámica de contagio, la explosión de citoquinas, el funcionamiento de las mascarillas, la ventilación de estancias, los marcadores genéticos de susceptibilidad… son todas preguntas complejas.

Y las preguntas complejas rara vez permiten respuestas que sean, simultáneamente, simples y correctas.

Si queremos que la ciencia nos dé respuestas mañana, deberíamos haber creado los medios para ello hace muchas lunas.

Pero esas respuestas terminan llegando. Y cuando lo hacen… son útiles y hermosas. ¿O no?

Referencia

“Quantum Astronomy Could Create Telescopes Hundreds of Kilometers Wide”, artículo de Anil Ananthaswamy (Scientific American, 19 de abril de 2021).

Foto superior: El Very Large Telescope del Observatorio Europeo Austral en el norte de Chile es la principal instalación astronómica del mundo para interferometría óptica.  Crédito: ESO, Tendencias