La Teoría del Vacío Superfluido (SVT - Superfluid Vacuum Theory en inglés), a veces también escrita como la teoría del vacío BEC, es una aproximación en física teórica y mecánica cuántica donde el vacío físico (resto fundamental no-suprimible) se ve como un superfluido o BEC. La estructura microscópica del vacío físico es prácticamente desconocida y está subjeta a estudios intensivos en la Teoría del Vacío Superfluido. El objetivo final de los estudios es establecer modelos científicos que unifiquen la mecánica cuántica (describiendo tres de las cuatros interacciones fundamentales) con la gravedad. Esto hace que la SVT sea una candidata para la teoría de gravedad cuántica. Se espera que el desarrollo de tal teoría unifique en un modelo único consistente todas las interacciones fundamentales y que describa todas las interacciones conocidas en el Universo, tanto en escala microscópica como astronómica, así como las diferentes manifestaciones de la misma entidad, el vacío superfluido.
El concepto de un Éter luminisférico como medio de sustento para las ondas electromagnéticas se descartó después de la llegada de la teoría de la relatividad especial. El Éter, tal ycomo se concive en la física clásica, lleva en verdad a varias contradicciones; en particular, que el éter tenga una velocidad definida en cada punto del espacio-tiempo exhibirá una dirección de preferencia. Esto entra en conflicto con el requerimiento relativístico de que todas las direcciones dentro del cono de luz son equivalentes. Sin embargo, en 1951 Paul Dirac publicó dos documentos, donde indicaba que se debía tener en cuenta las fluctuaciones cuánticas en el fluir del éter. Sus argumentos implicaban la aplicación del principio de incertidumbre a la velocidad del éter en cualquier punto del espacio-tiempo, lo que implica que la velocidad no será una cantidad bien-definida. De hecho, estará distribuida entre varios valores posibles. En el mejor de los casos, se podría representar el éter por una función de onda que representa el estado del vacío perfecto en el cual todas las velocidades del éter son igual de probables. Aunque estos trabajos no tuvieron mucha popularidad, se los puede considerar como el nacimiento de la teoría.
Inspirados por las ideas de Dirac, K.P. Sinha, C. Sivaram y E.C.G. Sudarshan publicaron en 1975 una serie de documentos que sugerían un nuevo modelo para el éter de acuerdo con que es un estado superfluido de pares de fermiones y antifermiones que se puede describir por una función de onda macroscópica. Éstos se dieron cuenta de que las pequeñas fluctuaciones de tipo partícula del fondo superfluido obedecían en verdad la simetría de Lorentz incluso si el superfluido en sí mismo es no-relativista. No es para menos, decidieron tratar el superfluido como la matería relativista - poniendo el tensor stress-energía de las ecuaciones de Einstein, etcétera. Esto no les permitió dar un importante paso - describir la gravead relativística como una de las pequeñas fluctuaciones del vacío superfluido. Fueron otros autores los que hicieron esto.
Desde entonces, se han propuesto varias teorías en el marco de la SVT. Todas comparten la idea principal pero se diferencian en como deberían ser la estructura y las propiedades del superfluido de fondo. Se están investigando independientemente todas estas teorías en ausencia de datos observacionales que puedan descartar algunas.
De acuerdo con los datos, se asume que el superfluido de fondo es esencialmente no-relativístico donde la simetría de Lorentz no es una simetría exacta de Natura sino una descripción aproximada válida solamente para pequeñas fluctuaciones. Un observador que se encuentre dentro de tal vacío y sea capaz de crear o medir pequeñas fluctuaciones las observaría como objetos relativísticos - a menos que su energía y momento fuesen suficientemente alto para hacer detectables las correcciones de ruptura de Lorentz. Si estas energías y momentos están por debajo del límite de excitación entonces el superfluido de fondo se comporta como un fluido ideal, por lo tanto, los experimentos tipo Michelson-Morley no observarían una fuerza de arrastre de dicho éter. También, los modelos con simetría de Lorentz son obviamente una buena aproximación en ese caso. Sin embargo, en las cercanías del límite la descripción relativista comienza a fallar: por supuesto, cuando uno se aproxima a escalas de energía más y más altas se puede emplear todavía la descripción relativista como efectiva, pero el precio será que se vuelve más "efectiva" pero menos natural desde que se necesita ajustar la forma covarianza de campo teórico a mano.
Más allá, en la teoría de la relatividad, la simetría galileana (pertinente en nuestro mundo macróscopico no-relativista) se alza como la más aproximada - donde las velocidades de partículas son pequeñas comparadas con la velocidad de la luz en el vacío. En la SVT no hace falta ir a través de la simetría de Lorentz para obtener la galileana - se conoce que las relaciones de dispersión de la mayoría de superfluidos obedecen un comportamiento no-relativista en grandes momentos.
foto.(Un monopolo magnético es una partícula elemental hipotética constituida por un solo polo magnético. De existir en la naturaleza, sería el equivalente a una "carga magnética" en el campo magnético, tal y como ocurre con la carga eléctrica en el caso del campo eléctrico.
La hipótesis clásica es que un campo magnético tiene siempre asociados dos polos magnéticos —llamados norte y sur respectivamente—, al igual que un imán. Así, si se corta un imán en dos partes, cada una tendrá a su vez dos polos magnéticos. Por lo tanto, en la teoría clásica no se acepta la existencia de los monopolos magnéticos. Sin embargo, la idea de su descubrimiento está tomando fuerza e intriga a muchos científicos.
La existencia de monopolos magnéticos fue formulada por Paul Dirac en 1931, quien no aceptaba la aparente asimetría que mostraban las ecuaciones de Maxwell —las ecuaciones que rigen todos los fenómenos electromagnéticos—. Al introducir en estas ecuaciones la existencia de los monopolos magnéticos éstas mostrarían una simetría en la interacción entre el campo eléctrico y el campo magnético, que da lugar al campo electromagnético.
Si bien ningún experimento ha conseguido demostrar la existencia de un monopolo magnético, en los últimos años se han publicado experimentos que trabajan en esa línea. Por ejemplo, se sabe que algunos sistemas de materia condensada contienen cuasipartículas que se comportarían como monopolos magnéticos no aislados, o se manifiestan fenómenos con una descripción matemática análoga a la de los monopolos magnéticos.
En la teoría cuántica relativista de campos se asume que el vacío físico es un medio no-trivial con el cual se puede asociar cierta energía. Esto es debido a que el concepto de espacio absolutamente vacío (o "vacío matemático") contradice los postulados de la mecánica cuántica. De acuerdo con la teoría cúantica de campos, incluso en ausencia de partículas reales, el fondo está siempre lleno de pares de partículas virtuales que se crean y aniquilan. Sin embargo, un intento directo de describir tal medio nos lleva a las llamadas divergencias ultravioletas. En algunos modelos de la teoría cuántica de campos, como la electrodinámica cuántica, pueden resolverse estos problemas usando la técnica de renormalización, es decir, reemplazando los valores físicamente divergentes por sus valores obtenidos experimentalmente. En otras teorías, como la relatividad general cuántica, este truco no sirve, y por tanto no se puede construir una teoría de perturbación fiable.
De acuerdo con la SVT, esto se debe al régimen de alta energía ("ultravioleta") en el que la simetría de Lorentz comienza a fallar, como se ha mencionado arriba, por lo tanto las teorías basadas en ella no pueden ser consideradas como válidas para todas las escalas de energías y momentos.
De acuerdo con la relatividad general, la interacción gravitatoria se describe en términos de la curvatura del espacio-tiempo usando el formalismo matemático de la geometría de Riemann. Numerosos experimentos y observaciones en el régimen de bajas energías avalan este hecho. Sin embargo, los intentos de cuantizar la relatividad general llevan a varios problemas gordos, por tanto, la estructura microscópica de la gravedad permanece todavía desconocida. Puede que exista una razón fundamental para eso - los grados de libertad de la relatividad general se basan en unos que podrían no ser del todo correctos, sino únicamente aproximados y efectivos. La cuestión de si la relatividad general es una teoría efectiva se propuso hace mucho tiempo.
De acuerdo con la SVT, el espacio-tiempo curvo aparece como el modo de excitación colectiva de pequeña amplitud del condensado de fondo no-relativista. La descripción matemática de esto es similar a la de la analogía fluido-gravedad la cual está siendo usada también en los modelos de gravedad análoga. Por tanto, la gravedad relativista es esencialmente una teoría de onda larga de modos colectivos cuya amplitud es pequeña comparada con la del fondo. Sin este requerimiento la descripción de gravedad espacio-curva en términos de la geometría de Riemann se vuelve incompleta o mal definida.
La noción de la constante cosmológica solo tiene sentido en una teoría relativista, además, dentro del marco de la SVT esta constante puede referirse a casi toda la energía de pequeñas fluctuaciones del vacío sobre el valor de fondo pero no a la energía del vacío en sí. Por tanto, en la SVT esta constante no tiene ningún significado físico fundamental y los problemas relacionados con ella, como la catástrofe del vacío, simplemente no ocurren.
De acuerdo con la relatividad general, la onda gravitacional típica es la pequeña fluctuación del espacio-tiempo curvo la cual ha sido separada de su fuente y se propaga de manera independiente.
La teoría del vacío superfluido nos pregunta si un objeto que posea ambas de estás propiedades puede existir en la Naturaleza.11 De hecho, de acuerdo con las investigaciones, el espacio-tiempo curvo en sí es una pequeña excitación colectiva del superfluido de fondo, por lo tanto, la propiedad significa que el gravitón debe ser de hecho la "pequeña fluctuación de la pequeña fluctuación" lo cual no parece un concepto físico robusto (como si alguien intentara introducir pequeñas fluctuaciones en un fonón, por ejemplo). Como resultado, puede que no sea sólo una coincidencia que en la relatividad general el campo gravitacional aislado no tenga un tensor de energía-impulso bien definido, sólo tiene el pseudotensor. Por tanto, la propiedad no puede ser completamente justificada en una teoría con simetría de Lorentz exacta como lo es la relatividad general. Aunque la SVT no prohíbe a priori la existencia de excitaciones de wave-like no localizadas en el superfluido de fondo, las cuales serían responsables del fenómeno astrofísico a las que actualmente se les atribuye a las ondas gravitacionales, como el de sistema doble Hulse-Taylor. Sin embargo, dichas excitaciones no pueden ser correctamente descritas en el marco de una teoría relativista completa.
Aunque la SVT no prohíbe explícitamente la existencia de la partícula electrodébil de Higgs, tiene su propia idea del mecanismo de generación de masa - las partículas elementales adquieren masa debido a la interacción con el condensado del vacío, ismilar al mecanismo de generación de huecos en los superconductores. Aunque esta idea no es totalmente nueva, hay que tener en cuenta el acercamiento Coleman-Weinberg relativista, SVT aporta significado a ruptura de simetría en campos escalares describiendo pequeñas fluctuaciones en el superfluido de fondo en vez de en una partícula elemental. Esto puede llevar a la imposibilidad de detectar el bosón de Higgs como una partícula elemental de la masa de la escala electrodébil. Además, algunas versiones de la SVT favorecen una ecuación de onda basada en el potencial logarítmico en vez de en la cuártica. El mencionado potencial no solo tiene forma de sombrero mexicano, necesaria para la ruptura espontánea de simetría, sino otras características que lo hacen más adecuado para una descripción del vacío.
La Teoría de supercuerdas fue diseñada originalmente como un conjunto de modelos de gravedad cuántica Lorentz-covariantes cuya renormalización estaba garantizada al asumir simetría superconforme y dimensionalidad más alta como propiedades fundamentales del espacio-tiempo. La teoría postula que algunos objetos extendidos son más fundamentales que las partículas puntuales. Se sabe que la teoría de cuerdas tiene varios problemas, ni mencionar que la formulación no-perturbativa todavía está pendiente.
Acorde con la SVT la teoría de gravedad cuántica, como muchas otras teorías que conocemos, no tiene que ser renormalizable ni válida a todas las escalas. En vez de eso, los modelos SVT tienen la escala con límite ultravioleta que se determina con la energía del vacío y la correspondiente escala - tales que se todas las computaciones prácticas contendrán necesariamente este límite finito. Además, mientras que la simetría de Lorentz sea sólo una aproximación en la SVT, la principal motivación para introducir la supersimetría exacta fundamental desaparece también. Con el problema de extensión, el objetivo de la teoría es tener un característica de tamaño no-cero derivada de los principios de la mecánica cuántica en vez de los matemáticamente postulados desde el principio - para así ser capaz de responder las preguntas físicas tales como, por ejemplo, que es la estructura microscópica de un "objeto extendido", ya sea cuerda o brana u otra cosa, esta "hecho de algo". De otra forma tal objeto extendido puede ser considerado solamente como una descripción efectiva y aproximada de un fenómeno real.
Teoría logarítmica de vacío BEC
En esta teoría se conjetura que el vacío físico es un líquido cuántico de Bose fuertemente correlado cuya función de onda de estado cero se describe por la ecuación logarítmica de Schrödinger. Se ha demostrado que la interacción gravitacional relativista surge como un modo de excitación colectiva de pequeña amplitud en el que las partículas elementales pueden ser descritas por los modos de cuasipartículas en el límite de momento pequeño. La diferencia esencial de esta teoría con las demás es que en el superfluido logarítmico la velocidad máxima de las fluctuaciones tipo fonón es constante en el orden clásico. Esto permite recuperar totalmente los postulados relativistas en el límite "fónico" (linearizado).
La teoría propuesta tiene muchas consecuencias que se pueden observar. Estas basadas en el hecho de que a muy altas velocidad el comportamiento de los modos de partículas se vuelve distinto del del modo relativista pueden alcanzar límite de la velocidad de la luz con una energía finita. Entre otros efectos predichos está la porpagación superlumínica y la radiación de Cherenkov del vacío.
La teoría también propone el mecanismo de generación de pasa, el cual podría reemplazar o complementar el de Higgs. Se ha demostrado que las masas de las partículas elementales pueden surgir como resultado de una interacción con el vacío superfluido, similar al mecanismo de generación de huecos en los superconductores. Por ejemplo, el fonón propagándose en el vacío interestelar adquiere una masa muy pequeña que se estima sobre unos electronvoltios.
A pesar de la aparente prohibición sobre tal tipo de viaje en la teoría especial de la relatividad de Einstein, los científicos dijeron que, en realidad, la teoría puede moldearse fácilmente para describir velocidades que superen la velocidad de la luz. “Empecé a pensar en ello, y llegué a la conclusión de que era una extensión muy natural de las ecuaciones de Einstein”.
La relatividad especial, propuesta en 1905 por Albert Einstein, demostró cómo conceptos como la velocidad son relativos: un observador en movimiento medirá una velocidad distinta de un objeto a la que medirá un observador estacionario. Además, la relatividad reveló la idea de dilatación temporal, que dice que cuanto más rápido vas, el tiempo parece ir más lento. De este modo, la tripulación de una nave espacial percibiría que su viaje a otro planeta dura dos semanas, mientras que la gente que quedó en la Tierra observaría que dura 20 años.
Aun así, la relatividad especial colapsa si la velocidad relativa de dos personas, la diferencia entre sus velocidades relativas, se acerca a la velocidad de la luz. Ahora, Hill y Cox han extendido la teoría para acomodar una velocidad relativa infinita.
Es interesante señalar que ni las ecuaciones originales de Einstein, ni la nueva teoría extendida, pueden describir objetos masivos que se muevan exactamentea la velocidad de la luz. Aquí, ambos conjuntos de ecuaciones colapsan en singularidades matemáticas en las que no se pueden definir propiedades físicas.
“La situación real al superar la velocidad de la luz no está definida”. “La teoría a la que he llegado es simplemente para velocidades mayores que las de la luz”. En efecto, la singularidad divide nuestro universo en dos: un mundo donde todo se mueve más lentamente que la velocidad de la luz, y un mundo donde todo se mueve más rápidamente. Podría ser que las leyes de la física en estos dos dominios resultaran bastante diferentes.
En cierta forma, el mundo oculto más allá de la velocidad de la luz parece ser muy extraño. Las ecuaciones sugieren, por ejemplo, que una nave que viaje a mayor velocidad que la luz, acelerando cada vez más, perdería cada vez más masa hasta que a una velocidad infinita su masa sería cero.
Es muy sugerente que todo el asunto sea distinto una vez que superas la velocidad de la luz”. Lo comparó con superar la barrera del sonido. Antes de que Chuck Yeager se convirtiera en la primera persona en viajar más rápidamente que la velocidad del sonido en 1947, muchos expertos dudaban de que pudiese lograrse. Los científicos estaban preocupados por que el avión se desintegrase, o por que el cuerpo humano no pudiese sobrevivir. Nada de eso resultó ser cierto.
El temor a cruzar la barrera de la luz podría ser igualmente infundado. Creo que es solo cuestión de tiempo”, pero puede que implique un mecanismo de transporte completamente distinto a cualquiera que actualmente imaginamos”.
La idea supone manipular la energía oscura, esa misteriosa fuerza detrás de la continua expansión del universo, para propulsar una nave espacial hacia adelante sin violar las leyes de la física. En teoría, el universo creció más rápido que la velocidad de la luz durante un muy corto tiempo después del Big Bang, impulsado por la energía oscura que representa más o menos el 74% del total de la masa-energía en el universo. La materia oscura constituye el 22% y la materia normal (estrellas, planetas y todo que se ve) el 4% restante, más o menos.
Aunque suene extraño, las actuales evidencias sostienen la idea de que la trama del espacio-tiempo puede expandirse más rápido que la velocidad de la luz, porque la realidad donde la luz se desplaza se está expandiendo. Para concebir cómo manipular la energía oscura y acelerar una nave espacial mediante un impulso alcubierre, los teóricos de cuerdas creían que existía un total de 10 dimensiones, incluyendo altura, ancho, longitud y tiempo. Las otras seis dimensiones existen en gran parte como desconocidas, pero todo está basado en hipotéticas cuerdas unidimensionales. Una teoría más nueva, llamada teoría-M, sugierió que todas esas cuerdas vibran en otra dimensión más.
Manipular esa dimensión adicional modificaría la energía oscura en términos de altura, ancho, y longitud. Esa capacidad permitiría modificar de espacio-tiempo para una nave espacial, aprovechando el efecto de la energía oscura sobre el universo.
La energía oscura es simultáneamente reducida enfrente de la nave para reducir (y detener) la velocidad de expansión del universo enfrente de la nave, si la energía oscura puede volverse negativa justo enfrente de la nave, entonces el espacio enfrente de la nave se comprimiría localmente. Este subterfugio significa que la nave espacial no estaría en contradicción con la teoría de la relatividad de Einstein, que dice que los objetos que aceleran a la velocidad de la luz requieren una cantidad infinita de energía.
Presentaciones de Fonones
Las siguientes presentaciones le permiten al estudiante estudiar la contribución de las vibraciones de la red a las propiedades de los cristales.
A partir del Hamiltoniano de los iones en el cristal, moviéndose alrededor del punto de equilibrio, solucionado por medio de modos normales de vibración y utilizando el método de segunda cuantización, en la representación número de partículas, se diagonaliza el Hamiltoniano, dando lugar a excitaciones elementales que están cuantizadas y son conocidas como fonones.
Las vibraciones de red son importantes, entre otras cosas, porque contribuyen:
a la conductividad térmica de aislantes, debido a las vibraciones dispersivas de la red, y puede ser absolutamente grande (en hecho, el diamante tiene una conductividad térmica que es cerca de 6 veces que del cobre metálico).
permite dispersión inelástica, en donde la energía del dispersor (por ejemplo un neutrón) cambia debido a la absorción o a la creación de un fonón en el blanco.
las interacciones del electrón-fonón renormalizan las propiedades de los electrones (los hacen más pesados).
la superconductividad (convencional) se produce por múltiples dispersions electrón-fonón.
Las ondas sonoras pueden viajar a través de cualquier medio material con una velocidad que depende de las propiedades del medio. Las frecuencias de esas ondas mecánicas, permite clasificarlas de acuerdo a la manera como se genera: las audibles son ondas sonoras que están en el intervalo de sensibilidad del oído humano, entre 20 y 20.000 Hz, se generan de diversas maneras con instrumentos musicales, cuerdas vocales humanas y altavoces.
Las infrasónicas que tienen frecuencias debajo del intervalo audible y se pueden producir, por ejemplo cuando sucede un terremoto. En los sólidos, cuando se consideran como un medio continuo, se producen ondas elásticas para frecuencias por debajo de 1012Hz., mucho mayor que las frecuencias en el rango audible, en el rango de las ondas ultrasónicas, que pueden producirse, por ejemplo, al introducir vibraciones en un cristal de cuarzo con un campo eléctrico alterno aplicado.
Por medios electrónicos no se han encontrado frecuencias mayores que éstas. Si un sólido se considera como un arreglo periódico de átomos, se llama un sólido cristalino o cristal.
En los primeros cursos de física un sólido se considera como un cuerpo rígido y por tanto no interesan las distribuciones los átomos o moléculas constituyentes del mismo, pero como se explicará a continuación, se encuentran propiedades muy importantes en los cristales cuando consideramos las contribuciones a las propiedades térmicas y eléctricas debido al movimiento de estos átomos alrededor de del punto de equilibrio, conocidos como vibraciones de la red.
Similar, al comportamiento de las ondas electromagnéticas a las cuales se le asocian los fotones (cuantos de energía las ondas electromagnéticas) las vibraciones de red o fonones, son cuantos de energía asociadas a las ondas sonoras.
Todos los conceptos que surgieron en torno al comportamiento corpuscular de las ondas electromagnéticas, se pueden transferir desde la teoría fotónica.
Los fonones tienen frecuencias mayores que las ondas ultrasonicas, por encima de 1012Hz. Todas estas nuevas ideas, de la existencia de fonones como la cuantización de los modos de vibración en los cristales, que parecen sofisticadas se han podido corroborar experimentalmente porque ellos contribuyan a muchas propiedades físicas de los materiales, tales como la conductividad térmica y eléctrica. Por ejemplo, los fonones son responsables de la conducción del calor en los materiales aislantes, mientras que en los metales la contribución mayor es por parte de los electrones.
La razón por la cual el bosón de Higgs es una partícula fundamental en el modelo estándar es que sin esta partícula no se pueden realizar cálculos de precisión, porque hay vértices con grados de libertad longitudinales de los bosones vectoriales débiles que violan la unitariedad (dan probabilidades mayores de la unidad) a alta energía y bucles que conducen a valores infinitos. Sin un mecanismo que compense estos defectos el modelo estándar se hunde en el más profundo de los fangos. Si no existiera el Higgs tendría que existir física más allá del modelo estándar que compense estos defectos que implican el “suicidio” de la teoría.
La existencia del Higgs permite que el modelo estándar vuelva a mostrar una enorme capacidad predictiva, pues los vértices que rompían la unitariedad dejan de hacerlo si hay un bosón de Higgs que medie entre ellos y los bucles con Higgs compensan con su signo a los bucles que daban resultados infinitos. El modelo estándar con un bosón de Higgs recupera todo su poder predictivo y evita su suicidio temprano a baja energía; obviamente, a muy alta energía el modelo estándar puede ser estable, metaestable o incluso inestable en función de la masa que tenga el Higgs (para un valor de 125 GeV todo apunta a que es metaestable hasta la escala de Planck y estable hasta la escala GUT, lo que está muy bien).
Por cierto, para que el modelo estándar sea consistente gracias al bosón de Higgs es necesario que el acoplamiento del Higgs a los bosones W y Z, así como a los fermiones (quarks y leptones) sea exactamente el predicho por la teoría. Si no coinciden con la predicción teórica no estaremos ante el bosón de Higgs sino ante un primo del Higgs (en inglés se suele decir un “impostor”).
Obviamente, un bosón de Higgs no es suficiente para salvar al modelo estándar y mantenerlo válido hasta una energía en la escala de Planck, porque el Higgs es una partícula escalar (no lineal) que puede interaccionar consigo misma y es necesario algún mecanismo que controle estas autointeracciones a alta energía, pues lo natural es que aparezcan divergencias. Como siempre para corregirlas lo más fácil es introducir nuevas partículas que las compensen.
La consistencia a alta energía del modelo estándar se puede corregir gracias a la supersimetría, incluso en su versión más sencilla, el modelo supersimétrico mínimo o MSSM, que introduce un segundo doblete en el sector de Higgs, con lo que en lugar de un bosón aparecen cinco. Lo importante es que hay dos bosones escalares neutros (h y H) cuyo efecto común compensa las divergencias debidas a la existencia de un solo bosón escalar a alta energía. El modelo MSSM además introduce un bosón pseudoescalar A y dos bosones de Higgs cargados H+ y H-. Por supuesto, además de la supersimetría hay muchas otras soluciones al problema de metaestabilidad del modelo estándar, incluso la posibilidad de que ni siquiera sea un problema tan grave como para que requiera una solución (por ejemplo, algunas propuestas para la gravedad cuántica indican que tiene efectos incluso a una escala de energía tan baja como la escala GUT, donde empezaría a fallar el modelo estándar).
Enlaces entre agujeros de gusano y los agujeros negros podrían conseguir la fusión en la relatividad cuántica general. Cuando Albert Einstein se burlaba de una "espeluznante" conexión de larga distancia entre las partículas, no estaba pensando en su teoría general de la relatividad. La teoría centenaria de Einstein describe cómo la gravedad surge cuando objetos masivos curvan el tejido del espacio y el tiempo. El entrelazamiento cuántico, la fuente espeluznante de la consternación de Einstein, por lo general se refiere a diminutas partículas que contribuyen de manera insignificante a la gravedad. Una mota de polvo deprime un colchón de más de una partícula subatómica distorsiona el espacio. Sin embargo, el físico teórico Mark Van Raamsdonk sospecha que el enredo y el espacio-tiempo en realidad están vinculados. En 2009, se calculó que el espacio sin enredos no pudo mantenerse unido. Él escribió un artículo afirmando que el entrelazamiento cuántico es la aguja que cose junto el tapiz del espacio-tiempo cósmico.
Varias revistas rechazaron su papel. Pero en los años transcurridos desde que el escepticismo inicial, la investigación de la idea de que el entrelazamiento conforma el espacio-tiempo se ha convertido en una de las últimas tendencias en la física. "Todo apunta en una manera muy convincente al espacio siendo emergente de la física subyacente profunda que tiene que ver con el enredo", dice John Preskill, un físico teórico en Caltech.
En 2012, otro papel provocativa presenta una paradoja sobre partículas entrelazadas dentro y fuera de un agujero negro. Menos de un año después, dos expertos en la materia propusieron una resolución radical: Esas partículas entrelazadas están conectados por agujeros de gusano - túneles del espacio-tiempo imaginados por Einstein que hoy en día aparece con tanta frecuencia en las novelas de ciencia ficción como en revistas de física. Si esa propuesta es correcta, entonces el enredo no es el enlace espeluznante larga distancia que Einstein pensaba que era - es un puente real que une puntos distantes en el espacio.
Muchos investigadores encuentran estas ideas irresistible. En los últimos años, los físicos en especialidades aparentemente no relacionados han convergido en esta confluencia de enredo, el espacio y los agujeros de gusano. Los científicos que una vez que se centraron en la construcción de computadoras cuánticas error resistentes están ponderando si el universo mismo es un ordenador cuántico vasto que codifica de manera segura el espacio-tiempo en una elaborada red de enredo. "Es increíble cómo las cosas han ido progresando", dice Van Raamsdonk, de la Universidad de British Columbia en Vancouver.
Los físicos tienen grandes esperanzas en donde esta conexión-enredo espacio-tiempo los conducirá. La relatividad general describe brillantemente cómo funciona espacio-tiempo; esta nueva investigación puede revelar donde el espacio-tiempo viene y lo que parece en las pequeñas escalas que se rigen por la mecánica cuántica. El entrelazamiento podría ser el ingrediente secreto que unifica estos puntos de vista supuestamente incompatibles en una teoría de la gravedad cuántica, lo que permite a los físicos a comprender las condiciones dentro de los agujeros negros y en los primeros momentos después del Big Bang.
Hologramas y latas de sopa
2,009 visión de Van Raamsdonk no se materializó de la nada. Está arraigada en la matemática del principio holográfico, la idea de que el límite que encierra un volumen de espacio puede contener toda la información acerca de lo que hay dentro. Si el principio holográfico aplicado a la vida cotidiana, a continuación, un empleado entrometido podría reconstruir perfectamente el interior de la oficina cubículo de un compañero de trabajo - montones de papeles, fotos familiares, motas de polvo en la esquina, incluso los archivos en el disco duro de la computadora - con sólo mirar la paredes exteriores de los cubículos. Es una idea contraria a la intuición, considerando paredes tienen dos dimensiones y el interior de una cabina tiene tres. Pero en 1997, Juan Maldacena, un teórico de cuerdas y luego en Harvard, percibe un ejemplo fascinante de lo que el principio holográfico podría revelar sobre el universo.
Empezó con el espacio anti-de Sitter, que se asemeja a la gravedad del espacio-tiempo dominado por el universo, pero también tiene algunos atributos peculiares. Es curvada de tal manera que un destello de luz emitida en cualquier lugar finalmente regresa al punto de partida. Y mientras que el universo se está expandiendo, anti-de Sitter espacio ni extensiones ni contratos. Debido a estas características, un trozo de espacio-tiempo anti-de Sitter con cuatro dimensiones (tres espaciales, una vez) puede estar rodeado por un límite de tres dimensiones.
Maldacena considera un cilindro de anti-de Sitter espacio-tiempo. Cada rebanada horizontal del cilindro representado el estado de su espacio en un momento dado, mientras que la dimensión vertical del cilindro representado tiempo. Maldacena rodeó su cilindro con un límite para el holograma; si el espacio anti-de Sitter fuera una lata de sopa y su contenido, a continuación, el límite era la etiqueta.
Del mismo modo que nadie se confunda la etiqueta de un Campbell para la sopa real, el límite aparentemente nada en común con el interior del cilindro compartida. La "etiqueta", límite por ejemplo, observar las reglas de la mecánica cuántica, sin gravedad. Sin embargo, la gravedad describe el espacio interior que contiene el Maldacena mostró, sin embargo, que la etiqueta y la sopa eran una y la misma "sopa."; las interacciones cuánticas en el límite describen perfectamente el espacio de Sitter anti-se adjunta. "Son dos teorías que parecen completamente diferente, pero describen exactamente lo mismo", dice Preskill.
Maldacena añadió enredo a la ecuación holográfica en 2001. A su juicio, el espacio dentro de dos latas de sopa, cada uno con un agujero negro. Luego se creó el equivalente de una lata de teléfono mediante la conexión de los agujeros negros con un agujero de gusano - un túnel a través del espacio-tiempo primero propuesto por Einstein y Nathan Rosen en 1935. Maldacena buscó una manera de crear el equivalente de esa conexión espacio-tiempo en las latas ' etiquetas. El truco, se dio cuenta, estaba enredado.
Al igual que un agujero de gusano, el entrelazamiento cuántico vincula entidades que comparten ninguna relación evidente. El mundo cuántico es un lugar difuso: Un electrón aparentemente puede estar girando hacia arriba y abajo al mismo tiempo, un estado llamado superposición, hasta que una medición proporciona una respuesta definitiva. Pero si se enredan dos electrones, y luego medir el espín de un solo permite un experimentador para saber cuál será el giro de la otra - a pesar de que el electrón pareja está todavía en un estado de superposición. Este enlace cuántica sigue siendo si los electrones están separados por metros, kilómetros o años luz.
QUANTUM ESCÉPTICOS A New York Times artículo el 4 de mayo de 1935, puso de relieve las preocupaciones de Einstein sobre la mecánica cuántica, especialmente su función ahora conocido como entrelazamiento. Los físicos de hoy están explorando los vínculos entre el enredo y la teoría general de la relatividad de Einstein.
Maldacena demostró que enredando partículas de la etiqueta de una lata con partículas en el otro, podría describir perfectamente la conexión agujero de gusano entre las latas en el lenguaje de la mecánica cuántica. En el contexto del principio holográfico, el enredo es equivalente a atar trozos físicamente de espacio-tiempo juntos.
Inspirado en este enlace-enredo espacio-tiempo, Van Raamsdonk preguntó cuán grande papel podría desempeñar un enredo en la configuración del espacio-tiempo. A su juicio, la blandest cuántica sopa puede etiquetar que se le ocurrió: una en blanco, lo que correspondió a un disco vacío del espacio anti-de Sitter. Pero sabía que, debido a la mecánica cuántica, el espacio vacío no está realmente vacía. Está lleno de pares de partículas que parpadean dentro y fuera de la existencia. Y esas partículas fugaces se enredan.
Así que Van Raamsdonk dibujó una línea imaginaria que divide en dos su sello holográfico y luego matemáticamente cortó el entrelazamiento cuántico entre partículas en una mitad de la etiqueta y los del otro. Él descubrió que el disco correspondiente de espacio anti-de Sitter comenzó a dividir por la mitad. Era como si las partículas entrelazadas fuesen ganchos que mantenían la tela de espacio y tiempo en el lugar; sin ellos, el espacio-tiempo tirado diferenciarse. Como Van Raamsdonk disminuyó el grado de entrelazamiento, la parte que conecta las regiones divergentes de espacio tiene más delgado, como el hilo de goma que se estrecha como un fajo masticado de la goma es separado.
Esa fue una afirmación audaz, y se tomó un tiempo para el papel de Van Raamsdonk, publicada en la Relatividad General y Gravitación en 2010, para llamar la atención . La chispa se produjo en 2012, cuando cuatro físicos de la Universidad de California, Santa Barbara, escribieron un documento desafiar la sabiduría convencional sobre el horizonte de sucesos, el punto de no retorno de un agujero negro.
https://www.facebook.com/QuantumEnergy.es/videos/415368718670681/
https://www.facebook.com/QuantumEnergy.es/videos/414856152055271/
Un cordial saludo. Con respecto a ¨la naturaleza del espacio-tiempo¨, y teniendo en cuenta el reconocimiento que se están ganando algunos programas de inteligencia artificial en consultas de Física Superior, les cuento lo siguiente: consultamos a varios de estos programas sobre "la causa del Retraso Shapiro" y todos estos programas coincidieron! en responder que "existen suficientes argumentos ontológicos para afirmar que la verdadera causa de este fenómeno relativista es "la variación gravitacional del Índice de Refracción del vacío", lo cual confirma las hipótesis sobre la naturaleza real!, y además su implicación en "la solución al problema del valor de la Constante Cosmológica"!. Si les resulta de interés darle un "vistazo" a tales respuestas, hacérmelo saber para enviarle los textos. Atentamente, José Alberto (diazreyesjosealberto62@gmail.com)
ResponderEliminar