:)
inicio
el efecto circpau
estratégia y táctica
organizativo
ecómico
comunicación
festival circpau
index

top volver avance




estratégia y táctica
stephen hawking Imprimir E-mail



historia del tiempo:      del big bang a los agujeros negros                       stephen hawking

...en 1929, Edwin Hubble hizo la observación crucial de que, donde quiera que uno mire, las galaxias distantes se están alejando de nosotros. O en otras palabras, el universo se está expandiendo.

Una teoría es una buena teoría siempre que satisfaga dos requisitos: debe describir con precisión un amplio conjunto de observaciones sobre la base de un modelo que contenga sólo unos pocos parámetros arbitrarios, y debe ser capaz de predecir positivamente los resultados de observaciones futuras.

Es muy difícil construir una única teoría capaz de describir todo el universo. En vez de ello, nos vemos forzados, de momento, a dividir el problema en varias partes, inventando un cierto número de teorías parciales.

Los científicos actuales describen el universo a través de dos teorías parciales fundamentales: la teoría de la relatividad general y la mecánica cuántica. Ellas constituyen el gran logro intelectual de la primera mitad de este siglo. La teoría de la relatividad general describe la fuerza de la gravedad y la estructura a gran escala del universo, es decir, la estructura a escalas que van desde sólo unos pocos kilómetros hasta un billón de billones (un 1 con veinticuatro ceros detrás) de kilómetros, el tamaño del universo observable. La mecánica cuántica, por el contrario, se ocupa de los fenómenos a escalas extremadamente pequeñas, tales como una billonésima de centímetro. Desafortunadamente, sin embargo, se sabe que estas dos teorías son inconsistentes entre sí: ambas no pueden ser correctas a la vez. Uno de los mayores esfuerzos de la física actual, y el tema principal de este libro, es la búsqueda de una nueva teoría que incorpore a las dos anteriores: una teoría cuántica de la gravedad. Aún no se dispone de tal teoría, y para ello todavía puede quedar un largo camino por recorrer, pero sí se conocen muchas de las propiedades que debe poseer.

Las ecuaciones de Maxwell predecían que podían existir perturbaciones de carácter ondulatorio del campo electromagnético combinado, y que éstas viajarían a velocidad constante, como las olas de una balsa. Si tales ondas poseen una longitud de onda (la distancia entre una cresta de onda y la siguiente) de un metro o más, constituyen lo que hoy en día llamamos ondas de radio. Aquellas con longitudes de onda menores se llaman microondas (unos pocos centímetros) o infrarrojas (más de una diezmilésima de centímetro). La luz visible tiene sólo una longitud de onda de entre cuarenta y ochenta millonésimas de centímetro. Las ondas con todavía menores longitudes se conocen como radiación ultravioleta, rayos X y rayos gamma.

...el metro se define como la distancia recorrida por la luz en 0,000000003335640952 segundos, medidos por un reloj de cesio. (La razón por la que se elige este número en particular es porque corresponde a la definición histórica del metro, en términos de dos marcas existentes en una barra de platino concreta que se guarda en París.)

Es imposible imaginar un espacio cuatridimensional. ¡Personalmente ya encuentro suficientemente difícil visualizar el espacio tridimensional!

...ocho minutos después, que es el tiempo que tarda la luz en alcanzarnos desde el Sol.

...la luz que vemos de las galaxias distantes partió de ellas hace millones de años, y en el caso de los objetos más distantes observados, la luz partió hace unos ocho mil millones de años. Así, cuando miramos al universo, lo vemos tal como fue en el pasado.

Si se ignoran los efectos gravitatorios, tal y como Einstein y Poincaré hicieron en 1905, uno tiene lo que se llama la teoría de la relatividad especial.

newton. La teoría de la relatividad especial tuvo un gran éxito al explicar por qué la velocidad de la luz era la misma para todos los observadores (tal y como había mostrado el experimento de Michelson-Morley) y al describir adecuadamente lo que sucede cuando los objetos se mueven con velocidades cercanas a la de la luz. Sin embargo, la teoría era inconsistente con la teoría de la gravitación de Newton, que decía que los objetos se atraían mutuamente con una fuerza dependiente de la distancia entre ellos. Esto significaba que si uno movía uno de los objetos, la fuerza sobre el otro cambiaría instantáneamente. o en otras palabras, los efectos gravitatorios deberían viajar con velocidad infinita, en vez de con una velocidad igual o menor que la de la luz, como la teoría de la relatividad especial requería. Einstein realizó entre 1908 y 1914 varios intentos, sin éxito, para encontrar una teoría de la gravedad que fuera consistente con la relatividad especial. Finalmente, en 1915, propuso lo que hoy en día se conoce como teoría de la relatividad general.

Einstein hizo la sugerencia revolucionaria de que la gravedad no es una fuerza como las otras, sino que es una consecuencia de que el espacio-tiempo no sea plano,

Los cuerpos como la Tierra no están forzados a moverse en órbitas curvas por una fuerza llamada gravedad; en vez de esto, ellos siguen la trayectoria más parecida a una línea recta en un espacio curvo, es decir, lo que se conoce como una geodésico. Una geodésico es el camino más corto (o más largo) entre dos puntos cercanos. Por ejemplo, la superficie de la Tierra es un espacio curvo bidimensional. Las geodésicas en la Tierra se llaman círculos máximos, y son el camino más corto entre dos puntos. Como la geodésica es el camino más corto entre dos aeropuertos cualesquiera, el navegante de líneas aéreas le dirá al piloto que vuele a lo largo de ella. En relatividad general, los cuerpos siguen siempre líneas rectas en el espacio-tiempo cuatridimensional; sin embargo, nos parece que se mueven a lo largo de trayectorias curvadas en nuestro espacio tridimensional.

Los rayos de luz también deben seguir geodésicas en el espacio-tiempo. De nuevo, el hecho de que el espacio-tiempo sea curvo significa que la luz ya no parece viajar en líneas rectas en el espacio. Así, la relatividad general predice que la luz debería ser desviada por los campos gravitatorios.

Otra predicción de la relatividad general es que el tiempo debería transcurrir más lentamente cerca de un cuerpo de gran masa como la Tierra. Ello se debe a que hayuna relación entre la energía de la luz y su frecuencia (es decir, el número de ondas de luz por segundo): cuanto mayor es la energía, mayor es la frecuencia. Cuando la luz viaja hacia arriba en el campo gravitatorio terrestre, pierde energía y, por lo tanto, su frecuencia disminuye. (Esto significa que el período de tiempo entre una cresta de la onda y la siguiente aumenta.) A alguien situado arriba le parecería que todo lo que pasara abajo, en la Tierra, transcurriría más lentamente. Esta predicción fue comprobada en 1962, usándose un par de relojes muy precisos instalados en la parte superior e inferior de un depósito de agua. Se encontró que el de abajo, que estaba más cerca de la Tierra, iba más lento, de acuerdo exactamente con la relatividad general.

La estrella más cercana, llamada Próxima Centauri, se encuentra a unos cuatro años luz de nosotros (la luz proveniente de ella tarda unos cuatro años en llegar a la Tierra), o a unos treinta y siete billones de kilómetros.

¡nuestro Sol está a sólo ocho minutos-luz de distancia!

La imagen moderna del universo se remonta tan sólo a 1924, cuando el astrónomo norteamericano Edwin Hubble demostró que nuestra galaxia no era la única. Había de hecho muchas otras, con amplias regiones de espacio vacío entre ellas.

Edwin Hubble calculó las distancias a nueve galaxias diferentes . En la actualidad sabemos que nuestra galaxia es sólo una de entre los varios cientos de miles de millones de galaxias que pueden verse con los modernos telescopios, y que cada una de ellas contiene cientos de miles de millones de estrellas.

Las estrellas en los brazos de la espiral giran alrededor del centro con un período de varios cientos de millones de años.

Nuestro Sol no es más que una estrella amarilla ordinaria, de tamaño medio, situada cerca del centro de uno de los brazos de la espiral. ¡Ciertamente, hemos recorrido un largo camino desde los tiempos de Aristóteles y Ptolomeo, cuando creíamos que la Tierra era el centro del universo!.

...la luz emitida por un objeto opaco incandescente tiene un aspecto característico que sólo depende de su temperatura, lo que se conoce como espectro térmico. Esto significa que podemos averiguar la temperatura de una estrella a partir de su espectro luminoso. Además, se observa que ciertos colores muy específicos están ausentes de los espectros de las estrellas, y que estos colores ausentes pueden variar de una estrella a otra. Dado que sabemos que cada elemento químico absorbe un conjunto característico de colores muy específicos, se puede determinar exactamente qué elementos hay en la atmósfera de una estrella comparando los conjuntos de colores ausentes de cada elemento con el espectro de la estrella.

La frecuencia (o número de ondas por segundo) de la luz es extremadamente alta, barriendo desde cuatrocientos hasta setecientos millones de ondas por segundo.

Fue una sorpresa absoluta, por lo tanto, encontrar que la mayoría de las galaxias presentaban un corrimiento hacia el rojo: ¡casi todas se estaban alejando de nosotros! Incluso más sorprendente aún fue el hallazgo que Hubble publicó en 1929: ni siquiera el corrimiento de las galaxias hacia el rojo es aleatorio, sino que es directamente proporcional a la distancia que nos separa de ellas. o, dicho con otras palabras, ¡cuanto más lejos está una galaxia, a mayor velocidad se aleja de nosotros! Esto significa que el universo no puede ser estático, como todo el mundo había creído antes, sino que de hecho se está expandiendo. La distancia entre las diferentes galaxias está aumentando continuamente.

El descubrimiento de que el universo se está expandiendo ha sido una de las grandes revoluciones intelectuales del siglo xx.

Incluso Einstein, cuando en 1915 formuló la teoría de la relatividad general, estaba tan seguro de que el universo tenía que ser estático que modificó la teoría para hacer que ello fuera posible, introduciendo en sus ecuaciones la llamada constante cosmológica. Einstein introdujo una nueva fuerza «antigravitatoria», que, al contrario que las otras fuerzas, no provenía de ninguna fuente en particular, sino que estaba inserta en la estructura misma del espaciotiempo. Él sostenía que el espacio-tiempo tenía una tendencia intrínseca a expandirse, - y que ésta tendría un valor que equilibraría exactamente la atracción de toda la materia en el universo, de modo que sería posible la existencia de un universo estático.

Friedmann hizo dos suposiciones muy simples sobre el universo: que el universo parece el mismo desde cualquier dirección desde la que se le observe, y que ello también sería cierto si se le observara desde cualquier otro lugar. A partir de estas dos ideas únicamente, Friedmann demostró que no se debería esperar que el universo fuera estático.

Nuestra galaxia y las otras galaxias deben contener, no obstante, una gran cantidad de «materia oscura» que no se puede ver directamente, pero que sabemos que debe existir, debido a la influencia de su atracción gravitatoria sobre las órbitas de las estrellas en las galaxias.

Roger Penrose, en 1965. Usando el modo en que los conos de luz se comportan en la relatividad general, junto con el hecho de que la gravedad es siempre atractiva, demostró que una estrella que se colapsa bajo su propia gravedad está atrapada en una región cuya superficie se reduce con el tiempo a tamaño cero. Y, si la superficie de la región se reduce a cero, lo mismo debe ocurrir con su volumen. Toda la materia de la estrella estará comprimida en una región de volumen nulo, de tal forma que la densidad de materia y la curvatura del espacio-tiempo se harán infinitas. En otras palabras, se obtiene una singularidad contenida dentro de una región del espacio-tiempo llamada agujero negro.

Al principio de los años setenta, nos vimos forzados a girar nuestra búsqueda de un entendimiento del universo, desde nuestra teoría de lo extraordinariamente inmenso, hasta nuestra teoría de lo extraordinariamente diminuto. La mecánica cuántica,

...el científico alemán Max Planck sugirió en 1900 que la luz, los rayos X y otros tipos de ondas no podían ser emitidos en cantidades arbitrarias, sino sólo en ciertos paquetes que él llamó «cuantos». Además, cada uno de ellos poseía una cierta cantidad de energía que era tanto mayor cuanto más alta fuera la frecuencia de las ondas.

Heisenberg demostró que la incertidumbre en la posición de la partícula, multiplicada por la incertidumbre en su velocidad y por la masa de la partícula, nunca puede ser más pequeña que una cierta cantidad, que se conoce como constante de Planck.

¡no se pueden predecir los acontecimientos futuros con exactitud si ni siquiera se puede medir el estado presente del universo de forma precisa!.

...una nueva teoría llamada mecánica cuántica, basada en el principio de incertidumbre. En esta teoría las partículas ya no poseen posiciones y velocidades definidas por separado, pues éstas no podrían ser observadas. En vez de ello, las partículas tienen un estado cuántico, que es una combinación de posición y velocidad.

En general, la mecánica cuántica no predice un único resultado de cada observación. En su lugar, predice un cierto número de resultados posibles y nos da las probabilidades de cada uno de ellos.

Así pues, la mecánica cuántica introduce un elemento inevitable de incapacidad de predicción, una aleatoriedad en la ciencia. Einstein se opuso fuertemente a ello, a pesar del importante papel que él mismo había jugado en el desarrollo de estas ideas. Einstein recibió el premio Nobel por su contribución a la teoría cuántica. No obstante, Einstein nunca aceptó que el universo estuviera gobernado por el azar. Sus ideas al respecto están resumidas en su famosa frase «Dios no juega a los dados».

La mayoría del resto de los científicos, sin embargo, aceptaron sin problemas la mecánica cuántica porque estaba perfectamente de acuerdo con los experimentos. Verdaderamente, ha sido una teoría con un éxito sobresaliente, y en ella se basan casi toda la ciencia y la tecnología modernas. Gobierna el comportamiento de los transistores y de los circuitos integrados, que son los componentes esenciales de los aparatos electrónicos, tales como televisores y ordenadores, y también es la base de la química y de la biología modernas. Las únicas áreas de las ciencias físicas en las que la mecánica cuántica aún no ha sido adecuadamente incorporada son las de la gravedad y la estructura a gran escala del universo.

Existe así, por tanto, una dualidad entre ondas y partículas en la mecánica cuántica: para algunos fines es útil pensar en las partículas como ondas, mientras que para otros es mejor pensar en las ondas como partículas. Una consecuencia importante de lo anterior, es que se puede observar el fenómeno llamado de interferencia entre dos conjuntos de ondas o de partículas. Es decir, las crestas de uno de los conjuntos de ondas pueden coincidir con los valles del otro conjunto. En este caso los dos conjuntos de ondas se cancelan mutuamente, en vez de sumarse formando una onda más intensa, como se podría esperar.

Al principio de este siglo se creyó que los átomos eran bastante parecidos a los planetas girando alrededor del Sol, con los electrones (partículas de electricidad negativa) girando alrededor del núcleo central, que posee electricidad positiva. Se supuso que la atracción entre la electricidad positiva y la negativa mantendría a los electrones en sus órbitas, de la misma manera que la atracción gravitatoria entre el Sol y los planetas mantiene a éstos en sus órbitas. El problema con este modelo residía en que las leyes de la mecánica y la electricidad predecían, antes de que existiera la mecánica cuántica, que los electrones perderían energía y caerían girando en espiral, hasta que colisionaran con el núcleo. Esto implicaría que el átomo, y en realidad toda la materia, debería colapsarse rápidamente a un estado de muy alta densidad. Una solución parcial a este problema la encontró el científico danés Niels Bohr en 1913. Sugirió que quizás los electrones no eran capaces de girar a cualquier distancia del núcleo central, sino sólo a ciertas distancias especificas. Si también se supusiera que sólo uno o dos elect rones podían orbitar a cada una de estas distancias, se resolvería el problema del colapso del átomo.

La nueva teoría de la mecánica cuántica resolvió esta dificultad. Reveló que un electrón girando alrededor del núcleo podría imaginarse como una onda, con una longitud de onda que dependía de su velocidad. Existirían ciertas órbitas cuya longitud correspondería a un número entero (es decir, un número no fraccionario) de longitudes de onda del electrón. Para estas órbitas las crestas de las ondas estarían en la misma posición en cada giro, de manera que las ondas se sumarían: estas órbitas corresponderían a las órbitas permitidas de Bohr. Por el contrario, para órbitas cuyas longitudes no fueran un número entero de longitudes de onda, cada cresta de la onda sería finalmente cancelada por un valle, cuando el electrón pasara de nuevo; estas órbitas no estarían permitidas. porque los electrones no podrían caer en espiral más allá de lo necesario, para llenar las órbitas correspondientes a las menores distancias y energías.

los teoremas sobre las singularidades, discutidos anteriormente, indican que el campo gravitatorio deberá ser muy intenso en, como mínimo, dos situaciones: los agujeros negros y el big bang. En campos así de intensos, los efectos de la mecánica cuántica tendrán que ser importantes.

En 1911, el físico Ernest Rutherford mostró, finalmente, que los átomos de la materia tienen verdaderamente una estructura interna: están formados por un núcleo extremadamente pequeño y con carga positiva, alrededor del cual gira un cierto número de electrones. Él dedujo esto analizando el modo en que las partículas o¿, que son partículas con carga positiva emitidas por átomos radioactivos, son desviadas al colisionar con los átomos.

...en 1932, un colega de Rutherford, James Chadwick, descubrió en Cambridge que el núcleo contenía otras partículas, llamadas neutrones, que tenían casi la misma masa que el protón, pero que no poseían carga eléctrica. Chadwick recibió el premio Nobel por este descubrimiento. "

Hasta hace veinte años, se creía que los protones y los neutrones eran partículas «elementales», pero experimentos en los que colisionaban protones con otros protones o con electrones a alta velocidad indicaron que, en realidad, estaban formados por partículas más pequeñas. Estas partículas fueron llamadas quarks por el físico de Caltech, Murray Gell-Mann, que ganó el premio Nobel en 1969 por su trabajo sobre dichas partículas.

Existe un cierto número de variedades diferentes de quarks: se cree que hay como mínimo seis flavors ['sabores'], que llamamos up, down, strange, charmed, bottom, y top ['arriba', 'abajo', 'extraño', 'encanto', 'fondo' y 'cima']. Cada flavor puede tener uno de los tres posibles «colores», rojo, verde y azul. (Debe notarse que estos términos son únicamente etiquetas: los quarks son mucho más pequeños que la longitud de onda de la luz visible y, por lo tanto, no poseen ningún color en el sentido normal de la palabra. Se trata solamente de que los físicos modernos parecen tener unas formas más imaginativas de nombrar a las nuevas partículas y fenómenos, ¡ya no se limitan únicamente al griego!) Un protón o un neutrón están constituidos por tres quarks, uno de cada color. Un protón contiene dos quarks up y un quark down; un neutrón contiene dos down y uno up. Se pueden crear partículas constituidas por los otros quarks (strange, charmed, bottom y top), pero todas ellas poseen una masa mucho mayor y decaen muy rápidamente en protones y neutrones.

¿Cuáles son las verdaderas partículas elementales, los ladrillos básicos con los que todas las cosas están hechas? Dado que la longitud de onda de la luz es mucho mayor que el tamaño de un átomo, no podemos esperar «mirar» de manera normal las partes que forman un átomo. Necesitamos usar algo con una longitud de onda mucho más pequeña. Como vimos en el último capítulo, la mecánica cuántica nos dice que todas las partículas son en realidad ondas, y que cuanto mayor es la energía de una partícula, tanto menor es la longitud de onda de su onda correspondiente. Así, la mejor respuesta que se puede dar a nuestra pregunta depende de lo alta que sea la energía que podamos comunicar a las partículas, porque ésta determina lo pequeña que ha de ser la escala de longitudes a la que podemos mirar.

Usando la dualidad onda-partículas todo en el universo, incluyendo la luz y la gravedad, puede ser descrito en términos de partículas. Estas partículas tienen una propiedad llamada espín. Un modo de imaginarse el espín es representando a las partículas como pequeñas peonzas girando sobre su eje. Sin embargo, esto puede inducir a error, porque la mecánica cuántica nos dice que las partículas no tienen ningún eje bien definido. Lo que nos dice realmente el espín de una partícula es cómo se muestra la partícula desde distintas direcciones. Una partícula de espín 0 es como un punto: parece la misma desde todas las direcciones. Por el contrario, una partícula de espín 1 es como una flecha: parece diferente desde direcciones distintas . Sólo si uno la gira una vuelta completa (360 grados) la partícula parece la misma. Una partícula de espín 2 es como una flecha con dos cabezas: parece la misma si se gira media vuelta (180 grados). De forma similar, partículas de espines más altos parecen las mismas si son giradas una fracción más pequeña de una vuelta completa. Todo esto parece bastante simple, pero el hecho notable es que existen partículas que no parecen las mismas si uno las gira justo una vuelta: ¡hay que girarlas dos vueltas completas! Se dice que tales partículas poseen espín 1/2. Todas las partículas conocidas de¡ universo se pueden dividir en dos grupos: partículas de espín 1/2, las cuales forman la materia del universo, y partículas de espín 0, 1 y 2, las cuales, como veremos, dan lugar a las fuerzas entre las partículas materiales. Las partículas materiales obedecen a lo que se llama el principio de exclusión de Pan¡¡. Fue descubierto en 1925 por un físico austriaco, Wolfgang Pauli, que fue galardonado con el premio Nóbel en 1945 por dicha contribución. El principio de exclusión de Pauli dice que dos partículas similares no pueden existir en el mismo estado, es decir, que no pueden tener ambas la misma posición y la misma velocidad, dentro de los límites fijados por el principio de incertidumbre.

La teoría de Dirac fue la primera que era a la vez consistente con la mecánica cuántica y con la teoría de la relatividad especial. Explicó matemáticamente por qué el electrón tenía espín 1/2, es decir, por qué no parecía lo mismo si se giraba sólo una vuelta completa, pero sí que lo hacía si se giraba dos vueltas. También predijo que el electrón debería tener una pareja: el antielectrón o positrón. El descubrimiento del positrón en 1932 confirmó la teoría de Dirac y supuso el que se le concediera el premio Nóbel de física en 1933. Hoy en día sabemos que cada partícula tiene su antipartícula, con la que puede aniquilarse. (En el caso de partículas portadoras de fuerzas, las antipartículas son las partículas mismas.) Podrían existir antimundos y antipersonas enteros hechos de antipartículas. Pero, si se encuentra usted con su antiyó, ¡no le dé la mano! Ambos desaparecerían en un gran destello luminoso. La cuestión de por qué parece haber muchas más partículas que antipartículas a nuestro alrededor es extremadamente importante.

Las partículas portadoras de fuerza se pueden agrupar en cuatro categorías, de acuerdo con la intensidad de la fuerza que trasmiten y con el tipo de partículas con las que interactúan. Es necesario señalar que esta división en cuatro clases es una creación artificioso del hombre; resulta conveniente para la construcción de teorías parciales, pero puede no corresponder a nada más profundo. En el fondo, la mayoría de los físicos esperan encontrar una teoría unificada que explicará las cuatro fuerzas, como aspectos diferentes de una única fuerza. En verdad, muchos dirían que éste es el objetivo principal de la física contemporánea. Recientemente, se han realizado con éxito diversos intentos de unificación de tres de las cuatro categorías de fuerza. La cuestión de la unificación de la categoría restante, la gravedad, se dejará para más adelante.

la fuerza gravitatoria

Esta fuerza es universal, en el sentido de que toda partícula la experimenta, de acuerdo con su masa o energía. La gravedad es la más débil, con diferencia, de las cuatro fuerzas; es tan débil que no la notaríamos en absoluto si no fuera por dos propiedades especiales que posee: puede actuar a grandes distancias, y es siempre atractiva. Esto significa que las muy débiles fuerzas gravitatorias entre las partículas individuales de dos cuerpos grandes, como la Tierra y el Sol, pueden sumarse todas y producir una fuerza total muy significativa. Las otras tres fuerzas o bien son de corto alcance, o bien son a veces atractivas y a veces repulsivas, de forma que tienden a cancelarse. Desde el punto de vista mecano-cuántico de considerar el campo gravitatorio, la fuerza entre dos partículas materiales se representa transmitida por una partícula de espín 2 llamada gravitón. Esta partícula no posee masa propia, por lo que la fuerza que transmite es de largo alcance. La fuerza gravitatoria entre el Sol y la Tierra se atribuye al intercambio de gravitones entre las partículas que forman estos dos cuerpos. Aunque las partículas intercambiadas son virtuales, producen ciertamente un efecto medible: ¡hacen girar a la Tierra alrededor del Sol! Los gravitones reales constituyen lo que los físicos clásicos llamarían ondas gravitatorias, que son muy débiles, y tan difíciles de detectar que aún no han sido observadas.

la fuerza electromagnética

Interactúa con las partículas cargadas eléctricamente, como los electrones y los quarks, pero no con las partículas sin carga, como los gravitones. Es mucho más intensa que la fuerza gravitatoria: la fuerza electromagnética entre dos electrones es aproximadamente un millón de billones de billones de billones (un 1 con cuarenta y dos ceros detrás) de veces mayor que la fuerza gravitatoria. Sin embargo, hay dos tipos de carga eléctrica, positiva y negativa. La fuerza entre dos cargas positivas es repulsiva, al igual que la fuerza entre dos cargas negativas, pero la fuerza es atractiva entre una carga positiva y una negativa. Un cuerpo grande, como la Tierra o el Sol, contiene prácticamente el mismo número de cargas positivas y negativas. Así, las fuerzas atractiva y repulsiva entre las partículas individuales casi se cancelan entre sí, resultando una fuerza electromagnética neta muy débil. Sin embargo, a distancias pequeñas, típicas de átomos y moléculas, las fuerzas electromagnéticas dominan.

La atracción electromagnética entre los electrones cargados negativamente y los protones del núcleo cargados positivamente hace que los electrones giren alrededor del núcleo del átomo, igual que la atracción gravitatoria hace que la Tierra gire alrededor de¡ Sol. La atracción electromagnética se representa causada por el intercambio de un gran número de partículas virtuales sin masa de espín 1, llamadas fotones. De nuevo, los fotones que son intercambiados son partículas virtuales. No obstante, cuando un electrón cambia de una órbita permitida a otra más cercana al núcleo, se libera energía emitiéndose un fotón real, que puede ser observado como luz visible por el ojo humano, siempre que posea la longitud de onda adecuada, o por un detector de fotones, tal como una película fotográfica. Igualmente, si un fotón real colisiona con un átomo, puede cambiar a un electrón de una órbita cercana al núcleo a otra más lejana. Este proceso consume la energía del fotón, que, por lo tanto, es absorbido.

fuerza nuclear débil

Es la responsable de la radioactividad y que actúa sobre todas las partículas materiales de espín 1/2, pero no sobre las partículas de espín 0, 1 o 2, tales como fotones y gravitones. La fuerza nuclear débil no se comprendió bien hasta 1967, en que Abdus Salam y Steven Weinberg, propusieron una teoría que unificaba esta interacción con la fuerza electromagnética, de la misma manera que Maxwell había unificado la electricidad y el magnetismo unos cien años antes. Sugirieron que además del fotón había otras tres partículas de espín 1, conocidas colectivamente como bosones vectoriales masivos, que transmiten la fuerza débil. Estas partículas se conocen como W+ (que se lee W más), W- (que se lee W menos) y Z0 (que se lee Z cero), y cada una posee una masa de unos 100 GeV (GeV es la abreviatura de gigaelectrón-voltio, o mil millones de electrón-voltios). La teoría de Weinberg-Salam propone una propiedad conocida como ruptura de simetría espontánea. Esto quiere decir que lo que, a bajas energías, parece ser un cierto número de partículas totalmente diferentes es, en realidad, el mismo tipo de partícula, sólo que en estados diferentes. A altas energías todas estas partículas se comportan de manera similar. El efecto es parecido al comportamiento de una bola de ruleta sobre la rueda de la ruleta. A altas energías (cuando la rueda gira rápidamente) la bola se comporta esencialmente de una única manera, gira dando vueltas una y otra vez. Pero conforme la rueda se va frenando, la energía de la bola disminuye, hasta que al final la bola se para en uno de los treinta y siete casilleros de la rueda. En otras palabras, a bajas energías hay treinta y siete estados diferentes en los que la bola puede existir. Si, por algún motivo, sólo pudiéramos ver la bola a bajas energías, entonces ¡pensaríamos que había treinta y siete tipos diferentes de bolas! En 1979, Salam y Weinberg fueron galardonados con el premio Nobel de física, junto con Sheldon Glashow que había sugerido una teoría similar de unificación de las fuerzas electromagnéticas y nucleares débiles. El comité de los premios Nobel se salvó del riesgo de haber cometido un error al descubrirse, en 1983 en el CERN (Centro Europeo para la Investigación Nuclear), las tres partículas con masa compañeras del fotón, y cuyas masas y demás propiedades estaban de acuerdo con las predichas por la teoría. Carlo Rubbia, que dirigía el equipo de varios centenares de físicos que hizo el descubrimiento, recibió el premio Nobel, junto con Simon van der Meer, el ingeniero del CERN que desarrolló el sistema de almacenamiento de antimateria empleado.

fuerza nuclear fuerte

Es la que mantiene a los quarks unidos en el protón y el neutrón, y a los protones y neutrones juntos en los núcleos de los átomos. Se cree que esta fuerza es trasmitida por otra partícula de espín 1, llamada gluón, que sólo interactúa consigo misma y con los quarks. La interacción nuclear posee una curiosa propiedad llamada confinamiento: siempre liga a las partículas en combinaciones tales que el conjunto total no tiene color. No se puede tener un único quark aislado porque tendría un color (rojo, verde o azul). Por el contrario, un quark rojo tiene que juntarse con un quark verde y uno azul por medio de una «cuerda» de gluones (rojo + verde + azul = blanco). Un triplete así, constituye un protón o un neutrón. Otra posibilidad es un par consistente en un quark y un antiquark (rojo + antirrojo, o verde + antiverde, o azul + antiazul = blanco). Tales combinaciones forman las partículas conocidas como mesones, que son inestables porque el quark y el antiquark se pueden aniquilar entre sí, produciendo electrones y otras partículas. Similarmente, el confinamiento impide que se tengan gluones aislados, porque los gluones en sí también tienen color. En vez de ello, uno tiene que tener una colección de gluones cuyos colores se sumen para dar el color blanco. Esta colección forma una partícula inestable llamada glueball ('bola de gluones').

Experimentos realizados con grandes aceleradores de partículas indican que a altas energías la interacción fuerte se hace mucho menos intensa, y los quarks y los gluones se comportan casi como partículas.

La idea básica de las TGU es la siguiente: la interacción nuclear fuerte se hace menos intensa a altas energías; por el contrario, las fuerzas electromagnéticas y débiles, que no son asintóticamente libres, se hacen más intensas a altas energías. A determinada energía muy alta, llamada energía de la gran unificación, estas tres fuerzas deberían tener todas la misma intensidad y sólo ser, por tanto, aspectos diferentes de una única fuerza. Las TGU predicen, además, que a esta energía las diferentes partículas materiales de espín 112, como los quarks y los electrones, también serían esencialmente iguales, y se conseguiría así otra unificación. El valor de la energía de la gran unificación no se conoce demasiado bien, pero probablemente tendría que ser como mínimo de mil billones de GeV. La generación actual de aceleradores de partículas puede hacer colisionar partículas con energías de aproximadamente 100 GeV, y están planeadas unas máquinas que elevarían estas energías a unos pocos de miles de GeV.

La más interesante de ellas es la predicción de que los protones, que constituyen gran parte de la masa de la materia ordinaria, pueden decaer espontáneamente en partículas más ligeras, tales como antielectrones. Esto es posible porque en la energía de la gran unificación no existe ninguna diferencia esencial entre un quark y un antielectrón.

La materia de la Tierra está formada principalmente por protones y neutrones, que a su vez están formados por quarks. No existen antiprotones o antineutrones, hechos de antiquarks, excepto unos pocos que los físicos producen en grandes aceleradores de partículas. Tenemos evidencia, a través de los rayos cósmicos, de que lo mismo sucede con la materia de nuestra galaxia: no hay antiprotones o antineutrones, aparte de unos pocos que se producen como pares partícula/antipartícula en colisiones de altas energías. Si hubiera extensas regiones de antimateria en nuestra galaxia, esperaríamos observar grandes cantidades de radiación proveniente de los límites entre las regiones de materia y antimateria, en donde muchas partículas colisionarían con sus antipartículas, y se aniquilarían entre sí, desprendiendo radiación de alta energía.

Es decir, un universo formado por antipartículas se comportaría de manera diferente al nuestro.

Las teorías de gran unificación no incluyen a la fuerza de la gravedad. Lo cual no importa demasiado, porque la gravedad es tan débil que sus efectos pueden normalmente ser despreciados cuando estudiamos partículas o átomos. Sin embargo, el hecho de que sea a la vez de largo alcance y siempre atractiva significa que sus efectos se suman. Así, para un número de partículas materiales suficientemente grande, las fuerzas gravitatorias pueden dominar sobre todas las demás. Por ello, la gravedad determina la evolución del universo. Incluso para objetos del tamaño de una estrella, la fuerza atractiva de la gravedad puede dominar sobre el resto de las fuerzas y hacer que la estrella se colapse. Mi trabajo en los años setenta se centró en los agujeros negros que pueden resultar de un colapso estelar y en hs intensos campos gravitatorios existentes a su alrededor. Fue eso lo que nos condujo a las primeras pistas de cómo las teorías de la mecánica cuántica y de la relatividad general podrían relacionarse entre sí: un vislumbre de la forma que tendría una venidera teoría cuántica de la gravedad.

No apareció una teoría consistente de cómo la gravedad afecta a la luz hasta que Einstein propuso la relatividad general, en 1915. E incluso entonces, tuvo que transcurrir mucho tiempo antes de que se comprendieran las ¡aplicaciones de la teoría acerca de las estrellas masivas.

Para entender cómo se podría formar un agujero negro, tenemos que tener ciertos conocimientos acerca del ciclo vital de una estrella. Una estrella se forma cuando una gran cantidad de gas, principalmente hidrógeno, comienza a colapsar sobre sí mismo debido a su atracción gravitatoria. Conforme se contrae, sus átomos empiezan a colisionar entre sí, cada vez con mayor frecuencia y a mayores velocidades: el gas se calienta. Con el tiempo, el gas estará tan caliente que cuando los átomos de hidrógeno choquen ya no saldrán rebotados, sino que se fundirán formando helio. El calor desprendido por la reacción, que es como una explosión controlada de una bomba de hidrógeno, hace que la estrella brille. Este calor adicional también aumenta la presión del gas hasta que ésta es suficiente para equilibrar la atracción gravitatoria, y el gas deja de contraerse. Se parece en cierta medida a un globo. Existe un equilibrio entre la presión del aire de dentro, que trata de hacer que el globo se hinche, y la tensión de la goma, que trata de disminuir el tamaño del globo. Las estrellas permanecerán estables en esta forma por un largo período, con el calor de las reacciones nucleares equilibrando la atracción gravitatoria. Finalmente, sin embargo, la estrella consumirá todo su hidrógeno y los otros combustibles nucleares.

Paradójicamente, cuanto más combustible posee una estrella al principio, más pronto se le acaba. Esto se debe a que cuanto más masiva es la es estrella más caliente tiene que estar para contrarrestar la atracción gravitatoria, y, cuanto mas caliente está, más rápidamente utiliza su combustible. Nuestro Sol tiene probablemente suficiente combustible para otros cinco mil millones de años aproximadamente, pero estrellas más masivas pueden gastar todo su combustible en tan sólo cien millones de años, mucho menos que la edad del universo. Cuando una estrella se queda sin combustible, empieza a enfriarse y por lo tanto a contraerse. Lo que puede sucederle a partir de ese momento sólo se empezó a entender al final de los años veinte.

E incluso si todas las estrellas se las arreglaran para perder la masa suficiente como para evitar el colapso, ¿qué sucedería si se añadiera más masa a una enana blanca o a una estrella de neutrones, de manera que se sobrepasara el límite? ¿Se colapsaría alcanzando una densidad infinita? Eddington se asombró tanto por esta conclusión que rehusó creerse el resultado de Chandrasekhar. Pensó que era simplemente imposible que una estrella pudiera colapsarse y convertirse en un punto. Este fue el criterio de la mayoría de los científicos: el mismo Einstein escribió un artículo en el que sostenía que las estrellas no podrían encogerse hasta tener un tamaño nulo. La hostilidad de otros científicos, en particular de Eddington, su antiguo profesor y principal autoridad en la estructura de las estrellas, persuadió a Chandrasekhar a abandonar esta línea de trabajo y volver su atención hacia otros problemas de astronomía, tales como el movimiento de los grupos de estrellas. Sin embargo, cuando se le otorgó el premio Nóbel en 1983, fue, al menos en parte, por sus primeros trabajos sobre la masa límite de las estrellas frías.

De acuerdo con la teoría de la relatividad, nada puede viajar más rápido que la luz. Así si la luz no puede escapar, tampoco lo puede hacer ningún otro objeto-, todo es arrastrado por el campo gravitatorio. Por lo tanto, se tiene un conjunto de sucesos, una región del espacio-tiempo, desde donde no se puede escapar y alcanzar a un observador lejano. Esta región es lo que hoy en día llamamos un agujero negro. Su frontera se denomina el horizonte de sucesos y coincide con los caminos de los rayos luminosos que están justo a punto de escapar del agujero negro, pero no lo consiguen.

El trabajo que Roger Penrose y yo hicimos entre 1965 y 1970 demostró que, de acuerdo con la relatividad general, debe haber una singularidad de densidad y curvatura de¡ espaciotiempo infinitas dentro de un agujero negro. La situación es parecida al big bang al principio del tiempo, sólo que sería el final, en vez del principio del tiempo,

...el horizonte de sucesos es el camino en el espacio-tiempo de la luz que está tratando de escapar del agujero negro, y nada puede viajar más rápido que la luz.) Uno podría decir del horizonte de sucesos lo que el poeta Dante dijo a la entrada del infierno: «Perded toda esperanza al traspasarme». Cualquier cosa o persona que cae a través del horizonte de sucesos pronto alcanzará la región de densidad infinita y el final del tiempo.

PSR 1913+16 (PSR se refiere a «pulsar», un tipo especial de estrella de neutrones que emite pulsos regulares de ondas de radio). Este sistema contiene dos estrellas de neutrones girando una alrededor de la otra; la energía que están perdiendo, debido a la emisión de ondas gravitatorias, les hace girar entre sí en espiral.

Así, después de un colapso gravitatorio, un agujero negro se debe asentar en un estado en el que puede rotar, pero no puede tener pulsaciones [es decir, aumentos y disminuciones periódicas de su tamaño].

Los agujeros negros son un caso, entre unos pocos en la historia de la ciencia, en el que la teoría se desarrolla en gran detalle como un modelo matemático, antes de que haya ninguna evidencia a través de las observaciones de que aquélla es correcta. En realidad, esto constituía el principal argumento de los oponentes de los agujeros negros: ¿cómo podría uno creer en objetos cuya única evidencia eran cálculos basados en la dudosa teoría de la relatividad general?

Una estrella de neutrones posee un radio de unos quince kilómetros, sólo una pequeña cantidad de veces el radio crítico en que una estrella se convierte en un agujero negro. Si una estrella podía colapsarse hasta un tamaño tan pequeño, no era ¡lógico esperar que otras estrellas pudieran colapsar a tamaños incluso menores y se convirtieran en agujeros negros.

La atracción gravitatoria extra de un número tan grande de agujeros negros podría explicar por qué nuestra galaxia gira a la velocidad con que lo hace: la masa de las estrellas visibles es insuficiente para explicarlo. También tenemos alguna evidencia de que existe un agujero negro mucho mayor, con una masa de aproximadamente cien mil veces la del Sol, en el centro de nuestra galaxia.

Se piensa que agujeros negros similares, pero más grandes, con masas de unos cien millones de veces la del Sol, existen en el centro de los quasars. La materia que cae en dichos agujeros negros supermasivos proporcionaría la única fuente de potencia lo suficientemente grande como para explicar las enormes cantidades de energía que estos objetos emiten. Cuando la materia cayera en espiral hacia el agujero negro, haría girar a éste en la misma dirección, haciendo que desarrollara un campo magnético parecido al de la Tierra. Partículas de altísimas energías se generarían cerca del agujero negro a causa de la materia que caería. El campo magnético sería tan intenso que podría enfocar a esas partículas en chorros inyectados hacia fuera, a lo largo del eje de rotación del agujero negro, en las direcciones de sus polos norte y sur. Tales chorros son verdaderamente observados en cierto número de galaxias y quasars.

El comportamiento no decreciente del área de un agujero negro recordaba el comportamiento de una cantidad física llamada entropía, que mide el grado de desorden de un sistema.

Un enunciado preciso de esta idea se conoce como segunda ley de la termodinámica. Dice que la entropía de un sistema aislado siempre aumenta, y que cuando dos sistemas se juntan, la entropía del sistema combinado es mayor que la suma de las entropías de los sistemas individuales.

un estudiante llamado Jacob Bekenstein, sugirió que el área del horizonte de sucesos era una medida de la entropía del agujero negro. Cuando materia portadora de entropía cae en un agujero negro, el área de su horizonte de sucesos aumenta, de tal modo que la suma de la entropía de la materia fuera de los agujeros negros y del área de los horizontes nunca disminuye.

Normalmente, la energía de la partícula aún sigue siendo positiva, pero el campo gravitatorio dentro de un agujero negro es tan intenso que incluso una partícula real puede tener allí energía negativa. Es, por lo tanto, posible, para la partícula virtual con energía negativa, si está presente un agujero negro, caer en el agujero negro y convertirse en una partícula o antipartícula real. En este caso, ya no tiene que aniquilarse con su pareja. Su desamparado compañero puede caer así mismo en el agujero negro. 0, al tener energía positiva, también puede escaparse de las cercanías del agujero negro como una partícula o antipartícula real. Para un observador lejano, parecerá haber sido emitida desde el agujero negro. Cuanto más pequeño sea el agujero negro, menor será la distancia que la partícula con energía negativa tendrá que recorrer antes de convertirse en un partícula real y, por consiguiente, mayores serán la velocidad de emisión y la temperatura aparente del agujero negro.

Si se tuviera uno de estos agujeros negros en la superficie de la Tierra, no habría forma de conseguir que no se hundiera en el suelo y llegara al centro de la Tierra. Oscilaría a través de la Tierra, en uno y otro sentido, hasta que al final se pararía en el centro.


simulación colisión de agujeros negros / 2006

La idea de la existencia de radiación proveniente de agujeros negros fue el primer ejemplo de una predicción que dependía de un modo esencial de las dos grandes teorías de nuestro siglo, la relatividad general y la mecánica cuántica. Al principio, levantó una fuerte oposición porque trastocó el punto de vista existente: «¿cómo puede un agujero negro emitir algo?». Cuando anuncié por primera vez los resultados de mis cálculos en una conferencia dada en el laboratorio Rutherford- Appleton, en las cercanías de Oxford, fui recibido con gran incredulidad. Al final de la charla, el presidente de la sesión, John G. Taylor del Kings College de Londres, afirmó que mis resultados no tenían ningún sentido. Incluso escribió un artículo en esta línea. No obstante, al final, la mayor parte de los científicos, incluido John Taylor, han llegado a la conclusión de que los agujeros negros deben radiar igual que cuerpos calientes, si todas nuestras otras ideas acerca de la relatividad general y de la mecánica cuántica son correctas. Así, a pesar de que aún no hemos conseguido encontrar un agujero negro primitivo, existe un consenso bastante general de que si lo encontráramos tendría que estar emitiendo una gran cantidad de rayos gamma y de rayos X. 

Incluso los tipos de partículas que fueran emitidos finalmente por el agujero negro serían en general diferentes de aquellos que formaban parte del astronauta: la única característica del astronauta que sobreviviría sería su masa o energía.

Estamos, por consiguiente, bastante seguros de que tenemos la imagen correcta, al menos a partir de aproximadamente un segundo después del big bang.

Las primeras formas primitivas de vida consumirían diversos materiales, incluyendo sulfuro de hidrógeno, y desprenderían oxígeno. Esto cambió gradualmente la atmósfera, hasta llegar a la composición que tiene hoy día, y permitió el desarrollo de formas de vida superiores, como los peces, reptiles, mamíferos y, por último, el género humano.

El espacio-tiempo tendría una frontera, un comienzo en el big bang.

para llegar a donde estamos tuvo que formarse primero una generación previa de estrellas. Estas estrellas convirtieron una parte del hidrógeno y del helio originales en elementos como carbono y oxígeno, a partir de los cuales estamos hechos nosotros. Las estrellas explotaron luego como supernovas, y sus despojos formaron otras estrellas y planetas, entre ellos los de nuestro sistema solar, que tiene alrededor de cinco mil millones de años. Los primeros mil o dos mil millones de años de la existencia de la Tierra fueron demasiado calientes para el desarrollo de cualquier estructura complicada. Los aproximadamente tres mil millones de años restantes han estado dedicados al lento proceso de la evolución biológica, que ha conducido desde los organismos más simples hasta seres que son capaces de medir el tiempo transcurrido desde el big bang.

Esto significa que en el estado inicial del universo tendría que haber habido exactamente la misma temperatura en todas partes, para explicar el hecho de que la radiación de fondo de microondas tenga la misma temperatura en todas las direcciones en que miremos.

Hay algo así como diez billones de billones de billones de billones de billones de billones de billones (un 1 con ochenta y cinco ceros detrás) de partículas en la región del universo que nosotros podemos observar. ¿De dónde salieron todas ellas?

Hay algo así como diez billones de billones de billones de billones de billones de billones de billones (un 1 con ochenta y cinco ceros detrás) de partículas en la región del universo que nosotros podemos observar. ¿De dónde salieron todas ellas- La respuesta es que, en la teoría cuántica, las partículas pueden ser creadas a partir de la energía en la forma de pares partícula/antipartícula. Pero esto simplemente plantea la cuestión de dónde salió la energía. La respuesta es que la energía total del universo es exactamente cero. La materia del universo está hecha de energía positiva. Sin embargo, toda la materia está atrayéndose a sí misma mediante la gravedad. Dos pedazos de materia que estén próximos el uno al otro tienen menos energía que los dos mismos trozos muy separados, porque se ha de gastar energía para separarlos en contra de la fuerza gravitatoria que los está uniendo. Así, en cierto sentido, el campo gravitatorio tiene energía negativa. En el caso de un universo que es aproximadamente uniforme en el espacio, puede demostrarse que esta energía gravitatoria negativa cancela exactamente a la energía positiva correspondiente a la materia. De este modo, la energía total del universo es cero.

Por consiguiente, el universo puede duplicar la cantidad de energía positiva de materia y también duplicar la energía gravitatoria negativa, sin violar la conservación de la energía.

...gravedad cuántica.

En segundo lugar, cualquier modelo que describiese el universo entero en detalle sería demasiado complicado matemáticamente para que fuésemos capaces de calcular predicciones exactas. Por consiguiente, hay que hacer suposiciones simplificadoras y aproximaciones; e incluso entonces el problema de obtener predicciones sigue siendo formidable.

...nuestras concepciones sobre la naturaleza del tiempo han cambiado con los años. Hasta comienzos de este siglo la gente creía en el tiempo absoluto. Es decir, en que cada suceso podría ser etiquetado con un número llamado «tiempo» de una forma única, y todos los buenos relojes estarían de acuerdo en el intervalo de tiempo transcurrido entre dos sucesos. Sin embargo, el descubrimiento de que la velocidad de la luz resultaba ser la misma para todo observador, sin importar cómo se estuviese moviendo éste, condujo a la teoría de la relatividad, y en ésta tenía que abandonarse la idea de que había un tiempo absoluto único. En lugar de ello, cada observador tendría su propia medida del tiempo, que sería la registrada por un reloj que él llevase consigo: relojes correspondientes a diferentes observadores no coincidirían necesariamente. De este modo, el tiempo se convirtió en un concepto más personal, relativo al observador que lo medía.

La explicación que se da usualmente de por qué no vemos vasos rotos recomponiéndose ellos solos en el suelo y saltando hacia atrás sobre la mesa, es que lo prohibe la segunda ley de la termodinámica. Esta ley dice que en cualquier sistema cerrado el desorden, o la entropía, siempre aumenta con el tiempo.

Consideremos las piezas de un rompecabezas en una caja. Hay un orden, y sólo uno, en el cual las piezas forman una imagen completa. Por otra parte, hay un número muy grande de disposiciones en las que las piezas están desordenadas y no forman una imagen.

El que con el tiempo aumente el desorden o la entropía es un ejemplo de lo que se llama una flecha del tiempo, algo que distingue el pasado del futuro dando una dirección al tiempo. Hay al menos tres flechas del tiempo diferentes. Primeramente, está la flecha termodinámica, que es la dirección del tiempo en la que el desorden o la entropía aumentan. Luego está la flecha psicológica. Esta es la dirección en la que nosotros sentimos que pasa el tiempo, la dirección en la que recordamos el pasado pero no el futuro.

Finalmente, está la flecha cosmológica. Esta es la dirección del tiempo en la que el universo está expandiéndose en vez de contrayéndose.

El desorden aumenta con el tiempo porque nosotros medimos el tiempo en la dirección en la que el desorden crece.

Cuando la curvatura del espacio-tiempo se hace grande, los efectos gravitatorios cuánticos se volverán importantes, y la teoría clásica dejará de constituir una buena descripción del universo. Debe emplearse una teoría cuántica de la gravedad para comprender cómo comenzó el universo.

Para resumir, las leyes de la ciencia no distinguen entre las direcciones hacia adelante y hacia atrás del tiempo. Sin embargo, hay al menos tres flechas del tiempo que sí distinguen el pasado del futuro. Son la flecha termodinámica, la dirección del tiempo en la cual el desorden aumenta; la flecha psicológica, la dirección del tiempo según la cual recordamos el pasado y no el futuro; y la flecha cosmológica, la dirección del tiempo en la cual el universo se expande en vez de contraerse.

Si usted recuerda cada palabra de este libro, su memoria habrá grabado alrededor de dos millones de unidades de información: el orden en su cerebro habrá aumentado aproximadamente dos millones de unidades. Sin embargo, mientras usted ha estado leyendo el libro, habrá convertido al menos mil calorías de energía ordenada, en forma de alimento, en energía desordenada, en forma de calor que usted cede al aire de su alrededor a través de convención y sudor. Esto aumentará el desorden del universo en unos veinte billones de billones de unidades - o aproximadamente diez millones de billones de veces el aumento de orden de su cerebro y eso si usted recuerda todo lo que hay en este libro.

...los escritores de ciencia ficción tienen que suponer que algún día descubriremos como viajar mas rápido que la luz. Lo que la mayoría de esos escritores no parece haber descubierto es que si uno puede viajar mas rápido que la luz, entonces la relatividad implica que uno también puede viajar hacia atrás en el tiempo,

Existe un problema con la ruptura de la barrera de la velocidad de la luz. La teoría de la relatividad nos dice que la potencia del cohete necesaria para acelerar la nave espacial aumenta cada vez mas conforme nos acercamos a la velocidad de la luz. Tenemos evidencias experimentales de ello, no con naves espaciales, pero si con partículas elementales en los aceleradores de partículas como el del Fermilab o el del CERN (Centro Europeo para la investigación Nuclear). Podemos acelerar partículas hasta un 99,99 por 100 de la velocidad de la luz, pero, por mucha más potencia que les suministremos, no podemos hacer que vayan mas allá de la barrera de la velocidad de la luz. Igual ocurre con las naves espaciales: independientemente de la potencia que les suministremos, nunca pueden acelerarse por encima de la velocidad de la luz.

La teoría cuántica permite que la densidad de energía sea negativa en algunos lugares, con tal de que esto sea compensado con energía positiva en otros, de forma que la energía total siempre sea positiva.

Conjetura de protección cronológica. Esta nos dice que las leyes de la fisica conspiran para prevenir que objetos macroscópicos transporten información al pasado

Sería muy difícil construir de un golpe una teoría unificada completa de todo el universo. Así que, en lugar de ello, hemos hecho progresos por medio de teorías parciales, que describen una gama limitada de acontecimientos y omiten otros o los aproximan por medio de ciertos números.

En última instancia, se tiene la esperanza de encontrar una teoría unificada, consistente, completa, que incluiría a todas esas teorías parciales como aproximaciones, y que para que cuadraran los hechos no necesitaría ser ajustada mediante la selección de los valores de algunos números arbitrarios. La búsqueda de una teoría como ésa se conoce como «la unificación de la física». Einstein empleó la mayor parte de sus últimos años en buscar infructuosamente esta teoría unificada, pero el momento aún no estaba maduro: había teorías parciales para la gravedad y para la fuerza electromagnética, pero se conocía muy poco sobre las fuerzas nucleares. Además, Einstein se negaba a creer en la realidad de la mecánica cuántica, a pesar del importante papel que él había jugado en su desarrollo. Sin embargo, parece ser que el principio de incertidumbre es una característica fundamental del universo en que vivimos. Una teoría unificada que tenga éxito tiene, por lo tanto, que incorporar necesariamente este principio.


Un primer paso necesario, por consiguiente, consiste en combinar la relatividad general con el principio de incertidumbre. Como hemos visto, ello puede tener algunas consecuencias muy notables, como que los agujeros negros no sean negros, y que el universo no tenga ninguna singularidad sino que sea completamente auto contenido y sin una frontera. El problema es que el principio de incertidumbre implica que el espacio «vacío» está lleno de pares de partículas y antipartículas virtuales. Estos pares tendrían una cantidad infinita de energía y, por consiguiente, a través de la famosa ecuación de Einstein E=mc2, tendrían una cantidad infinita de masa. Su atracción gravitatoria curvaría, por tanto, el universo hasta un tamaño infinitamente pequeño.

Las teorías de cuerdas, sin embargo, presentan un problema mayor: parecen ser consistentes ¡sólo si el espacio-tiempo tiene o diez o veintiséis dimensiones, en vez de las cuatro usuales!.

¿Por qué no notamos todas esas dimensiones extra, si están realmente ahí? ¿Por qué vemos solamente tres dimensiones espaciales y una temporal? La sugerencia es que las otras dimensiones están curvadas en un espacio Muy pequeño, algo así como una billonésima de una billonésima de una billonésima de un centímetro Eso es tan pequeño que sencillamente no lo notamos; vemos solamente una dimensión temporal y tres espaciales, en las cuales el espacio-tiempo es bastante plano. Es como la superficie de una naranja: si se la mira desde muy cerca está toda curvada y arrugada, pero si se la mira a distancia no se ven las protuberancias y parece que es lisa. Lo mismo ocurre con el espacio-tiempo: a una escala muy pequeña tiene diez dimensiones y está muy curvado, pero a escalas mayores no se ven ni la curvatura ni las dimensiones extra. Si esta imagen fuese correcta, presagiaría malas noticias para los aspirantes a viajeros: las dimensiones extra serían con mucho demasiado pequeñas para admitir una nave espacial entera. Plantea, sin embargo, otro problema importante. ¿Por qué deben estar arrolladas en un pequeño ovillo algunas de las dimensiones, pero no todas? Presumiblemente, en el universo primitivo todas las dimensiones habrían estado muy curvadas. ¿Por qué sólo se aplanaron una dimensión temporal y tres espaciales, mientras que las restantes dimensiones permanecieron fuertemente arrolladas?.

Parece evidente que la vida, al menos como nosotros la conocemos, puede existir solamente en regiones del espacio-tiempo en las que una dimensión temporal y tres dimensiones espaciales no están muy arrolladas.

¿puede haber en realidad una tal teoría unificada? ¿O estamos tal vez persiguiendo únicamente un espejismo? Parece haber tres posibilidades:

Existe realmente una teoría unificada completa, que descubriremos algún día si somos lo suficientemente inteligentes.

No existe ninguna teoría definitiva del universo, sino una sucesión infinita de teorías que describen el universo cada vez con más precisión.

No hay ninguna teoría del universo; los acontecimientos no pueden predecirse más allá de cierto punto, ya que ocurren de una manera aleatoria y arbitraria.

No sería, por tanto, muy sorprendente si la generación actual de teorías de gran unificación estuviese equivocada, al pretender que nada esencialmente nuevo ocurrirá entre la energía de unificación electrodébil, de alrededor de 100 GeV, y la energía de gran unificación, de alrededor de mil billones de GeV. Podríamos, en verdad, esperar encontrar varios niveles de estructura más básicos que los quarks y electrones que ahora consideramos como partículas «elementales».

Sin embargo, parece que la gravedad puede poner un límite a esta sucesión de «cajas dentro de cajas». Si hubiese una partícula con una energía por encima de lo que se conoce como energía de Planck, diez millones de billones de GeV (un 1 seguido de diecinueve ceros), su masa estaría tan concentrada que se amputaría ella misma del resto del universo y formaría un pequeño agujero negro.

La mecánica cuántica se ocupa de esta situación mediante un tipo de teorías cuánticas en las que las partículas no tienen posiciones ni velocidades bien definidas, sino que están representadas por una onda. Estas teorías cuánticas son deterministas en el sentido de que proporcionan leyes sobre la evolución de la onda en el tiempo. Así, si se conoce la onda en un instante, puede calcularse en cualquier otro instante. El elemento aleatorio, impredecible, entra en juego sólo cuando tratamos de interpretar la onda en términos de las posiciones y velocidades de partículas. Pero quizás ése es nuestro error: tal vez no existan posiciones y velocidades de partículas, sino sólo ondas. Se trata simplemente de que intentamos ajustar las ondas a nuestras ideas preconcebidas de posiciones y velocidades. El mal emparejamiento que resulta es la causa de la aparente impredictibilidad.

http://map.gsfc.nasa.gov/m_mm.html

k-band map ( 23 ghz ) ka-band map ( 33 ghz )

q-band map ( 41 ghz ) v-band map ( 61 ghz )

v-band map ( 61 ghz )w-band map ( 94 ghz )

Nunca podríamos estar suficientemente seguros de haber encontrado verdaderamente la teoría correcta, ya que las teorías no pueden ser demostradas. Pero si la teoría fuese matemáticamente consistente e hiciese predicciones que concordasen siempre con las observaciones, podríamos estar razonablemente seguros de que se trataría de la correcta. Llegaría a su fin un largo y glorioso capítulo en la historia de la lucha intelectual de la humanidad por comprender el universo. Pero ello también revolucionaría la comprensión de las leyes que lo gobiernan por parte de las personas corrientes. En la época de Newton, era posible, para una persona instruida, abarcar todo el conocimiento humano, al menos en términos generales. Pero, desde entonces, el ritmo de desarrollo de la ciencia lo ha hecho imposible. Debido a que las teorías están siendo modificadas continuamente para explicar nuevas observaciones, nunca son digeridas debidamente o simplificadas de manera que la gente común pueda entenderlas...

Es necesario ser un especialista, e incluso entonces sólo se puede tener la esperanza de dominar correctamente una pequeña parte de las teorías científicas. Además, el ritmo de progreso es tan rápido que lo que se aprende en la escuela o en la universidad está siempre algo desfasado. Sólo unas pocas personas pueden ir al paso del rápido avance de la frontera del conocimiento, y tienen que dedicar todo su tiempo a ello y especializarse en un área reducida. El resto de la población tiene poca idea de los adelantos que se están haciendo o de la expectación que están generando. Hace setenta años, si teníamos que creer a Eddington, sólo dos personas entendían la teoría general de la relatividad. Hoy en día decenas de miles de graduados universitarios la entienden y a muchos millones de personas les es al menos familiar la idea. Si se descubriese una teoría unificada completa, sería sólo una cuestión de tiempo el que fuese digerida y simplificada del mismo modo y enseñada en las escuelas, al menos en términos generales. Todos seríamos capaces, entonces, de poseer alguna comprensión de las leyes que gobiernan el universo y son responsables de nuestra existencia. Incluso si descubriésemos una teoría unificada completa, ello no significaría que fuésemos capaces de predecir acontecimientos en general, por dos razones. La primera es la limitación que el principio de incertidumbre de la mecánica cuántica establece sobre nuestra capacidad de predicción. No hay nada que podamos hacer para darle la vuelta a esto. En la-práctica, sin embargo, esta primera limitación es menos restrictiva que la segunda. Ésta surge del hecho de que no podríamos resolver exactamente las ecuaciones de la teoría, excepto en situaciones muy sencillas. (Incluso no podemos resolver exactamente el movimiento de tres cuerpos en la teoría de la gravedad de Newton, y la dificultad aumenta con el número de cuerpos y la complejidad de la teoría.)

Conocemos ya las leyes que gobiernan el comportamiento de la materia en todas las condiciones excepto en las más extremas. En particular, conocemos las leyes básicas que subyacen bajo toda la química y la biología. Ciertamente, aún no hemos reducido estas disciplinas al estado de problemas resueltos; ¡hemos tenido, hasta ahora, poco éxito prediciendo el comportamiento humano a partir de ecuaciones matemáticas! Por lo tanto, incluso si encontramos un conjunto completo de leyes básicas, quedará todavía para los años venideros la tarea intelectualmente retadora de desarrollar mejores métodos de aproximación, de modo que podamos hacer predicciones útiles sobre los resultados probables en situaciones complicadas y realistas.

Una teoría unificada completa, consistente, es sólo el primer paso: nuestra meta es una completa comprensión de lo que sucede a nuestro alrededor y de nuestra propia existencia.

Hasta ahora, la mayoría de los científicos han estado demasiado ocupados con el desarrollo de nuevas teorías que describen cómo es el universo para hacerse la pregunta de por qué. Por otro lado, la gente cuya ocupación es preguntarse por qué, los filósofos, no han podido avanzar al paso de las teorías científicas. En el siglo XVIII, los filósofos consideraban todo el conocimiento humano, incluida la ciencia, como su campo, y discutían cuestiones como, ¿tuvo el universo un principio- Sin embargo, en los siglos xix y xx, la ciencia se hizo demasiado técnica y matemática para ellos, y para cualquiera, excepto para unos pocos especialistas. Los filósofos redujeron tanto el ámbito de sus indagaciones que Wittgenstein, el filósofo más famoso de este siglo, dijo: «la única tarea que le queda a la filosofía es el análisis del lenguaje». ¡Que distancia desde la gran tradición filosófica de Aristóteles a Kant!

La vida de Einstein estuvo de hecho, utilizando sus propias palabras, "dividida entre la política y las ecuaciones".

La primera actividad política de Einstein tuvo lugar durante la primera guerra mundial, cuando era profesor en Berlín. Asqueado por lo que entendía como un despilfarro de vidas humanas, se sumó a las manifestaciones antibélicas. Su defensa de la desobediencia civil y su aliento público para que la gente rechazase el servicio militar obligatorio no le granjearon las simpatías de sus colegas. Luego, después de la guerra, dirigió sus esfuerzos hacia la reconciliación y la mejora de las relaciones internacionales. Esto tampoco le hizo popular, y pronto sus actitudes políticas le hicieron difícil el poder visitar los Estados Unidos, incluso para dar conferencias.

En 1933, Hitler llegó al poder. Einstein estaba en América, y declaró que no regresaría a Alemania. Luego, mientras la milicia nazi invadía su casa y confiscaba su cuenta bancaria, un periódico de Berlín desplegó en titulares, «Buenas noticias de Einstein: no vuelve». Ante la amenaza nazi, Einstein renunció al pacifismo, y, finalmente, temiendo que los científicos alemanes construyesen una bomba nuclear, propuso que los Estados Unidos fabricasen la suya. Pero, incluso antes de que estallara la primera bomba atómica advertía públicamente sobre los peligros de la guerra nuclear y proponía el control internacional de las armas atómicas.

Isaac Newton no era un hombre afable. Sus relaciones con otros académicos fueron escandalosas, pasando la mayor parte de sus últimos tiempos enredado en acaloradas disputas. Después de la publicación de los Principia Mathematica (seguramente el libro más influyente jamás escrito en el campo de la física), Newton había ascendido rápidamente en importancia pública. Fue nombrado presidente de la Royal Society, y se convirtió en el primer científico de todos los tiempos que fue armado caballero.


artículos

La teoría siempre viene primero, alentada por el deseo de contar con un modelo matemático ingenioso y consecuente. La teoría formula, entonces, predicciones que pueden ser comprobadas por las observaciones; si estas coinciden con las predicciones, eso no prueba la teoría; pero la teoría sobrevive para formular predicciones ulteriores, que vuelven a ser comprobadas con las observaciones; si todavía no coinciden con las predicciones, hay que abandonar la teoría.

Una teoría es buena si resulta ingeniosa, si describe toda una clase de observaciones y si predice los resultados de otras nuevas.

Sabemos desde hace veinticinco años que la teoría general de la relatividad de Einstein predice que el tiempo tuvo que tener un comienzo en una singularidad hace quince mil millones de años. Pero los filósofos aun no han captado la idea. Todavía siguen preocupándose de los fundamentos de la mecánica cuántica formulados hace sesenta y cinco años. No comprenden que la frontera de la física ha avanzado.

Lo que espero haber demostrado es que un cierto tipo de enfoque positivista, en el que uno considera una teoría como modelo, es el único modo de comprender el universo, al menos para un físico teórico. Tengo la esperanza de que hallaremos un modelo consistente que describa todo en el universo. Si lo logramos, constituirá un auténtico triunfo para la raza humana..

Dividimos primero el contenido del universo en dos partes: "materia", partículas como quarks, electrones, muones, etc., e "interacciones", como la gravedad, el electromagnetismo, etc. Las partículas de materia son descritas por campos de espín 1/2 y obedecen el principio de exclusión de Pauli, que impide que en una posición haya mas de una partícula de un tipo determinado. Esta es la razón de que tengamos cuerpos sólidos que no se contraigan hasta formar un punto o que se difundan hasta el infinito. Los principios de la materia se hallan divididos en dos grupos: los hadrones, compuestos de quarks, y los leptones, que integran el resto. Las interacciones se dividen fenomenológicamente en cuatro categorías.

Por orden de energía, figuran las fuerzas nucleares intensas, que solo interactúan con hadrones; el electromagnetismo, que interactúa con hadrones y leptones cargados; las fuerzas nucleares débiles, que interactúan con todos los hadrones y leptones, y, finalmente, la más débil con mucho, la gravedad, que interactúa con todo. Las interacciones están representadas por campos de espín entero que no obedecen al principio de exclusión de Pauli. Eso quiere decir que pueden tener muchas partículas en la misma posición. En el caso del electromagnetismo y de la gravedad, las interacciones son también de largo alcance, lo que significa que los campos producidos por un gran número de partículas de materia pueden sumarse hasta constituir un campo susceptible de detección en una escala macroscópica. Por estas razones, ellos fueron los primeros en constituirse en objeto de teorías: la gravedad de Newton en el siglo XVII y el electromagnetismo de Maxwell en el XIX. Pero estas teorías resultaban básicamente incompatibles porque la newtoniana no variaba si el conjunto del sistema poseía una velocidad uniforme cualquiera, mientras que la teoría de Maxwell definía una velocidad preferida, la de la luz. Al final, tuvo que ser la teoría newtoniana de la gravedad la que fue preciso modificar para hacerla compatible con la propiedades de invarianza de la teoría de Maxwell. Einstein realizó esta modificación con la teoría general de la relatividad, formulada en 1915.

En los años veinte y treinta se aplicó con gran éxito la mecánica cuántica a sistemas como los átomos o las moléculas que sólo poseen un número finito de grados de libertad. Las dificultades surgieron, empero, cuando se trató de aplicarla al campo electromagnético, que tiene un número infinito de grados de libertad, en términos generales, dos por cada punto del espacio-tiempo.

Un gigaelectrón voltios representa mil millones de electrón voltios, que es aproximadamente la energía que podría liberarse si fuera posible convertir totalmente un átomo de hidrógeno en energía. Por comparación, la energía liberada en reacciones químicas, como la combustión, es del orden de un electrón voltio por átomo.

Las leyes de la física parecen ser las mismas para partículas y antipartículas. Más exactamente, son las mismas cuando se remplazan partículas por antipartículas y las dextrorsas por sinistrorsas, y si se invierten las velocidades de todas las partículas. Esto se conoce como teorema COT (Conjugación de carga-inversión de Paridad-inversión de Tiempo) y es consecuencia de unos supuestos básicos que deben cumplirse en cualquier teoría razonable. Pero la Tierra, y desde luego todo el sistema solar, se halla constituidos por protones y neutrones sin antiprotones ni antineutrones. Tal desequilibrio entre partículas y antipartículas es, empero, otra condición a priori de nuestra existencia; si el sistema solar estuviese compuesto de una mezcla igual de partículas y antipartículas, todas se aniquilarían entre si dejando tan sólo radiación. A partir de la ausencia observada de tal radiación de aniquilamiento, podemos llegar a la conclusión de que nuestra galaxia se halla entera-mente constituida por partículas y no por antipartículas. No tenemos prueba directa de lo que sucede en otras galaxias, pero parece probable que estén integradas por partículas y que en el conjunto del universo haya un exceso de partículas sobre antipartículas del orden de una partícula por 1E8 fotones. Cabria intentar una justificación de este hecho invocando el principio antrópico, pero las grandes teorías unificadas proporcionan realmente un mecanismo que puede explicar el desequilibrio.

Las computadoras constituyen ahora una ayuda útil para la investigación, pero son dirigidas por mentes humanas. Sin embargo, si extrapolamos su ritmo reciente y rápido de desarrollo, es posible que acaben por adueñarse de la física teórica. Así que, quizás, se vislumbre ya el final de los físicos teóricos, si no de la física teórica.

En los primeros años del siglo XX dos teorías completamente nuevas cambiaron nuestras ideas del espacio y el tiempo y de la propia realidad. Transcurridos más de setenta y cinco años, aún seguimos determinando sus implicaciones y tratando de combinarlas en una teoría unificada que describa la totalidad del universo. Las dos teorías son la general de la relatividad y la de la mecánica cuántica. La teoría general de la relatividad aborda el espacio y el tiempo y el modo en que la materia y la energía del universo los curvan o comban en gran escala. La mecánica cuántica opera en escalas muy pequeñas, incluye el denominado principio de indeterminación, según el cual no es posible medir exactamente al mismo tiempo la posición y la velocidad de una partícula; cuanto mas precisa sea una medición, menos lo será la otra. Existe siempre un elemento de indeterminación o aleatoriedad que afecta de un modo fundamental el comportamiento de la materia en una pequeña escala. Einstein fue responsable casi exclusivo de la relatividad general y desempeñó un papel importante en el desarrollo de la mecánica cuántica. Sus opiniones acerca de esta ultima quedaron resumidas en la frase: "Dios no juega a los dados." Pero todos los datos muestran que Dios es un jugador inveterado y que lanza los dados en cada ocasión posible.

Fuera cual fuese la velocidad a la que se movía el observador, siempre hallaría que la velocidad de la luz era de trescientos mil kilómetros por segundo.

copyleft 2007 fangfastik | circpau | webmasters