Sep
10
Las Galaxias…y, ¡La Vida!
por Emilio Silvera ~ Clasificado en General ~ Comments (3)
Calderas de Yellowstone
“…en alguna pequeña charca caliente, tendrían la oportunidad de hacer el trabajo y organizarse en sistemas vivos…” Eso comentaba Darwin sobre lo que podría ocurrir en la Naturaleza.
Hasta que supimos que existían otros sistemas planetarios en nuestra Galaxia, ni siquiera se podía considerar esta posibilidad como una prueba de que la vida planetaria fuera algo común en la Vía Láctea. Pero ahora se sabe que más de cien estrellas de nuestra zona de la galaxia tienen planetas que describen órbitas alrededor de ellas. Casi todos los planetas descubiertos hasta ahora son gigantes de gas, como Júpiter y Saturno (como era de esperar, los planetas grandes se descubrieron primero, por ser más fáciles de detectar que los planetas pequeños), sin embargo es difícil no conjeturar que, allí, junto a estos planetas, posiblemente estarán también sus hermanos planetarios más pequeños que, como la Tierra, pudieran tener condiciones para generar la vida en cualquiera de sus millones de formas.
En algún comentario anterior, ya nos referimos a los elementos más abundantes del Universo: Carbono, Hidrógeno, Oxígeno y Nitrógeno (CHON).
Lee Smolin, de la Universidad de Waterloo, Ontario, ha investigado la relación existente entre, por una parte, las estrellas que convierten unos elementos más sencillos en algo como el CHON y arroja esos materiales al espacio, y, por otra parte, las nubes de gas y polvo que hay en éste, que se contrae para formar nuevas estrellas.
Nuestro hogar dentro del espacio, la Vía Láctea, es una entre los cientos de miles de millones de estructuras similares dispersas por todo el Universo visible, y parece ser una más, con todas las características típicas – de tipo medio en cuanto a tamaño, composición química, etc.- La Vía Láctea tiene forma de disco plano, con alrededor de cien mil años luz de diámetro, y está formada por doscientos mil millones de estrellas que describen órbitas en torno al centro del disco.
El Sol, en realidad, sólo es importante para nosotros al ser el cuerpo central de nuestro Sistema Solar, y con mucho, la estrella más cercana al planeta Tierra y la única que se puede estudiar con todo lujo de detalles. Se clasifica como una estrella G2V: una estrella amarilla con una temperatura efectiva de 5.770 K (tipo espectral G2) y una enana de la secuencia principal (clase de luminosidad V). Los detalles de su composición son sobradamente sabidos por todos y cabe destacar su abundancia de hidrógeno – 71% en masa- y de helio el 27% y elementos más pesados hasta completarlo. Por lo tanto, nuestro Sol no destaca por nada entre esa multitud de de cientos de miles de millones de estrellas.
Recorre su órbita a una distancia del centro que viene a ser más o menos dos tercios del diámetro. En el centro de la Galaxia las estrellas forman una protuberancia, de tal modo que desde el exterior daría la sensación de estar viendo un enorme huevo frito, en el que la protuberancia sería la yema. Sin embargo, el modo en que este disco gira revela que todo el material brillante (materia bariónica) que compone la parte visible de la Vía Láctea queda sujeto por el tirón gravitatorio de una materia invisible que no brilla ni emite radiación y que viene a ser más o menos diez veces mayor que la materia visible de la Galaxia y que muchos suponen que está diseminada en un halo situado alrededor de ella, extendiéndose mucho más allá del borde del disco de estrellas brillantes.
Si realmente existe… ¿Dónde está?
Descubrir qué es realmente esta materia oscura (yo prefiero llamarla no luminosa o materia escondida) constituye un tema de crucial interés para los astrónomos, pero no entraremos ahora en eso, ya que, para lo que estamos tratando, no tiene importancia. Muchas galaxias en forma de disco se caracterizan por una especie de serpentinas que se alejan en espiral desde su centro, lo que hace que se les aplique el nombre de galaxias espirales. Es fácil estudiar las pautas que siguen los llamados “brazos espirales”, porque las galaxias se encuentran relativamente cerca unas de otras, si comparamos estas distancias con sus tamaños.
Andrómeda, la galaxia espiral más cercana comparable a la Vía Láctea, se encuentra con respecto a nosotros a una distancia de poco más de dos millones de años luz; parece una gran distancia, pero la galaxia de Andrómeda es tan grande (un poco mayor que la Vía Láctea) que, incluso a esa distancia, vista desde la Tierra cubre un trozo de cielo del tamaño de la Luna, y puede observarse a simple vista en una noche despejada y sin luz lunar, si nos situamos lejos de las ciudades y de otras fuentes de emisión de luz.
Los brazos espirales, que son una característica tan llamativa en galaxias como la nuestra, son visibles porque están bordeados por estrellas calientes de gran masa que relucen con mucho brillo. Esto significa que también son estrellas jóvenes, ya que no hay estrellas viejas que tengan gran cantidad de masa.
No hay misterio alguno en cuanto al modo en que mantienen esa forma espiral. Se debe exclusivamente a un fenómeno de retroalimentación. c Las nubes gigantescas a partir de las cuales se forman las estrellas pueden contener hasta un millón de veces la masa del Sol cuando empieza a contraerse gravitatoriamente para formar estrellas. Cada nube que se contrae produce, no una sola estrella de gran tamaño, sino todo un conglomerado de estrellas, así como muchas estrellas menores. Cuando las estrellas brillantes emiten luz, la energía de esta luz estelar (especialmente en la parte ultravioleta del espectro) forma una burbuja dentro de la nube, y tiende a frenar la formación de más estrellas. Sin embargo, una vez que las estrellas de gran masa han recorrido sus ciclos vitales y han explotado, sembrando además el material interestelar con elementos de distintos tipos, la onda expansiva ejerce presión sobre las nubes interestelares cercanas y hace que éstas comiencen a contraerse.
Las ondas procedentes de distintas supernovas, al entrecruzarse unas con otras, actúan mutuamente para barrer el material interestelar y formar nuevas nubes de gas y polvo que se contraen produciendo más estrellas y supernovas, en un ejemplo clásico de interacción que se mantiene por sí sola en la que intervienen una absorción de energía (procedentes de las supernovas) y una retroalimentación.
Si la nube es demasiado densa, su parte interna se contraerá gravitatoriamente de manera rápida, formando unas pocas estrellas grandes que recorren sus ciclos vitales rápidamente y revientan la nube en pedazos antes de que puedan formarse muchas estrellas. Esto significa que la generación siguiente de estrellas nace de una nube más delgada, porque ha habido pocas supernovas que barrieran material formando pedazos densos. Si la nube es tan delgada que su densidad queda por debajo de la densidad óptima, nacerán muchas estrellas, y habrá gran cantidad de explosiones supernovas, lo cual producirá gran número de ondas de choque que barrerán el material interestelar, acumulándolo en nubes más densas.
De esta manera, por ambas partes, las retroalimentaciones operan para mantener un equilibrio aproximadamente constante entre la densidad de las nubes y el número de supernovas (y estrellas de tipo Sol) que se producen en cada generación. La propia pauta espiral resulta del hecho de que la galaxia realiza movimiento de rotación y está sometida al tirón gravitatorio que crea la fuerza de marea proveniente de esa materia no luminosa.
Claro que, la materia interestelar es variada. Existen nubes de gas y polvo fríos, que son ricas en interesantes moléculas y se llaman nubes moleculares gigantes; a partir de estas nubes se forman nuevas estrellas (y planetas). Hay nubes de lo que consideraríamos gas “normal”, formadas por átomos y moléculas de sustancias tales como el hidrógeno, y quizá tan caliente como una habitación cerrada durante toda la noche y con la temperatura de dos cuerpos dormidos y emitiendo calor. Además, hay regiones que se han calentado hasta temperaturas extremas mediante la energía procedente de explosiones estelares, de tal modo que los electrones han sido arrancados de sus átomos para formar un plasma cargado de electricidad.
También existe una amplia variedad de densidades dentro del medio interestelar. En la modalidad más ligera, la materia que está entre las estrellas es tan escasa que sólo hay un átomo por cada mil centímetros cúbicos de espacio: en la modalidad más densa, las nubes que están a punto de producir nuevas estrellas y nuevos planetas contienen un millón de átomos por centímetro cúbico. Sin embargo, esto es algo muy diluido si se compara con el aire que respiramos, donde cada centímetro cúbico contiene más de diez trillones de moléculas, pero incluso una diferencia de mil millones de veces en densidad sigue siendo un contraste espectacular.
La cuestión es que, unos pocos investigadores destacaron allá por 1.990 en que todos estos aspectos –composición, temperatura y densidad- en el medio interestelar dista mucho de ser uniforme. Por decirlo de otra manera más firme, no está en equilibrio, y parece que lo que lo mantiene lejos del equilibrio son unos pocos de procesos asociados con la generación de las pautas espirales.
Esto significa que la Vía Láctea (como otras galaxias espirales) es una zona de reducción de la entropía. Es un sistema auto-organizador al que mantienen lejos del equilibrio, por una parte, un flujo de energía que atraviesa el sistema y, por otra, como ya se va viendo, la retroalimentación. En este sentido, nuestra Galaxia supera el test de Lovelock para la vida, y además prestigiosos astrofísicos han argumentado que las galaxias deben ser consideradas como sistemas vivos.
Creo que llevan toda la razón.
emilio silvera
Sep
10
Los agujeros negros
por Emilio Silvera ~ Clasificado en General ~ Comments (1)
Desde la propugnación de Einstein de la existencia de agujeros negros en la teoría de la relatividad general, físicos teóricos han propuesto distintos modelos de estructuras para varios tipo de ellos. Estos tipos varían según la información que el agujero negro retenga de los entes cósmicos que generaron su origen o de las propiedades de su anterior vida como masiva estrella.
El Modelo Kerr de agujero negro, simplificado con el objetivo de intentar lograr una mejor comprensión. En rotación alrededor del eje de rotación del agujero negro, cada región afecta a la materia y a la luz de forma diferente. La esfera fotónica exterior, por ejemplo, es un área donde la luz se ve arrastrada a una órbita inestable. La ergoesfera ofrece una última oportunidad para el escape de aquellos objetos que se muevan a velocidades muy próximas a la de la luz. Cualquier cosa que atraviesa el horizonte de sucesos, sin embargo, cae irremediablemente hacia la singularidad en la forma de un disco.
Por definición todos los agujeros negros tienen la misma estructura básica, o sea, sin excepciones poseen masa; sin embargo, teóricamente se conciben diferentes tipos de agujeros. En su forma más simple, conocida como agujero negro de Schwarzschild ( en honor al astrónomo alemán Karl Schwarzschild), la masa es la única propiedad de dicho objeto, y toda ella se encuentra concentrada en un único punto de densidad infinita denominado singularidad. Pero para un agujero negro de origen estelar, de las características que distinguen a una estrella -masa, luminosidad, color, composición química, rotación y carga eléctrica- aparte de la masa, éstos retienen las propiedades de rotación y carga eléctrica. Para otros agujeros negros con distinto origen se han desarrollado otros modelos de estructura con distintas combinaciones de las tres propiedades. Una definición simple y general para describir la estructura de un agujero negro es aquella a la cual se le asignan tres propiedades: masa, momento angular y carga eléctrica.
Debido a la manera en la que los agujeros negros se forman, en el universo real uno de estos objetos con carga eléctrica neta es un fenómeno bastante improbable, ya que masas muy masivas con un exceso de carga positiva o negativa, rápidamente se neutralizaría con la atracción de la carga opuesta. La forma de la materia en un agujero negro no se conoce, en parte porque está oculta para el observador externo, y en parte porque, en teoría, la materia continuaría su proceso colapsante hasta llegar a tener un radio cero, un punto en que matemáticamente se le conoce como «singularidad de densidad infinita», algo con lo que no tenemos experiencia aquí en la Tierra.
Roy Kerr, neozelandés, científico de la Universidad de Texas, quién, en 1963, halló una solución matemática exacta a la ecuación de Einstein que describía un agujero negro en rotación. Este notable hallazgo trascendía la anterior solución de Schwarzschild de la que ya hemos hablado alguna vez, que describía sólo masas que no se hallaban en estado de rotación. Los trabajos matemáticos de Kerr pudieron demostrar que era imposible que escapara energía de un agujero negro en rotación. Al salir energía, la rotación disminuye. Se trata de un agujero negro que tiene tanta masa como rotación. La física que se deriva del movimiento de rotación del agujero alrededor de un eje, da lugar a una singularidad que no se concentra en un punto como en el modelo de Schwarzschild, sino que toma la forma de un anillo. Además, en su movimiento de rotación, el agujero negro arrastra el espacio-tiempo consigo, en un fenómeno conocido como arrastre del sistema de referencia. Las regiones que rodean a esta singularidad anular se dividen en dominios de diferentes características. Las regiones más externas, conocidas como las esferas fotónicas e interiores, son zonas donde la luz, incidiendo con el ángulo adecuado, pasa a describir una órbita en torno al agujero negro. En la región denominada ergoesfera, cuya frontera exterior recibe el nombre de límite estático, ningún objeto puede permanecer en reposo ya que, tal como dicta el fenómeno del arrastre del sistema de referencia, el propio espacio-tiempo se encuentra en movimiento entorno a la singularidad. En el interior de la ergoesfera es todavía posible, al menos teóricamente, escapar de la atracción gravitatoria del agujero negro, pero una vez que un objeto atraviesa la frontera que delimita el horizonte de sucesos, toda posibilidad de evasión queda coartada, incluso el escape de la luz.
Los agujeros negros surgen en forma natural de las teorías físicas con las cuales se está trabajando en la actualidad. Ya hemos señalado que los agujeros negros tienen masa y que esta se encuentra afectada para generar una poderosa fuerza gravitatoria. Esta fuerza gravitacional, por su intensidad, debería afectar a los objetos cercanos. Los astrofísicos teóricos elaboran modelos para estimar cuál sería el comportamiento estructural de un agujero negro cuando este se encuentra inserto dentro de la mecánica de un sistema binario, o sea, acompañado por una estrella. Existen evidencias observacionales conseguidas a través de detecciones de emisiones de rayos X, cuyas características no se encuentran amparadas dentro de series tipificadas como comunes. Se han localizado ya más de un millar de fuentes emisoras de rayos X en el cielo. Proporcionan claves transcendentales sobre la naturaleza del universo.
Muchas de estas fuentes de rayos X son púlsares, fáciles de identificar por la regularidad que muestran en sus pulsaciones generadas por la rotación de la estrella de neutrones. Se ha determinado la posición de cerca de una docena de estos púlsares de rayos X con tanta precisión que los astrónomos ópticos pueden dirigir sus telescopios al punto indicado e identificar a la compañera visible. Los astrónomos a veces detectan que la intensidad de los rayos X y de las radioondas que emiten estos púlsares se incrementan en un factor superior a mil. Se cree que cuando ello ocurre se debe a que el «punto caliente» de la estrella de neutrones (su polo magnético sur o norte, donde cae más abundantemente la materia en el interior de la estrella) se encuentra orientado hacia la Tierra y recibimos el impacto directo del haz de rayos X y de radio-ondas.
Cualquier cosa que traspase las fronteras del horizonte de sucesos está condenada a ser aplastada y absorbida hacia las profundidades por los efectos de la inmensa fuerza gravitatoria de un agujero negro. Ni la luz visible o los rayos X o cualquier otra forma de radiación electromagnética en forma de partículas puede eludir el destino de ser atrapada por la inconmensurable fuerza gravitatoria que actúa en esa área del agujero.
Gases y partículas que se encuentran arremolinadas cerca de un agujero negro se aceleran y forman un aplanado disco. Rozaduras ocasionadas por colisiones entre las partículas hace que se calienten a temperaturas extremas. Antes que las partículas traspasen la frontera del horizonte de sucesos, su temperatura alcanza cientos de millones de grados, produciéndose violentas emisiones de rayos X.
Hay otras fuentes de rayos X que no se ajustan a tipificaciones claras. Ello ocurre en sistemas binarios cuando una de las compañeras es una estrella enana blanca, de neutrones o un agujero negro. El objeto más denso que órbita cerca de una estrella compañera común, absorbe materia de esta última y, como consecuencia de ello, hay violentas emisiones de rayos X. Según algunos modelos teóricos, que se manejan para explicar esas emisiones de rayos X, contemplan a un agujero negro cuya fuerza gravitacional que se debe dar en sus cercanías debería ser muy intensa, y podría tener efectos notables en su entorno. El agujero negro debería arrancar material desde la estrella compañera el cual sería alojado alrededor del agujero formando un «disco de acreción» similar al disco de anillos que rodea al planeta Saturno. Al ser atraído el material de acreción hacia las “fauces” del agujero negro, éste se tendería a aplastar y a calentarse a temperaturas altísimas y, cuando se va colando por la garganta del agujero, emitiría violentísimas emisiones de rayos X. El primer ejemplo de la posible existencia de un agujero negro fue descubierto precisamente por ese efecto gravitatorio en una estrella acompañante.
A la fecha, los teóricos han seguido profundizando en el estudio de los agujeros negros. Gran parte de esos trabajos los inspira Stephen Hawking, un brillante físico inglés de la Universidad de Cambridge. Se puede decir que una gran parte de su talento, Hawking lo ha destinado a la investigación de los agujeros negros. Él, e independientemente Jacob Bekenstein, físico teórico israelí, descubrieron una sorprendente relación entre los agujeros negros y la entropía, o sea, una relación de una propiedad termodinámica con una consecuencia de la teoría de la gravitación.
Para encontrarle el sentido a la relación que hemos enunciado, podemos explicarlo señalando que la entropía está referida como una medida del desorden de los sistemas físicos. Los sistemas ordenados, como el cristal con sus átomos claramente dispuestos, tienen poca o casi nada de entropía, mientras que los muy desordenados como los gases, en que los átomos se desplazan en forma indisciplinada y aleatoria de una lado para otro, tienen bastante. Según la segunda ley de la termodinámica, la entropía de un sistema físico cerrado no decrece : las cosas pueden pasar a estar más desordenadas, pero jamás menos. Una consecuencia de lo anterior es que la información sobre la estructura detallada de un sistema físico tiende siempre a dañarse; de hecho, la pérdida de tal información (adecuadamente definida) en un sistema físico es exactamente proporcional al incremento de su entropía. De lo anterior se deduce el encuentro para la relación entre agujeros negros y entropía.
Ahora bien, para comprender la relación entre agujero negro y entropía podemos señalar que se ha logrado estimar que todo lo que cae en las “fauces” de un agujero negro se pierde para siempre, no existen formas para que un observador situado en los entornos del agujero pueda recuperar algo de los que cae dentro de él. La información, en particular, se perderá hasta la eternidad al caer los objetos físicos en el agujero negro y su pérdida incrementa la entropía del agujero.
Hawking y Bekenstein demostraron que la entropía en un agujero negro era proporcional al área de su horizonte de sucesos. Lo anterior implica entonces que, de acuerdo a la segunda ley de la termodinámica que nos indica que la entropía sólo se incrementa o se mantiene constante, los agujeros negros estarían aumentando permanentemente la extensión de su superficie y, en consecuencia, ser cada vez mayores, sin que existan medios para librarse de la presencia de ellos. Pero esa conclusión no es exacta. Curiosamente, si un agujero negro carece de perturbaciones al final termina desvanecido por emisiones de radiación. Pero ¿cómo se puede entender ello?
Hawking (la ecuación de arriba es suya), estudiando la termodinámica de los agujeros negros, en sus cálculos llegó a la conclusión que la temperatura de estos agujeros era inversamente proporcional a su radio, considerando para ello el hecho de que todo objeto con temperatura ha de irradiar, tal como se observa en el carbón encendido que emite luz roja. Pero toda la estructura conceptual del agujero negro se sostiene en el hecho de que nada puede escapar de él, ni siquiera la radiación. Se plantea, pues, una paradoja: ¿Cómo podían irradiar los agujeros negros?
Hawking lo resolvió en 1974, descubriendo los medios por los cuales los agujeros negros irradian una cantidad precisa determinada por una temperatura directamente proporcional a su gravedad superficial e inversamente proporcional a su masa, o sea, igual como lo hacen cualquier objeto con un cuerpo cálido.
La síntesis de la argumentación dada por Hawking para sostener lo anterior puede describirse de la siguiente manera: Reafirma que toda la radiación situada dentro del horizonte de sucesos (la superficie del agujero) no puede escapar, no obstante lo que queda inmediatamente fuera del límite, sí puede hacerlo. Hawking señala que el potente campo gravitatorio que limita con la superficie del agujero puede crear espontáneamente una partícula y su correspondiente antipartícula. Las teorías del campo cuántico de las partículas elementales establecen precisamente asimiles procesos de creación que han sido reiteradamente comprobados en experimentos de laboratorio. Según Hawking, una partícula del par creado cae en el agujero negro (se pierde para siempre), mientras la otra escapa y puede aniquilarse con otra partícula en su fuga, convirtiéndose en radiación pura. A la radiación que fluye desde un agujero negro se le ha denominado «radiación de Hawking».
Desde que Hawking demostró matemáticamente de que los agujeros negros pueden efectuar emisiones térmicas ha sido confirmada por otros investigadores con distintos enfoques. Describimos aquí uno de los tantos modos que se usan para comprender esa emisión. La mecánica cuántica implica que el conjunto del espacio se halla ocupado por pares de partículas y antipartículas« virtuales» que se materializan constantemente en parejas, separándose e integrándose para aniquilarse entre sí. Se denominan virtuales a estas partículas porque, a diferencia de las «reales», no pueden ser observadas directamente mediante un detector de partículas. Sin embargo, se pueden medir sus efectos indirectos y su existencia ha quedado confirmada por un pequeño desplazamiento, el cual lo conocemos como «corrimiento de Lamb», que originan en el espectro luminoso de átomos de hidrógeno excitados. En presencia de un agujero negro, un miembro de un par de partículas virtuales puede caer en el agujero, dejando al otro miembro sin pareja con la que aniquilarse. La partícula o antipartícula abandonada puede caer en el agujero negro tras su pareja, pero también es posible que escape al infinito donde aparece como radiación emitida por el agujero negro.
Otro modo de examinar el proceso consiste en considerar al miembro de la pareja de partículas que cae en el agujero negro, que podría ser la antipartícula, como una partícula que en realidad retrocede en el tiempo. Así cabe observar la antipartícula que cae en el agujero negro como una partícula que emerge de éste pero retrocede en el tiempo. Cuando la partícula llega al punto en que se materializó originariamente el par partícula-antipartícula, es dispersada por el campo gravitatorio y en consecuencia avanza en el tiempo.
Es la mecánica cuántica la que al fin otorga la posibilidad que una partícula pueda escapar de la parte interior de las fauces de un agujero negro, lo que no permite las posibilidades que otorga la mecánica clásica, como ocurre también en situaciones que se dan en la física atómica y nuclear en que sólo las posibilidades de la mecánica cuántica permite a partículas saltar alguna barreras.
Finalmente, señalemos que la radiación que se calcula para grandes agujeros negros que pueden formarse desde estrellas colapsadas es prácticamente insignificante. Pero los mini agujeros negros deberían ser muy “calientes”, e irradian su masa rápidamente, en un espectacular estallido de radiación de Hawking. Mini agujeros negros que pudieron formarse cuando el Big Bang podrían estar ahora estallando por ahí, pero no ha sido posible lograr ubicarlos. Quizás hoy solamente existan agujeros negros grandes y super-masivos y los muy pequeños ya hayan desaparecido sin dejar huellas apreciables, salvo la posible emisión, desde lugares relativamente cercanos de donde se hallaba, de intensas radiaciones de rayos gamma con una energía de unos 100 millones de eV. Lo último se debe a que se estima que, a medida que un agujero negro emite partículas, va disminuyendo su masa y tamaño constantemente. Esto facilita el escape de más partículas y así la emisión proseguirá a un ritmo siempre creciente hasta que el agujero negro acabe por esfumarse. En el largo plazo, cada agujero negro que esté cohabitando en el universo se extinguirá de ese modo. Pero en lo que se refiere a agujeros negros medianos, el tiempo será desde luego muy largo: uno que tenga la masa del Sol durará aproximadamente unos 1066 años. Por otro lado, los agujeros negros supermasivos también terminarían desapareciendo debido a las mismas causales que se han descrito para los otros tamaños de agujeros, pero el tiempo de vida que podrían tener por lo menos para mí es, prácticamente, inconmensurable.
Texto extraído de Astrocosmo
Sep
9
El peligro de China
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Investigadores chinos desarrollan una nueva forma de fabricar naves espaciales gigantes y modulares para ensamblarse en órbita e ir más allá del entorno conocido.
China quiere construir una superestructura en el espacio como las que ya construyen en la Tierra.
Excepto que ésta no será un puente interminable o una megapresa de 22GW de potencia. Ni tampoco su manido ascensor espacial. No, esta vez están pensando en construir una nave espacial que mida varios kilómetros.
Según el South China Morning Post, el ministerio de ciencia y tecnología chino ha puesto en marcha una iniciativa que estudiará posibles métodos de construcción en el espacio de “naves ultra-grandes de varios kilómetros de envergadura.”
Poco a poco y en silencio, los chinos no dejan de tomar parcelas en todo el Mundo y áreas que, calladamente, conquistan sin “pegar un tiro”. El día que la “horda amarilla” diga vamos adelante…
¿Quién los podrá parar?
Sep
9
Sueños que, nos llevan a la realidad
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
¿Viajar en el tiempo?
Me hace “gracia” ver como mucha gente, incluso científicos, se atreven a dar su opinión sobre cuestiones que no conocen.
La mayoría de los científicos que no han estudiado seriamente las ecuaciones de Einstein, desprecian el viaje en el tiempo como una tontería, algo que sólo es aplicable a relatos sensacionalistas e historias fantásticas. Sin embargo, la situación que realmente nos encontramos es bastante compleja.
Viajes en el Tiempo en los límites de lo posible
Para resolver la cuestión debemos abandonar la teoría más sencilla de la relatividad especial, que prohíbe el viaje en el tiempo, y adoptar toda la potencia de la teoría de la relatividad general, que puede permitirlo. La relatividad general tiene una validez mucho más amplia que la relatividad especial. Mientras que la relatividad especial sólo describe objetos que se mueven a velocidad constante muy lejos de cualquier estrella, la teoría de la relatividad general es mucho más potente, capaz de describir cohetes que se aceleran cerca de estrellas super-masivas y agujeros negros. La teoría general sustituye así algunas de las conclusiones más simples de la teoría especial. Para cualquier físico que haya analizado seriamente las matemáticas del viaje en el tiempo dentro de la teoría de la relatividad general de Einstein, la conclusión final, de forma bastante sorprendente, no está ni mucho menos clara.
Se hizo una apuesta con su amigo Stephen Hawking
Kip S. Thorne, un físico especialista en relatividad general y agujeros negros mundialmente conocido y Premio Nobel por el Proyecto LIGO que confirmó las Ondas Gravitacionales, cree que los viajes en el tiempo serán posibles algún día a través de los agujeros de gusano y utilizando para ello materia exótica, que mantendría abierta las bocas del agujero que nos llevaría a través del hiperespacio a otros lugares lejanos del universo.
Los defensores del viaje en el tiempo señalan que las ecuaciones de Einstein de la relatividad general permiten ciertas formas de viaje en el tiempo. Admiten, sin embargo, que las energías necesarias para doblar el tiempo en un círculo son tan grandes que las ecuaciones de Einstein ya no serían válidas. En la región físicamente interesante en la que el viaje en el tiempo se convierte en una posibilidad seria, la teoría cuántica domina sobre la relatividad general.
Recordemos que las ecuaciones de Einstein establecen que la curvatura del espacio y el tiempo están determinadas por el contenido de materia-energía del universo. Es posible, de hecho, encontrar configuraciones de materia-energía suficientemente poderosas para forzar la curvatura del tiempo y permitir el viaje en el tiempo. Sin embargo, las concentraciones de materia-energía para doblar el tiempo hacia atrás son tan enormes que la relatividad general deja de ser válida y las correcciones cuánticas empiezan a dominar sobre la relatividad. Así pues, el viaje en el tiempo requiere un veredicto final que no puede ser pronunciado a través de las ecuaciones de Einstein, que dejan de ser válidas en los campos gravitatorios extraordinariamente grandes, donde esperamos que la teoría cuántica de la gravedad se haga dominante.
Aquí es donde la teoría del hiperespacio puede zanjar la cuestión. Puesto que la teoría cuántica y la teoría de la gravedad de Einstein están unidas en el espacio deca-dimensional, esperamos que la cuestión del viaje en el tiempo será establecida definitivamente por la teoría del hiperespacio. Como en el caso de los agujeros de gusano y las ventanas dimensionales, el capítulo final se escribirá cuando incorporemos toda la potencia de la teoría del hiperespacio.
De todas las maneras y desde todos los ángulos que lo podamos mirar, si algún día las máquinas del tiempo son posibles, el peligro estaría servido. ¿Quién sería el encargado de controlar su uso? ¿Quién se encargaría de controlar al encargado? y así podríamos seguir indefinidamente, tal es el volumen de gravedad del problema que generaría la existencia de máquinas del tiempo para viajar hacia atrás o hacia delante.
El Tejido del Universo, la sustancia cósmica de lo que se forma todo
El caos y los estragos rasgarían el tejido de nuestro universo. Millones de personas volverían hacia atrás en el tiempo para entrometerse en su propio pasado y en el pasado de los demás para tratar de reescribir la Historia. ¿Quién no hizo en el pasado alguna cosa de la que se arrepiente o la dejó de hacer, cambiando así el rumbo de su vida? Todos, si pudiéramos, querríamos arreglar eso.
La carrera que no estudiamos, aquella oportunidad desaprovechada, la mujer de nuestra vida que por cobardía dejamos ir, ese tren que no cogimos… Cualquiera de estas situaciones, de haber sido al contrario habría cambiado el curso de nuestras vidas que están regidas, siempre, por la causalidad. Todo lo que ocurre es la consecuencia de lo que ocurrió.
También sería difícil evitar algunas tentaciones de gente con moralidad y conciencia adaptable y elástica, que querrían viajar al pasado para eliminar al padre de su enemigo y hacer posible que éste no naciera. Las paradojas temporales estarían al orden del día.
Las cosas podrían haber pasado de esta manera y de aquella otra
El viaje en el tiempo significaría que nunca podría existir una historia estable de los sucesos históricos que podrían ser cambiados a placer del consumidor. Pensemos que en los tiempos de Alejandro Magno, viajamos en el tiempo y llevamos a sus enemigos un cargamento de armas modernas; que pudiéramos haber facilitado a Galileo telescopios de última generación y modernos ordenadores. También se podría evitar la crucifixión de Cristo, facilitar a Faraday datos técnicos inexistentes en su tiempo o, por poner otro ejemplo, haber encerrado por loco a Hitler evitando aquel horror.
Obviamente, la mayoría de los científicos no se sienten muy felices con esta desagradable posibilidad que lo trastocaría todo en un continuo caos, eliminaría la Historia y haría inútil la memoria, la experiencia, el conocimiento adquirido a través del esfuerzo personal y un sin fin de situaciones que ahora tenemos y nos hacen ser como somos.
Por mi parte (es una humilde opinión), creo más fácil que consigamos burlar el límite impuesto por la velocidad de la luz (digo burlar, esquivar, no superar) o conseguir, como lo hacen en la serie Star Trek, trasladarnos mediante desintegración molecular que se integra en el punto de llegada de manera instantánea al momento exacto de la partida, que viajar hacia atrás en el tiempo.
El tiempo futuro es algo inexistente, aún no ha llegado, es algo que sabemos que vendrá pero que aún no está en nuestro universo. ¿Cómo se puede viajar a un lugar y a un tiempo que no existen?
emilio silvera
Sep
9
Rumores del saber del mundo
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
En la Edad Media el pensamiento indio estaba muy por delante del europeo en varias áreas. En esta época, los monasterios budistas de la India tenían tantos recursos que actuaban como bancos e invertían sus excedentes financieros en empresas comerciales. Detalles como éste aclaran por qué los historiadores se refieren a la reunificación del norte de la India bajo los Guptas (c.320-550) como una era dorada.
Los antiguos Templos Budistas están repartidos por toda la India en lugares increíbles
Esta dinastía, en conjunción con el reinado de Harsha Vardhana (606-647), abarca el período que hoy se considera la era clásica de la India. Además de los progresos realizados en matemáticas, esta época fue testigo del surgimiento de la literatura en sánscrito, de la aparición de formas de hinduismo nuevas y duraderas, entre ellas el vedanta, y del desarrollo de una espléndida arquitectura religiosa.
Más que la mayoría de los lenguajes, el sánscrito encarna una idea: es el lenguaje especial para gente que deben tener una clasificación también especial. Es una lengua de más de tres mil años de antigüedad. En un principio, fue la lengua del Punjab, pero luego se difundió al este.
Se puede discutir si los autores del Rig Veda fueron los arios procedentes de fuera de la India o indígenas de la región, pero lo que no se puede poner en duda es que poseían un idioma de gran riqueza y precisión, y una tradición poética cultivada.
La importancia de los gramáticos para la historia del sánscrito no tiene comparación en ninguna otra lengua del mundo. La preeminencia que alcanzó esta actividad se deriva de la necesidad de preservar intactos los textos sagrados de los Vedas: según la tradición, cada palabra del ritual tenía que pronunciarse de forma exacta. Así que da demostrado en algún momento del siglo IV a.c. cuando Panini compone su Gramática.
Nada sabemos sobre la vida de Panini, aparte de que nació en Satura, en el extremo noroeste de la India. Su Astadhyayi consta de cuatro mil aforismos que describen, con abundante detalle, la forma de sánscrito que utilizaban los brahmanes de la época. Su obra tuvo tanto éxito, que la forma del idioma que describió quedó establecida para siempre, después de lo cual vendría a ser conocida como samskrta (“perfecta”).
A partir de los trabajos de Panini, el lenguaje en la India evolucionó de manera considerable y sus efectos se podría decir, fueron altamente positivos. El lenguaje estaba dividido en dos: sánscrito para el estudio y ritual, preservado para la casta de los brahmanes, y, el práctico, para la vida cotidiana.
Hay que decir que, tal distinción ya existía en la época de Buda y Mahavira y desde la época de Panini sólo la lengua vernácula evolucionó de forma normal. La brecha entre el sánscrito y el práctico se amplió con el paso de los siglos y, sin embargo, ello no tuvo consecuencias negativas para el primero que en la época de los Guptas era el lenguaje utilizado por la Administración.
Las lenguas modernas de la India: Bengalí, gujarati, y, maratí, solo empezaron a utilizarse 1.000 años después de C.
Después del siglo II a.C. empiezan a aparecer textos seculares: poesías, dramas y obras de naturaleza científica, técnica o filosófica. En este momento, todo hombre de letras debía saber de memoria el astadhyayi. Aprenderlo requería un largo proceso, pero demostraba la educación.
Entre los años 500 y 1.200 d.C., la literatura sánscrita vive su edad de oro, protagonista indiscutible de la cual es Kalidasa, el más famoso de los autores del período den la literatura Kavya (secular), la literatura agama (religiosa) y los trabajos de los estudiosos (sastra).
Como ocurre con Panini, tampoco se sabe mucho sobre los orígenes de Kalidasa. Su nombre significa “esclavo de la diosa Kali”, lo que sugiere que pudo nacer al sur de la India, en lo que después se convirtió en Bengala, donde Kali, la esposa de Shiva, contaba con muchos seguidores.
Hay ciertas características de las obras de Kalidasa que hace pensar en que podía ser un brahmán de Ujjain o Mandasor, ya que muchos detalles delatan un profundo conocimiento del fértil valle del Narmada, en la región de Malwa. Como en el caso de Sófocles, sólo se conservan siete de los clásicos sánscritos de Kalidasa, poeta lírico y autor de epopeyas y obras de teatro.
Su trabajo más conocido es el poema Meghaduta (Mensajero de las nubes), sin embargo, la obra más evocadora de kalidasa es el drama shakuntala
La superioridad y brillantez de la literatura india de este período quedan confirmadas por el hecho de que sus ideas y prácticas se difundieron por todo el sureste asiático. Es posible encontrar Budas de estilo gupta de Malaya, Java y Borneo. Se cree que las inscripciones en sánscrito, que aparecen en Indochina desde el siglo III y IV, constituyen un indicio de los comienzos de la alfabetización en esta región y “casi todos los estilos de escrituras preislámicos del sureste asiático son derivados del gupta Grahmi”.
Bajo la dinastía de los Guptas el templo hindú se desarrolló hasta convertirse en la forma arquitectónica clásica de la India. Es difícil exagerar la importancia del templo hindú. El mundo tienen una gran deuda con el arte de la India, algo especialmente cierto en el caso de China, Corea, el Tibet. Camboya y Japón.
Es evidente que la iconografía de los templos indios se origina en un conjunto de supuestos diferentes de los des arte cristiano, pero constituye un sistema no menos cerrado e interconectado. En general, las imágenes hindúes son bastante más arcaicas que las cristianas y en mucho casos más antiguas que el arte griego. Los mitos de los grandes dioses (Vishnú y Shiva) representados en los grabados se repiten cada palpa, esto es, cada cuatro mil trescientos veinte millones de años.
Habitualmente, los dioses están acompañados de vehículos o se los asocia a ellos: Vishnú a una serpiente o culebra cósmica (símbolo de las aguas primigenias de la creación), Brama a un ganso, Indra a un elefante, Shiva a un tono, y cada uno tiene un significado espiritual, como Airavata, el ancestro celestial de todos los elefantes que lleva a Indra, el rey de los dioses, así que está enclavado como perteneciente a la tierra de los reyes.
La cultura hindú es fascinante y leer en profundidad su historia nos puede dar el conocimiento de gran parte del comportamiento de la Humanidad. Como otros tantos lugares y culturas, fue invadida por el Islam que nunca consiguió erradicar las costumbres y cultura de los nativos.
Los templos hindúes de la India constituyen una de esas espléndidas obras que nunca se han abierto camino en la mente de Occidente para ser consideradas equivalentes intelectuales y artísticos de, digamos, al arquitectura clásica Griega. ¡Un gran error!
Como dije antes, otra innovación de los indios fue la invención o creación de los numerales indios. Ello fue obra en primera instancia del famoso matemático indio Aryabhata, que igualmente mencione antes en alguna parte de este trabajo en el apartado referido a la India.
En el año 499, Aryabhata escribió un pequeño volumen, Aryabhatuya, de 123 versos métricos, que se ocupaban de astronomía y (una tercera parte) de ganitapada o matemáticas. En la segunda mitad de esta obra, en la que habla del tiempo y la trigonometría esférica, Aryabhata utiliza una frase, en la que se refiere a los números empleados en el cálculo, “cada lugar es diez veces el lugar precedente”. El valor posicional había sido un componente esencial de la numeración babilónica, pero los babilonios no empleaban un sistema decimal.
La numeración había empezado en India con simples trazos verticales dispuestos en grupos, un sistema repetitivo que se mantuvo aunque después se crearon nuevos símbolos para el cuatro, diez, veinte y el cien. Esta escritura kharosti dio paso a los denominados caracteres brahmi, un sistema similar al jonio griego.
Desde este punto se necesitaban dos pasos adicionales para llegar al sistema que empleamos ahora. El primero era comprender que un sistema posicional sólo requiere nueve cifras (y que, por tanto, podemos deshacernos de todos los demás). No hay certeza sobre cuando se dio este paso por primera vez, pero el consenso entre los historiadores de las matemáticas es que se produjo en la India, y que quizá se desarrolló a lo largo de la frontera entre la India y Persia, donde el recuerdo del sistema posicional puede haber incitado a su uso en al alternativa brahmi, o en la frontera con China, donde existía un sistema de varas.
No podemos olvidar que en la India nació el CERO y Ramanujan
Esto también puede haber sugerido la reducción de los numerales a nueve. La referencia más antigua a los nueve numerales indios la encontramos en los escritos de un obispo sirio llamado Severo Sebokt que, molesto con los griegos (cerrados a otros saberes en países distintos a Grecia), trató de recordarles que, también en otros lugares, y otras culturas, tenían conocimientos dignos de atención y, apelaba a los indios y los descubrimientos que éstos habían realizado en astronomía y, en particular, “su valioso método de calcular, que supera cualquier descripción. Sus cálculos de realizaban mediante nueve signos (nueve no diez) La primera aparición indudable del cero en la India es una inscripción del año 876, más de dos siglos después de la primera mención del uso de los otros nueve numerales.
Todavía no sabemos con certeza dónde surgió por primera vez el cero, y el concepto de nada, de vacío, llegaron los mayas de manera independiente. Algunos sitúan la aparición del cero en China. No obstante, nadie discute la influencia india, y todo aparece indicar que fueron ellos los primeros que emplearon a la vez los tres nuevos elementos en que se funda nuestro actual Sistema numérico:
- una base decimal,
- una notación posicionad y cifras para diez, y
- sólo diez, numerales. Y esto ya establecido en 876.
En algún momento se dio por hecho que el cero provenía originalmente de la letra griega omicrón, la inicial de la palabra ouden, que significa “vacío”.
¡Nuestra Humanidad! ¡Que gente! ¡Que cosas! ¡Cuantas maravillas!
Retqazos del libro Ideas de de Peter Watson