Abr
24
El saber… ¡Sí, ocupa un lugar, en nuestras Mentes!
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Hay veces en las que nos cuentan cosas y hechos de los que nunca hemos tenido noticias y, resultan del máximo interés. Nuestra curiosidad nos llama a desentrañar los misterios y secretos que, tanto a nuestro alrededor, como en las regiones más lejanas del Universo, puedan haber ocurrido, puedan estar sucediendo ahora, o, en el futuro pusidieran tener lugar, ya que, de alguna manera, todas ellas tienen que ver con nosotros que, de alguna manera, somos parte de la Naturaleza, del Universo y, lo que sucedió, lo que sucede y lo que sucederá… ¡Nos importa!
El Cinturón de Gould es un sector del Brazo de Orión. El Brazo de Orión es la primera gran estructura a la que pertenecemos; grande en sentido galáctico. Es un larguísimo arco estelar de 10.000 años-luz de longitud y 3.500 de ancho. Mucho más del 99% de lo que ven nuestros ojos a simple vista, en una noche normal, está aquí. Muchas personas de ciudad vivirán y morirán sin ver en persona nada más allá del Brazo de Orión.
Se ha discutido, argumentado y teorizado sobre la vida durante siglos, quizás milenios. Lo que conocemos como vida es ni más ni menos que una estructura formada de átomos que se han organizado y que lograron crear mecanismos que les permiten mantener esa organización. Decir que los átomos “se han organizado” es una locura. En el mundo material no hay nada más básico que un átomo, y algo tan básico no es capaz de hacer algo tan complejo como “organizarse”.
¿O sí?
Una célula es un sistema muy complejo (célula animal y vegetal)
La realidad es que sí. Los átomos, en cumplimiento de leyes físicas simples, se organizan en estructuras. La más sencilla es una molécula, que puede estar formada por algunos átomos, pero se llega a estructuras bastante complejas y ordenadas, como los cristales y fibras
naturales y maravillosas formas como las buckyballs. Buckyballs es el nombre coloquial utilizado para describir un fullereno. Los avances logrados por la Humanidad, son tan grandes que, estando a nuestro alrededor, no somos conscientes de su verdadero alcance.
Nanomateriales aplicados a dispositivos electrónicos y los tres tipos de geometrías de nanotubos de carbono
Nanotubos de Carbono
|
Los avances fueron de hecho tan espectaculares que hacia mediados del siglo XX ya se había dado respuesta a todas las cuestiones sencillas. Conceptos tales como la teoría general de la relatividad y la mecánica cuántica explicaron el funcionamiento global del universo a escalas muy grandes y muy pequeñas respectivamente, mientras el descubrimiento de la estructura del ADN y el modo en que éste se copia de una generación a otra hizo que la propia vida, así como la evolución, parecieran sencillas a nivel molecular. Sin embargo, persistió la complejidad del mundo a nivel humano –al nivel de la vida-. La cuestión más interesante de todas, la que planteaba cómo la vida pudo haber surgido a partir de la materia inerte, siguió sin respuesta.
Un descubrimiento así no podía dejar al mundo indiferente. En unos años el mundo científico se puso al día y la revolución genética cambió los paradigmas establecidos. Mucha gente aún no está preparada para aceptar el comienzo de una era poderosa en la que el ser humano tiene un control de sí mismo mayor al habitual. Había nacido la Ingeniería genética. No debe extrañarnos que sea precisamente a escala humana donde se den las características más complejas del universo.
Claro que nada de esto se aproxima al nivel de organización que implica la vida. Recordemos ahora la parte de la frase sobre los átomos que dice “lograron crear mecanismos”, lo cual jamás puede ser cierto… al menos no en la forma directa que uno se imagina al primer momento. Un virus, por ejemplo, es una especie de “máquina” capaz de propagarse. No de reproducirse, al menos no en el sentido que se le da a la palabra en biología, pero sí de activar un mecanismo que permite obtener copias de sí mismo.
Los virus infectan tanto células como bacterias porque no pueden multiplicarse por sí mismos. Al hacerlo, usan las moléculas y enzimas de su desafortunado hospedero para replicar su genoma y construir sus cápsulas virales, las cuales son muy parecidas a unas sondas espaciales pero que, en este caso, sólo transportan ADN o ARN con el único fin de repetir el ciclo en otra víctima.
Antes de seguir quiero hacer una salvedad: todo lo que diga encontrará alguien para discutirlo. Los conceptos básicos que se aplican a la vida aún no están del todo definidos. Por ejemplo, sé que hay corrientes de pensamiento para las cuales los virus no son seres vivos. De acuerdo, sólo es cuestión de definiciones, y no es necesario —ni posible— discutirlas aquí. Yo prefiero incluir a los virus en este análisis porque son algo así como el primer nivel de estructura a discutir (sí, sé que existen estructuras menores, pero no con tanta entidad).
La Vida es el gran enigma del Universo. Partiendo de la materia “inerte” se llega al pensamiento y los sentimientos
Siguiendo en la línea que venía, la cuestión es que parece haber una barrera entre el nivel de organización que pueden alcanzar los átomos por leyes simples de la física y la estructura que presenta la vida. ¿Es esto cierto? Da para discutir mucho, pero creo, en base a muchas líneas de investigación y descubrimientos que se vienen presentando, que no. La estructuración de la vida es gradual. De un evento físico no surge una célula ni, mucho menos, un ratón, pero la realidad es que cada uno de los pasos intermedios que llevan desde un amasijo de átomos a una de estas formas de vida son dados por fenómenos que tienen que ver con la física, la química y… la propia orientación de lo que es la vida. Digamos que la vida, una vez aparecida, crea un entorno de leyes propias que impulsan su desarrollo. ¿Cómo y por qué se crean estas leyes, en base a qué voluntad? Ninguna. (Y aquí surgirán de nuevo las discusiones.) Simplemente, no puede existir la vida sin esas leyes. El hecho de que estemos en un planeta que tenga vida por doquier, y muy desarrollada, es porque la vida, cuando existe, sigue estas reglas que le permiten desarrollarse, y si no las sigue desaparece. Es como decir que hay leyes físicas, leyes básicas del universo, que han sido puestas especialmente para la vida. De hecho, considerando la vida una forma de la materia, creo que es así. Es decir, la vida —cumpliendo los requisitos— sería algo inevitable en el Universo…
Kepler A y Kepler B son dos astros con el 69% y el 20% de la masa del Sol respectivamente, mientras que Kepler-16b es un exo-saturno que tiene 0,33 veces la masa de Júpiter. Posee un periodo de 229 días y se halla situado a 105 millones de kilómetros del par binario, la misma distancia que separa a Venus del Sol en nuestro Sistema Solar. Pero debido a que Kepler-16 AB son dos estrellas relativamente frías, la temperatura “superficial” de este gigante gaseoso ronda unos gélidos 170-200 K dependiendo de la posición orbital. Es decir, nada que ver con el infierno de Venus. Otros mundos, más parecidos a nuestra Tierra, ¿por qué no tendrían formas de vida? Lo lógico es pensar que sí, que albergue la vida más o menos inteligente y conforme se haya producido su evolución.
¿Coger el Sol en la mano? Siempre queremos hacer más de lo que podemos
Me estoy extendiendo fuera del tema. No pretendo estudiarlo filosóficamente, sino usar un poco de lógica para llegar a una respuesta para una pregunta que se hacen los científicos, y que nos hacemos todos, excepto aquellos que quieren creer en entidades superiores que se ocuparon de ello (lo cual es, simplemente, pasar el problema a otro nivel, sin resolverlo): ¿Cómo es que la vida evolucionó desde átomos, moléculas, células, seres simples, a una especie como la nuestra, tan tremendamente compleja y capaz de, como lo estoy haciendo yo, reflexionar sobre sí misma, transmitirlo y, además, cambiar el mundo como lo estamos cambiando?
El proyecto de fusión nuclear ITER – Foro Nuclea
Con esta compleja máquina queremos copiar lo que hace el Sol para conseguir energía limpia
Lo estamos cambiando de muchas maneras. Estuve pensando que, si se prueba que es cierta, esta teoría de los geo-reactores planetarios se debe aplicar a todos los cuerpos planetarios del universo. Estoy seguro de que ustedes deben conocer la ecuación de Drake que intenta estimar el número de inteligencias que podrían existir en el universo, algo que se tiene en gran consideración en el SETI. ¿Se debería agregar un nuevo valor a esta fórmula que represente el tiempo esperado de vida del geo-reactor en un planeta tipo Tierra? Quizá en el núcleo de los planetas que forman ese escudo magnético a su alrededor, esté el secreto del surgir de la vida en ellos.
Si hablamos de la Vida, habría que preguntarse por la inyección cósmica del Carbono
Yo creo en una cosa, y esto puede desatar miles de discusiones: llegar desde materiales básicos a la creación del ser humano se basó en juntar los materiales (átomos), tener las leyes físicas actuando y a la casualidad (o azar). ¿Qué quiero decir con “casualidad”? Que la existencia de la vida está ligada a un sorteo permanente. Que hay una enormidad de cosas que son necesarias para que pueda haber vida (es innegable que se han dado en este planeta) y para que pueda continuar una vez producida. Que fue necesario un transcurso determinado de hechos y situaciones para que los microorganismos aparecieran, se propagaran, compitieran y se fueran haciendo más y más complejos. Que se debieron dar infinidad de circunstancias para que estos organismos se convirtieran en estructuras multicelulares y para que estas estructuras se organizaran en órganos ubicados dentro de seres complejos. Y que se necesitaron enormidad de coincidencias y hechos casuales para que las condiciones llevaran a algunos de estos seres terrestres, vertebrados, pequeños mamíferos (por los cuales durante una enormidad de tiempo ningún juez cósmico hubiese apostado), a evolucionar para convertirse en los animales que más influimos en este mundo: nosotros.
La cantidad de circunstancias, situaciones y condiciones en juego es enorme. En un libro muy interesante de Carl Sagan, anterior a Cosmos, llamado Vida inteligente en el Cosmos (junto a I. S. Shklovskii), se plantea muy bien este tema. Se puede encontrar allí una enumeración de las condiciones que requiere la vida y una especie como la nuestra para existir. Desde las características de nuestra galaxia, su edad, composición, situación, forma; a las de nuestro Sol, su sistema de planetas, la ubicación de la Tierra, su tamaño, su rotación, su inclinación, su composición, los vecinos que tiene… y mucho más.
Llegar a esta red compleja que es nuestra mente, ha costado, más de diez mil millones de años, el tiempo que necesitaron las estrellas para fabricar esos elementos de los que estamos hechos. El suministro de datos que llega en forma de multitud de mensajes procede de los sentidos, que detectan el entorno interno y externo, y luego envía el resultado a los músculos para dirigir lo que hacemos y decimos. Así pues, el cerebro es como un enorme ordenador que realiza una serie de tareas basadas en la información que le llega de los sentidos. Pero, a diferencia de un ordenador, la cantidad de material que entra y sale parece poca cosa en comparación con la actividad interna. Seguimos pensando, sintiendo y procesando información incluso cuando cerramos los ojos y descansamos. Pero sigamos.
Yo voy a agregar algunas cosas que me parecen significativas, que han surgido de los últimos descubrimientos y observaciones. Enumero algunas, aunque ya verán que hay más. Extinciones y cambios físicos producidos por impactos de asteroides; influencia de estrellas cercanas, fijas y viajeras; el “clima” interestelar; el “clima” galáctico; las circunstancias que han sufrido los otros planetas; nuestras circunstancias, nada comunes…
Extinciones
Grandes rocas errantes pululan por el Sistema Solar. Los asteroides no son ni cosa del pasado ni riesgos de muy baja probabilidad. Hay pruebas muy concretas sobre diversos impactos de consideración sobre nuestro mundo y, no hace mucho, tuvimos un ejemplo de ello. Encima, hasta parecen tener una regularidad. No es sólo que tenemos la suerte de que en los últimos 10 millones de años no haya caído un gran asteroide en la Tierra, lo que nos hubiese hecho desaparecer incluso antes de que apareciéramos, sino que tenemos la suerte de que antes de eso sí cayeron de esos asteroides, y de que cambiaran las cosas a nuestro favor. ¿Estaríamos aquí si no hubiese impactado un cuerpo de unos 10 km de diámetro en el Caribe, más precisamente sobre el borde de la península de Yucatán, y hubiese producido una hecatombe para quienes reinaban en el mundo en esa época, los dinosaurios? ¿Quién puede saberlo? ¿Y si no hubiesen ocurrido las extinciones anteriores, fueran por las causas que fueran, estaríamos aquí? Quizás un día se sepa lo suficiente como para simular en computadoras una ecología planetaria entera y ver qué hubiera pasado. Será muy interesante.
Los asteroides cayeron, es un hecho. Y forman parte de las condiciones necesarias —algunos discutirán que no— para que estemos aquí… Veamos algunas nuevas informaciones:
Los Ammonites fueron contemporáneos de los Dinosaurios. Los ammonites eran una de las clases de moluscos cefalópodos que existieron en las eras del Devónico hasta el Cretácico. Hay de diferentes tipologías según la profundidad en la que estaban inmersos, dependiente las distintas zonas de todo el mundo. Al ser un fósil, poco se puede saber de las partes blandas de este organismo marino, suponiéndose que fueron similares a los actuales nautilos, cuyo cuerpo constaba de una corona de tentáculos en la cabeza que asoman por la abertura de la llamada concha. El fósil encontrado en las cercanías de El Chaltén pertenecería al cretácico inferior del estrato llamado Río MAYER, con una antigüedad de unos 500 millones de años.
Hace 380 millones de años se produjo una importante extinción entre los animales que poblaban el mar, en especial de los ammonites, unos moluscos emparentados con los pulpos y calamares pero cubiertos con una concha espiralada y de tamaños a veces gigantescos. Nunca se supo por qué fue. Ahora surgen pistas de que esta mortalidad estuvo relacionada —igual que hace 65 millones de años, en el momento en que los dinosaurios dominaban nuestro mundo— con el impacto de un cuerpo extraterrestre.
Algunos geólogos dicen que hace unos 380 millones de años, un asteroide llegado desde el espacio golpeó contra la Tierra. Creen que el impacto eliminó una importante fracción de los seres vivos. Esta idea puede fortalecer la discutida conexión entre las extinciones masivas y los impactos. Hasta ahora, el único candidato para hacer esta relación era el meteoro que habría causado el exterminio de los dinosaurios, caído en la península de Yucatán, en México.
Brooks Ellwood, de Louisiana State University en Baton Rouge, Estados Unidos, dice que los signos de una antigua catátrofe coinciden con la desaparición de muchas especies animales. “Esto no quiere decir que el impacto en sí mismo haya matado a los animales; la sugerencia es que tuvo algo que ver.” Y agregó que hoy, aunque no se puedan encontrar rastros del cráter de una roca del espacio, se puede saber dónde ha caído.
Otros investigadores coinciden en que hubo un impacto más o menos en esa época, pero creen que la evidencia de que produjo una extinción masiva es muy débil. Claro que, tal valoración no está avalada por hechos y, si tenemos en cuenta el tiempos transcurrido desde los hechos, buscar pruebas materiales…no es nada fácil
El equipo de Ellwood descubrió rocas en Marruecos que fueron enterradas alrededor de 380 millones de años atrás bajo una capa de sedimento que parece formada por restos de una explosión cataclísmica. El sedimento tiene propiedades magnéticas inusuales y contiene granos de cuarzo que parecen haber experimentado tensiones extremas.
Más o menos para esa época se produjo la desaparición del registro fósil de alrededor del 40% de los grupos de animales marinos.
El geólogo Paul Wignall, de la Leeds University, Reino Unido, dice que hay una fuerte evidencia del impacto. Si se lo pudiese relacionar con una extinción masiva sería un gran hallazgo. Si fuera cierto, el potencial letal de los impactos crecería enormemente.
Pero no está claro cuántas desapariciones se produjeron en la época del impacto. Wignall dice que la mortalidad puede haber sido mucho menor que lo que sugiere el equipo de Ellwood. Él piensa que los paleontólogos deberían buscar las pistas que les den una mejor imagen de lo que pasó en aquella época.
El paleontólogo Norman MacLeod, que estudia las extinciones masivas en el Natural History Museum de Londres, coincide en que aunque 40% es el valor correcto para aquel período de la historia de la Tierra, no es una extinción masiva, sino parte de una serie de sucesos mucha más extensa. MacLeod duda de que las extinciones masivas sean resultado de intervenciones extraterrestres. “Los impactos son un fenómeno bastante común”, dice. “Pero no coinciden significativamente con los picos de extinción.”
Las estrellas vecinas
Aunque nuestro entorno es inmenso, hemos llegado a conocer muy bien nuestra vecindad
Nuestro vecindario galáctico es muy humilde. Nada de supergigantes o exóticas estrellas de neutrones. La mayoría de estrellas vecinas -unas 41- son simples enanas rojas (estrellas de tipo espectral M), las estrellas más comunes del Universo. Cinco son estrellas de tipo K, dos de tipo solar (tipo G, Alfa Centauri A y Tau Ceti), una de tipo F (Procyon) y una de tipo A (Sirio). Los tipos espectrales se ordenan según la secuencia OBAFGKM, siendo las estrellas más calientes (y grandes) las de tipo O y las más pequeñas y frías las de tipo M (siempre y cuando estén en la secuencia principal, claro). Además tenemos tres enanas blancas y tres candidatas a enanas marrones. Como vemos, no nos podemos quejar. Hay toda una multitud de posibles objetivos para nuestra primera misión interestelar. ¿Cuál elegir?
|
El llamado Grupo Local de galaxias al que pertenecemos es, afortunadamente, una agrupación muy poco poblada, sino podríamos ser, en cualquier momento (o haber sido aún antes de existir como especie) destruidos en catástrofes cósmicas como las que ocurren en los grupos con gran población de galaxias. Los astrónomos comprenden cada vez más el porqué de las formas de las galaxias, y parece que muchas (incluso la nuestra) han sufrido impactos contra otras para llegar a tener la figura que tienen. Gracias al telescopio espacial Hubble se están viendo en los últimos tiempos muy buenas imágenes de colisiones entre galaxias.
La Nube Interestelar Local se encuentra dentro de una estructura mayor: la Burbuja Local. La Burbuja Local es una acumulación de materia aún mayor, procedente de la explosión de una o varias supernovas que estallaron hace entre dos y cuatro millones de años. Pero aunque estemos atravesando ahora mismo la Nube Interestelar y la Burbuja locales, nuestra materia no procede de ellas. Sólo estamos pasando por ahí en este momento de la historia del universo. Entramos hace unos cinco millones de años, y saldremos dentro de otros tantos. Nuestro sistema solar –y la materia que contiene, incluyéndonos a ti y a mí– se formó mucho antes que eso, hace más de 4.500 millones de años.
“Banda de estrellas calientes y brillantes que forman un círculo alrededor del cielo. Representa una estructura local de estrellas jóvenes y material interestelar inclinada unos 16º con respecto al plano galáctico. Entre los componentes más prominentes del cinturón se encuentran las estrellas brillantes de Orión, Can mayor, constelación de la Popa, Carina, Centauro y Escorpio, incluyendo la asociación Sco-Cen. El cinturón tiene el diámetro de unos 3.000 años luz (alrededor de una décima parte del radio de la Galaxia), hallándose el Sol en él. Visto desde la Tierra, el Cinturón de Gould se proyecta por debajo del plano de nuestra Galaxia desde el borde inferior del Brazo de Orión, y por encima en la dirección opuesta. El cinturón se estima que tiene unos 50 millones de años de antigüedad, aunque su origen es desconocido. Su nombre proviene del astrónomo Benjamin Apthorp Gould, quien lo identificó durante la década de 1879.”
Al parecer, la Vía Láctea, nuestra galaxia, reside dentro de una “burbuja local” en una red de cavidades en el medio interestelar que probablemente fue esculpida por estrellas masivas que explotaron hace millones de años. Se le llama Medio Interestelar a la materia que existe en el espacio y que se encuentra situada entre los sistemas estelares. Esta materia está conformada por gas en forma de iones, átomos y moléculas, además de gas y rayos cósmicos.
Nuestra Burbuja Local forma a su vez parte del Cinturón de Gould que presentamos más arriba. El Cinturón de Gould es ya una estructura mucho más compleja y mayor. Es un anillo parcial de estrellas, de unos 3.000 años luz de extensión. ¿Recuerdas aquella nave espacial tan rápida que utilizamos antes? Pues con ella, tardaríamos 12.800.000 años en atravesarlo por completo. Vaya, esto empieza a ser mucho tiempo.
|
Vivimos dentro de una burbuja. El planeta, el Sistema Solar, nuestro grupo local. El estallido de una supernova ha dejado un resto fósil en nuestro entorno: creó una enorme burbuja en el medio interestelar y nosotros nos encontramos dentro de ella. Los astrónomos la llaman “Burbuja local”. Tiene forma de maní, mide unos trescientos años luz de longitud y está prácticamente vacía. El gas dentro de la burbuja es muy tenue (0,001 átomos por centímetro cúbico) y muy caliente (un millón de grados), es decir, mil veces menos denso y entre cien y cien mil veces más caliente que el medio interestelar ordinario. Esta situación tiene influencia sobre nosotros, porque estamos inmersos dentro. ¿Qué pasaría si nos hubiese tocado estar dentro de una burbuja de gases ardientes resultantes de una explosión más reciente o de otro suceso catastrófico? ¿O si estuviésemos en una zona mucho más fría del espacio? No estaríamos aquí.
En algunos lugares de la Tierra, podemos ir viajando por caminos y carreteras y encontrarnos de frente con imágenes que, por su magnificencia, ¡asustan! Nuestra galaxia está en movimiento constante. No es una excepción en relación con el resto del universo. La Tierra se mueve alrededor del Sol, este último gira en torno a la Vía Láctea, y la gran mancha blanca a su vez forma parte de súper cúmulos que se mueven en relación a la radiación remanente de la gran explosión inicial. Pero hablemos del…
”Clima” galáctico
La galaxia en que vivimos podría tener una mayor influencia en nuestro clima que lo que se pensaba hasta ahora. Un reciente estudio, controvertido aún, asegura que el impacto de los rayos cósmicos sobre nuestro clima puede ser mayor que el del efecto invernadero que produce el dióxido de carbono.
|
Según uno de los autores de este estudio, el físico Nir Shaviv de la Universidad Hebrea de Jerusalén, en Israel, el dióxido de carbono no es tan “mal muchacho” como dice la gente. Shaviv y el climatólogo Ján Veizer de la Universidad Ruhr, de Alemania, estiman que el clima terrestre, que exhibe subas y bajas de temperatura global que al graficarse forman una figura de dientes de sierra, está relacionado con los brazos espirales de nuestra galaxia. Cada 150 millones de años, el planeta se enfría a causa del impacto de rayos cósmicos, cuando pasa por ciertas regiones de la galaxia con diferente cantidad de polvo interestelar.
Los rayos de todo tipo se nos vienen encima desde todos los rincones del Universo, y, algunos no llegan a la superficie de nuestro planeta gracias al escudo protector que salvaguarda nuestra integridad física.
Los rayos cósmicos provenientes de las estrellas moribundas que hay en los brazos de la Vía Láctea, ricos en polvo, incrementan la cantidad de partículas cargadas en nuestra atmósfera. Hay algunas evidencias de que esto ayuda a la formación de nubes bajas, que enfrían la Tierra.
Shaviv y Veizer crearon un modelo matemático del impacto de rayos cósmicos en nuestra atmósfera. Compararon sus predicciones con las estimaciones de otros investigadores sobre las temperaturas globales y los niveles de dióxido de carbono a lo largo de los últimos 500 millones de años, y llegaron a la conclusión de que los rayos cósmicos por sí solos pueden ser causa del 75% de los cambios del clima global durante ese período y que menos de la mitad del calentamiento global que se observa desde el comienzo del siglo veinte es debido al efecto invernadero.
La teoría, como es normal en la ciencia, no es del todo aceptada. Los expertos en clima mundial están a la expectativa, considerando que algunas de las conexiones que se han establecido son débiles. Se debe tener en cuenta, dicen los paleontólogos, que se trata de una correlación entre la temperatura, que es inferida de los registros sedimentarios, de la cantidad de dióxido de carbono, que se deduce del análisis de conchas marinas fosilizadas, y de la cantidad de rayos cósmicos, que se calculan a partir de los meteoritos. Las tres técnicas están abiertas a interpretaciones. Además, uno de los períodos fríos de la reconstrucción matemática es, en la realidad, una época que los geólogos consideran caliente. De todos modos, también hay muchos otros que están muy interesados e intrigados.
La variabilidad solar afecta la cantidad de rayos cósmicos que impactan a nuestro planeta. El Sol produce radiaciones similares a los rayos cósmicos, especialmente en el período más caliente, llamado máximo solar (maximun), de su ciclo de 11 años. Estudios anteriores no pudieron separar el impacto climático de esta radiación, de los rayos cósmicos que llegan desde la galaxia y de la mayor radiación calórica que llega desde el Sol.
Los otros planetas y la Luna
Recientemente, se ha anunciado el hallazgo de un sistema planetario que podría ser similar al nuestro. En realidad no se ha logrado aún una observación tan directa que permita afirmarlo, sino que se deduce como posibilidad. Este sistema presenta un planeta gaseoso gigante similar a nuestro Júpiter, ubicado a una distancia orbital similar a la que tiene Júpiter en nuestro sistema. El sol es similar al nuestro, lo que deja lugar a que haya allí planetas ubicados en las órbitas interiores, dentro de la franja de habitabilidad en la que la radiación solar es suficiente para sostener la vida y no es excesiva como para impedirla. Si nuestro sistema no tuviese las características que posee, la vida en la Tierra tendría problemas. Por ejemplo, podría haber planetas, planetoides o grandes asteroides (de hecho algo hay) que giraran en planos diferentes y con órbitas excéntricas y deformes. Cuerpos así podrían producir variaciones cíclicas que hicieran imposible —o difícil— la vida. Venus parece haber sufrido un impacto que le cambió el sentido de rotación sobre sí mismo. Es posible que este impacto también haya desbaratado su atmósfera y su clima. Podría habernos pasado a nosotros, y de hecho parecería que nos ocurrió, sólo que fue durante el génesis del sistema planetario y además (otra gran casualidad y premio cósmico) nos dejó a la Luna, excelente compañera para facilitar la vida.
¿Características especiales de nuestro mundo?
|
La cosa no acaba aquí: si el calor del reactor es el que produce la circulación de hierro fundido (por convección) que genera el campo magnético terrestre, entonces los planetas que no tienen su reactor natural no tendrían un campo magnético (magnetósfera) que los proteja de las radiaciones de su sol —como Marte y la Luna— lo que hace que difícilmente puedan sostener vida.
Pero ésta es sólo una teoría. Lo que está más en firme es que nuestro mundo y su luna forman un sistema muy particular, mucho más estable que si se tratara de un planeta solitario. Gracias a esto —a nuestra Luna— tenemos un clima más o menos estable, conservamos la atmósfera que tenemos y la velocidad y el ángulo de nuestro giro son los que son. Si no estuviese la Luna, el planeta se vería sujeto a cambios en su eje de rotación muy graves para los seres vivos.
emilio silvera
Abr
24
¡La Luz! Esa maravilla
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Algunos filósofos de la antigua Grecia, entre ellos Empédocles (495-435 a.C., aprox.), consideraban a la luz como un fluido que emanaba de los ojos del observador, que actuaba al modo de unos tentáculos, asemejando el sentido de la vista al sentido del tacto.
Una metafísica de la luz. La consideración metafísica de la luz en la Edad Media es uno de esos temas a los que se le confiere un significado renovado respecto de la Antigüedad. Hay tres autores representativos del período que pueden ilustrar sobre el asunto: Pseudo-Dionisio Areopagita, Roberto Grosseteste y Tomás de Aquino.
Los antiguos filósofos ya conocían algunos hechos sobre la propagación de la luz. Así se atribuye a Euclides el descubrimiento de las leyes de la reflexión de la luz (325 a. C.) Es a mediados del XVII cuando aparecen casi conjuntamente dos teorías acerca de la naturaleza de la luz. Teoría CORPUSCULAR (1666) y teoría ONDULATORIA (1678).
TEORIA CORPUSCULAR(NEWTON)
Supone que la luz está compuesta por una serie de corpúsculos o partículas emitidos por los manantiales luminosos, los cuales se propagan en línea recta y que pueden atravesar medios transparentes, y pueden ser reflejados por materias opacas. Esta teoría explica: La propagación rectilínea de la luz, la refracción y reflexión. Esta teoría no explica: Anillos de Newton (Irisaciones en las láminas delgadas de los vidrios) Este fenómeno lo explica la teoría ondulatoria y lo veremos más adelante. Tampoco explica los fenómenos de interferencia y difracción.
TEORIA ONDULATORIA (HUYGENS)
Esta teoría explica las leyes de la reflexión y la refracción , define la luz como un movimiento ondulatorio del mismo tipo que el sonido. Como las ondas se trasmiten en el vacío, supone que las ondas luminosas necesitan para propagarse un medio ideal, el ETER, presente tanto en el vacío como en los cuerpos materiales.
Esta teoría no fue aceptada debido al gran prestigio de Newton. Tuvo que pasar más de un siglo para que se tomara nuevamente en consideración la “Teoría Ondulatoria”. Los experimentos de Young (1801) sobre fenómenos de interferencias luminosas, y los de Fresnel sobre difracción fueron decisivos para que se tomaran en consideración los estudios de Huygens y para la explicación de la teoría ondulatoria.
TEORIA ELECTROMAGNETICA (MAXWELL 1865)
Descubre que la perturbación del campo electromagnético puede propagarse en el espacio a una velocidad que coincide con la de la luz en el vacío, equiparando por tanto las ondas electromagnéticas con las ondas luminosas.
Veinte años después Hertz comprueba que las ondas hertzianas de origen electromagnético tienen las mismas propiedades que las ondas luminosas, estableciendo definitivamente la identidad de ambos fenómenos.
Está claro que, los estudiosos de la época antigua y medieval estaban por completo a oscuras acerca de la naturaleza de la luz. Especulaban sobre que consistía en partículas emitidas por objetos relucientes o tal vez por el mismo ojo. Establecieron el hecho de que la luz viajaba en línea recta, que se reflejaba en un espejo con un ángulo igual a aquel con el que el rayo choca con el espejo, y que un rayo de luz se inclina (se refracta) cuando pasa del aire al cristal, al agua o a cualquier otra sustancia transparente.
Cuando la luz entra en un cristal, o en alguna sustancia transparente, de una forma oblicua (es decir, en un ángulo respecto de la vertical), siempre se refracta en una dirección que forma un ángulo menor respecto de la vertical. La exacta relación entre el ángulo original y el ángulo reflejado fue elaborada por primera vez en 1.621 por el físico neerlandés Willerbrord Snell. No publicó sus hallazgos y el filósofo francés René Descartes descubrió la ley, independientemente, en 1.637.
Siempre nos gustó hacer experimentos con la luz
Los primeros experimentos importantes acerca de la naturaleza de la luz fueron llevados a cabo por Isaac Newton en 1.666, al permitir que un rayo de luz entrase en una habitación oscura a través de una grieta e las persianas, cayendo oblicuamente sobre una cara de un prisma de cristal triangular. El rayo se refracta cuando entra en el cristal y se refracta aún más en la misma dirección cuando sale por una segunda cara del prisma. (Las dos refracciones en la misma dirección se originan por que los dos lados del prisma de se encuentran en ángulo en vez de en forma paralela, como sería el caso en una lámina ordinaria de cristal.)
Newton atrapó el rayo emergente sobre una pantalla blanca para ver el efecto de la refracción reforzada. Descubrió que, en vez de formar una mancha de luz blanca, el rayo se extendía en una gama de colores: rojo, anaranjado, amarillo, verde, azul, y violeta, en este orden.
Newton dedujo de ello que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores. La amplia banda de sus componentes se denominó spectrum (palabra latina que significa “espectro”, “fantasma”).
Newton llegó a la conclusión de que la luz se componía de diminutas partículas (“corpúsculos”), que viajaban a enormes velocidades.
Le surgieron y se planteó algunas inquietudes cuestiones. ¿Por qué se refractaban las partículas de luz verde más que los de luz amarilla? ¿Cómo se explicaba que dos rayos de luz se cruzaran sin perturbase mutuamente, es decir, sin que se produjeran colisiones entre partículas?
En 1.678, el físico neerlandés Christian Huyghens (un científico polifacético que había construido el primer reloj de péndulo y realizado importantes trabajos astronómicos) propuso una teoría opuesta: la de que la luz se componía de minúsculas ondas. Y si sus componentes fueran ondas, no sería difícil explicar los diversos difracciones de los diferentes tipos de luz a través de un medio refractante, siempre y cuando se aceptara que la luz se movía más despacio en ese medio refractante que en el aire. La cantidad de refracción variaría con la longitud de las ondas: cuanto más corta fuese tal longitud, tanto mayor sería la refracción. Ello significaba que la luz violeta (la más sensible a este fenómeno) debía de tener una longitud de onda mas corta que la luz azul, ésta, más corta que la verde, y así sucesivamente.
Lo que permitía al ojo distinguir los colores eran esas diferencias entre longitudes de onda. Y, como es natural, si la luz estaba integrada por ondas, dos rayos podrían cruzarse sin dificultad alguna. (Las ondas sonoras y las del agua se cruzan continuamente sin perder sus respectivas identidades.)
Peor la teoría de Huyqhens sobre las ondas tampoco fue muy satisfactoria. No explicaba por qué se movían en línea recta los rayos luminosos; ni por qué proyectaban sombras recortadas; ni aclaraba por qué las ondas luminosas no podían rodear los obstáculos, del mismo modo que pueden hacerlo las ondas sonoras y de agua. Por añadidura, se objetaba que si la luz consistía en ondas, ¿Cómo podía viajar por el vacío, ya que cruzaba el espacio desde el Sol y las Estrellas? ¿cuál era esa mecánica ondulatoria?
Interferencia: Sonido más sonido en algunos casos puede producir silencio. Esto sucede cuando dos ondas de sonido se superponen destructivamente, igual como se observa en las zonas nodales de una cuerda en vibración. ¿Será posible que en algún caso luz más luz produzca oscuridad? La respuesta es afirmativa. Quien lo demostrara en 1803, en un famoso experimento, fue Thomas Young (1773-1829). Éste consistió en hacer llegar un haz de luz simultáneamente a dos rendijas muy delgadas y muy cercanas, según se ilustra en el siguiente esquema.
Aproximadamente durante un siglo, contendieron entre sí estas teorías. La teoría corpuscular, de Newton, fue, con mucho, la más popular, en parte, porque la respaldó el famoso nombre de su autor. Pero hacia 1.801, un físico y médico ingles, de nombre Thomas Young, llevó a cabo un experimento que arrastró la opinión pública al campo opuesto. Proyectó un fino rayo luminoso sobre una pantalla, haciéndolo pasar antes por dos orificios casi juntos. Si la luz estuviera compuesta por partículas, cuando los dos rayos emergieran de ambos orificios, formarían presuntamente en la pantalla una región más luminosa donde se superpusieran, y regiones menos brillantes, donde no se diera tal superposición. Pero no fue esto lo que descubrió Young. La pantalla mostró una serie de bandas luminosas, separadas entre sí por bandas oscuras. Pareció incluso que, en esos intervalos de sombra, la luz de ambos rayos contribuía a intensificar la oscuridad.
Sería fácil explicarlo mediante la teoría ondulatoria. La banda luminosa representaba el refuerzo presado por las ondas de un rayo a las ondas del otro. Dicho de otra manera: Entraba “en fase” dos trenes de ondas, es decir, ambos nodos, al unirse, se fortalecían el uno al otro. Por otra parte, las bandas oscuras representaban puntos en que las ondas estaban “desfasadas” porque el vientre de una neutralizaba el nodo de la otra. En vez de aunar sus fuerzas, las ondas se interferían mutuamente, reduciendo la energía luminosa neta a las proximidades del punto cero.
Considerando la anchura de las bandas y la distancia entre los dos edificios por los que surgen ambos rayos, se pudo calcular la longitud de las ondas luminosas, por ejemplo, de la luz roja a la violeta o los colores intermedios. Las longitudes de onda resultaron ser muy pequeñas. Así, la de la luz roja era de unos 0’000075 cm. (Hoy se expresan las longitudes de las ondas luminosas mediante una unidad muy práctica ideada por Angströn. Esta unidad, denominada, en honor a su autor Ángstrom (Á), es la cienmillonésima parte de un centímetro. Así, pues, la longitud de onda de la luz roja equivale más o menos a 7.500 Á, y la de la luz violeta, a 3.900 Å, mientras que las de colores visibles en el espectro oscilan entre ambas cifras.)
La cortedad de estas ondas es muy importante. La razón de que las ondas luminosas se desplacen en línea recta y proyecten sombras recortadas se debe a que todas son incomparablemente más pequeñas que cualquier objeto; pueden contornear un obstáculo sólo si éste no es mucho mayor que la longitud de onda. Hasta las bacterias, por ejemplo, tienen un volumen muy superior de una onda luminosa y, por tanto, la luz puede definir claramente sus contornos bajo el microscopio. Sólo los objetos cuyas dimensiones se asemejan a la longitud de la onda luminosa (por ejemplo, los virus y otras partículas submicroscópicas) son lo suficientemente pequeños como para que puedan ser contorneados por las ondas luminosas.
Augustin Jean Fresnel (1788 – 1827)
Un físico francés, Augustin-Jean Fresnel, fue quien demostró por vez primera, en 1.818, que si un objeto es lo suficientemente pequeño, la onda luminosa lo contorneará sin dificultad. En tal caso, la luz determina el llamado fenómeno de “difracción”. Por ejemplo, las finísimas líneas paralelas de una “reja de difracción” actúan como una serie de minúsculos obstáculos, que se refuerzan entre si. Puesto que la magnitud de la difracción va asociada a la longitud de onda, se produce el espectro. A la inversa, se puede calcular la longitud de onda midiendo la difracción de cualquier color o porción del espectro, así como la separación de las marcas sobre el cristal.
Fraunhofer exploró dicha reja de difracción con objeto de averiguar sus finalidades prácticas, progreso que suele olvidarse, pues queda eclipsado por su descubrimiento más famoso: los rayos espectrales. El físico americano Henry Augustus Rowlane ideó la reja cóncava y desarrolló técnicas para regularlas de acuerdo con 20.000 líneas por pulgada. Ello hizo posible la sustitución del prisma por el espectroscopio.
Ante tales hallazgos experimentales, más el desarrollo metódico y matemático del movimiento ondulatorio, debido a Fresnel, pareció que la teoría ondulatoria de la luz había arraigado definitivamente, desplazando y relegando para siempre a la teoría corpuscular.
Jacques Babinet y el Observatorio de Paris
No sólo se aceptó las existencias de ondas luminosas, sino que también se midió su longitud con una precisión cada vez mayor. Hacia 1.827, el físico francés Jacques Babinet sugirió que se empleara la longitud de onda luminosa (una cantidad física inalterable) como unidad para medir tales longitudes, en vez de las muy diversas unidades ideadas y empleadas por el hombre. Sin embargo, tal sugerencia no se llevó a la práctica hasta 1.880 cuando el físico germano-americano Albert Abraham Michelson inventó un instrumento, denominado “interferómetro”, que podía medir las longitudes de ondas luminosas con una exactitud sin precedentes. En 1.893, Michelson midió la onda de la raya roja en el espectro del cadmio y determinó que su longitud era de 1/1.553.164 m.
Pero la incertidumbre reapareció al descubrirse que los elementos estaban compuestos por isótopos diferentes, cada uno de los cuáles aportaba una raya cuya longitud de onda difería ligeramente de las restantes. En la década de 1.930 se midieron las rayas del criptón 86. Como quiera que este isótopo fuera gaseoso, se podía abordar con bajas temperaturas, para frenar el movimiento atómico y reducir el consecutivo engrosamiento de la raya.
Tubo de descarga lleno de kriptón puro
En 1.960, el Comité Internacional de Pesos y Medidas adoptó la raya del criptón 86 como unidad fundamental de longitud. Entonces se restableció la longitud de metro como 1.650.763’73 veces la longitud de onda de dicha raya espectral. Ello aumento mil veces la precisión de las medidas de longitud. Hasta entonces se había medido el antiguo metro patrón con un margen de error equivalente a una millonésima, mientras que en lo sucesivo se pudo medir la longitud de onda con un margen de error equivalente a una milmillonésima.
Ahora, después de todo esto, sabemos algo más sobre la luz. Pero…, ¿Qué pasa con su velocidad?
¡Veámoslo!
La velocidad de la luz, desde hace mucho tiempo, fue un misterio que los estudiosos de la física de la Naturaleza querían desvelar
Está claro que, la luz se desplaza a enormes velocidades. Si pulsamos el interruptor de apagado de la lámpara de nuestro salón, todo queda a oscuras de manera instantánea y, de la misma manera e inmediata, todo se inunda de luz si con una potente linterna encendida, apuntamos hacia un rincón oscuro.
La velocidad del sonido es más lenta, por ejemplo, si vemos a un leñador que está cortando leña en un lugar alejado de nosotros, sólo oiremos los golpes momentos después de que caiga el hacha. Así, pues, el sonido tarda cierto tiempo en llegar a nuestros oídos. En realidad es fácil medir la velocidad de su desplazamiento: unos 1.206 km/h en el aire y a nivel del mar.
Sin materia no hay sonido. aquí se propaga el contacto del hacha contra el tronco
Galileo fue el primero en intentar medir la velocidad de la luz. Se colocó en lo alto de una colina, mientras que su ayudante, se situaba en otro lugar alto de la colina vecina; luego sacó una linterna encendida: tan pronto como su ayudante vió la luz, hizo una señal con otra linterna. Galileo repitió el experimento a distancias cada vez mayores, suponiendo que el tiempo requerido por su ayudante para responder mantendría una uniformidad constante, por lo cual, el intervalo entre la señal de su propia linterna y la de su ayudante representaría el tiempo empleado por la luz para recorrer cada distancia. Aunque la idea era lógica, la luz viajaba demasiado aprisa como para que Galileo pudiera percibir las sutiles diferencias con un método tan rudimentario.
Fue el primero en medir la velocidad de la luz allá por 1676. … Para la determinación de la velocidad de la luz, Ole Roemer obtuvo un valor de 214000 km/s, aceptable dada la poca precisión con la que se podía medir en aquella época la distancia de los planetas.
En 1.676, el astrónomo danés Olau Roemer logró cronometrar la velocidad de la luz a escala de distancias astronómicas. Estudiando los eclipses de Júpiter en sus cuatro grandes satélites, Roemer observó que el intervalo entre eclipses consecutivos era más largo cuando la Tierra se alejaba de Júpiter, y más corto cuado se movía en su órbita hacía dicho astro. Al parecer, la diferencia entre las duraciones del eclipse reflejaba la diferencia de distancias entre la Tierra y Júpiter. Y trataba, pues, de medir la distancia partiendo del tiempo empleado por la luz para trasladarse desde Júpiter hasta la Tierra. Calculando aproximadamente el tamaño de la órbita terrestre y observando la máxima discrepancia en las duraciones del eclipse que, según Roemer, representaba el tiempo que necesitaba la luz para atravesar el eje de al órbita terrestre, dicho astrónomo computó la velocidad de la luz. Su resultado, de 225.000 km/s., parece excelente si se considera que fue el primer intento, y resultó bastante asombroso como para provocar la incredulidad de sus coetáneos.
James Bradley
“A principios del XVIII todavía no se sabía a qué distancia se encontraban las estrellas, pero dado que se admitía que la Tierra orbitaba en torno al Sol, ya parecía posible medir el movimiento paraláctico de las mismas, lo que permitiría medir sus distancias. Tratando de medir ese movimiento, el astrónomo británico James Bradley descubrió el fenómeno de la aberración de la luz, con lo que confirmó inequívocamente el movimiento de traslación de la Tierra y estimó la velocidad de la luz. Bradley también descubrió y midió la nutación o cabeceo de los polos terrestres. Una vez identificados estos efectos, se estaba preparado para medir el pequeño movimiento paraláctico de las estrellas, un efecto menor que el de la aberración. Pero aún habría que esperar más de un siglo a que Friedrich Bessel (1784-1846) midiese -en 1838- la primera paralaje hacia la estrella 61 Cygni, lo que proporcionaría una primera idea de la inmensidad de la Galaxia.”
Sin embargo, medio siglo después se confirmaron los cálculos de Roemer en un campo totalmente distinto. Allá por 1.728, el astrónomo británico James Bradley descubrió que las estrellas parecían cambiar de posición con los movimientos terrestres; y no por el paralaje, sino porque la traslación terrestre alrededor del Sol era una fracción mensurable (aunque pequeña) de la velocidad de la luz. La analogía empleada usualmente es la de un hombre que camina con el paraguas abierto bajo un temporal. Aun cuando las gotas caigan verticalmente, el hombre debe inclinar hacia delante el paraguas, porque ha de abrirse paso entre las gotas.
James Bradley descubrió la aberración estelar
Cuanto más acelere su paso, tanto más deberá inclinar el paraguas. De manera semejante la Tierra avanza entre los ligeros rayos que caen desde las estrellas, y el astrónomo debe inclinar un poco su telescopio y hacerlo en varias direcciones, de acuerdo con los cambios de la trayectoria terrestre (no olvidemos que nuestro planeta Tierra, es como una enorme nave espacial que nos lleva en un viaje eterno, alrededor del Sol, a la velocidad de 30 km/s. + -) Mediante ese desvío aparente de los astros (“aberración de la luz”), Bradley pudo evaluar la velocidad de la luz y calcularla con gran precisión.
Sus cálculos fueron de 285.000 km/s, bastante más exacto que los de Roemer, pero aún un 5’5% más bajos. Poco a poco, con medios tecnológicos más sofisticados y más conocimientos matemáticos, los científicos fueron obteniendo medidas más exactas aún, conforme se fue perfeccionando la idea original de Galileo y sus sucesores.
En 1.849, el físico francés Armand-Hippolyte-Louis Fizeau ideó un artificio mediante el cual se proyectaba la luz sobre un espejo situado a 8 km de distancia, que devolvía el reflejo al observador. El tiempo empleado por la luz en su viaje de ida y vuelta no rebasó apenas la 1/20.000 de segundo, pero Fizeau logró medirlo colocando una rueda dentada giratoria en la trayectoria del rayo luminoso. Cuando dicha rueda giraba a cierta velocidad, regulada, la luz pasaba entre los dientes y se proyectaba contra el siguiente, al ser devuelta por el espejo; así, Fizeau, colocado tras la rueda, no pudo verla. Entonces se dio más velocidad a la rueda, y el reflejo pasó por la siguiente muesca entre los dientes, sin intercepción alguna. De esa forma, regulando y midiendo la velocidad de la rueda giratoria, Fizeau pudo calcular el tiempo transcurrido y, por consiguiente, la velocidad a que se movía el rayo de luz.
Un año más tarde, Jean Foucault (quien realizaría poco después su experimento con los péndulos) precisó más estas medidas empleando un espejo giratorio en ve de una rueda dentada. Entonces se midió el tiempo transcurrido desviando ligeramente el ángulo de reflexión mediante el veloz espejo giratorio. Foucault obtuvo un valor de la velocidad de la luz de 300.883 km/s. También, el físico francés utilizó su método para determinar la velocidad de la luz a través de varios líquidos. Averiguó que era notablemente inferior a la alcanzada en el aire. Esto concordaba también con la teoría ondulatoria de Huyghens.
Michelson fue más preciso aún en sus medidas. Este autor, durante cuarenta años largos, a partir de 1.879, fue aplicando el sistema Fizeau-Foucault cada vez con mayor refinamiento, para medir la velocidad de la luz. Cuando se creyó lo suficientemente informado, proyectó la luz a través de vacío, en vez de hacerlo a través del aire, pues este frena ligeramente su velocidad, y, empleó para ello tuberías de acero cuya longitud era superior a 1’5 km. Según sus medidas, la velocidad de la luz en el vacío era de 299.730 km(seg. (sólo un 0’006% más bajo). Demostraría también que todas las longitudes de ondas luminosas viajan a la misma velocidad en el vacío.
En 1.972, un equipo de investigadores bajo la dirección de Kenneth M. Eveson efectuó unas mediciones aún más exactas y vio que la velocidad de la luz era de 299.727’74 km/seg. Una vez se conoció la velocidad de la luz con semejante precisión, se hizo posible usar la luz, o por lo menos formas de ella, para medir distancias.
Aunque para algunos resulte alto tedioso el tema anterior, no he podido resistirme a la tentación de exponerlo, así podrá saber algo más sobre la luz y, habrán conocido a personajes que hicieron posible el que ahora nosotros, la conozcamos mejor.
Podría continuar, hasta el final de este trabajo, hablando de la luz y sus distintas formas o aplicaciones: ondas de luz a través del espacio, de cómo se transmite la luz en el “vacío”, nos llega a través del espacio desde Galaxias situadas a miles de millones de años luz; las líneas de fuerzas electromagnéticas de Faraday y Maxwell de campos eléctricos y magnéticos cambiantes (todo ello explicado en un simple conjunto de cuatro ecuaciones, que describían casi todos los fenómenos referentes a esta materia electromagnética), o de los enigmas aún por descubrir (aunque predichos).
Ahora, en Física, se dice que la luz es una forma de radiación electromagnética a la que el ojo humano es sensible y sobre la cual depende nuestra consciencia visual del universo y sus contenidos.
Aparte de todo lo que antes hemos explicado, no sería justo finalizar el trabajo sin exponer aquí que, en 1905, Albert Einstein, inspirado en el cuanto de Planck, realizó un importante avance en el conocimiento de lo que es la luz. Demostró que el Efecto fotoeléstrico sólo podía ser explicado con la hipótesis de que la luz consiste en un chorro de fotones de energía electromagnética discretos. Aquello le valió el Nobel de Física y… ¡Le hurtaron otros dos por las dos partes de su teoría de la relatividad! Una revolución que lo cambió todo y que nunca podremos pagarle.
El conflicto entre la teoría ondulatoria y corpuscular de la luz fue resuelto con la evolución de la teoría cuántica y la mecánica ondulatoria que ha dejado claro que, los electrones y las otras partículas elementales tienen propiedades duales de partículas y onda.
sería mucho más largo, pero creo que está bien con lo dicho.
emilio silvera
Abr
23
El Universo es dinámico y, ¡misterioso!
por Emilio Silvera ~ Clasificado en General ~ Comments (1)
En no pocas ocasiones uno se ha parado a pensar en cómo pudo surgir el Universo a partir de la “nada”. Si surgió es porque había. Y, desde luego, todo está directamente relacionado con eso que se conoce por fluctuaciones, esas desviaciones aleatorias en el valor de las cosas sobre su valor medio. No hay que perder de vista los sistemas descritos por la mecánica cuántica, en ellos están bien definidas esas fluctuaciones que, en esa infinitesimal región se llaman “fluctuaciones cuánticas” y, tienen mucho que ver con el Principio de Incertidumbre de Heisenberg.
En Cualquier sistema por encima del cero absoluto se pueden presentar dichas fluctuaciones. Es necesario que tengamos en cuenta dichas fluctuaciones para poder obtener una teoría cuantitativa de de las “transiciones de fase” en tres dimensiones. Incluso se puede llegar a pensar que las “fluctuaciones cuánticas” pudieron ser las responsables de la formación de las estructuras en el universo primitivo que pudo surgir de una “Fluctuación del Vacío” que rasgando el espacio tiempo en otro lugar, produjo la opción de crear nuestro universo, o, incluso, múltiples universos conectados al principio y separados más tarde para hacerse unidades independientes de universos.
Lo que vemos arriba marcado dentro de un círculo es lo que se conoce como el Gran Vacío de Boötes, uno de los mayores “vacíos conocidos de nuestro Universo. El Tiene unos 250 millones de años luz de diámetro (casi el 0.27% del diámetro del universo visible), o unos 236,000 Mpc3 en el volumen. Se considera un super-vació y sólo tiene dentro de él a unas sesenta galaxias. Fue descubierto por Robert Kirshner (1981), como parte de un estudio de corrimientos al rojo galácticos. El centro del Vacío Boötes esta a aproximadamente 700 millones de años luz de la Tierra.
En astronomía, el vacío está referido a regiones del espacio con menor contenido de Galaxias que el promedio o ninguna galaxia. También le solemos llamar vacío cósmico. Han sido detectados vacíos con menos de una décima de la densidad promedio del Universo en escalas de hasta 200 millones de años-luz en exploraciones a gran escala.
El vacío, en el sentido de ausencia total de cualquier cosa, ya sea materia o energía, no existe. Incluso si en una región determinada de espacio consiguiéramos no toparnos con nada, ni siquiera con una única partícula solitaria que lo cruce, seguiría habiendo allí una serie de «fluctuaciones», diminutas ondas de naturaleza cuántica que, apareciendo y desapareciendo continuamente, harían que ese espacio burbujeara de energía.
Sabemos que la “Nada” no existe y que, a partir de las “Fluctuaciones de vacío” nace la materia
El ojo humano es limitado, es mucho lo que está y no puede ver
¡Las fluctuaciones de vacío! que, al igual que las ondas “reales” de energía positiva, están sujetas a las leyes de la dualidad onda/partícula; es decir, tienen tanto aspectos de onda como aspectos de partícula. Las ondas fluctúan de forma aleatoria e impredecible, con energía positiva momentáneamente aquí, energía negativa momentáneamente allí, y energía cero en promedio. El aspecto de partícula está incorporado en el concepto de partículas virtuales, es decir, partículas que pueden nacer en pares (dos partículas a un tiempo), viviendo momentáneamente de la energía fluctuacional tomada prestada de regiones “vecinas del espacio”, y que luego se aniquilan y desaparecen, devolviendo la energía a esas regiones vecinas. Si hablamos de fluctuaciones electromagnéticas del vacío las partículas virtuales son fotones virtuales; en el caso de fluctuaciones de la Gravedad en el vacío, son gravitones virtuales.
Ni con los ojos abiertos como platos hemos podido “ver” lo que “hay” en esas “regiones vecinas” a nuestro mundo y que llamamos vacío en el que se producen fluctuaciones que hace surgir “cosas” que, de inmediato, desaparecen. Insistimos en querer verlas para saber y no dejamos de preguntarnos… ¿Qué es lo que hay allí? ¿Vivirá en esa región la tan buscada partícula de Higgs, la materia oscura o las cuerdas? ¿Qué es lo que allí puede haber? En realidad sabemos que las fluctuaciones de vacío son, para las ondas electromagnéticas y gravitatorias, lo que “los movimientos de degeneración claustrofóbicos” son para los electrones.
Si confinamos un electrón a una pequeña región del espacio, entonces, por mucho que un trate de frenarlo y detenerlo, el electrón está obligado por las leyes de la mecánica cuántica a continuar moviéndose aleatoriamente, de forma impredecible. Este movimiento de degeneración claustrofóbico que produce la presión mediante la que una estrella enana blanca se mantiene contra su propia compresión gravitatoria o, en el mismo caso, la degeneración de los neutrones, mantiene estable a la estrella de neutrones que, obligada por la fuerza que se genera de la degeneración de los neutrones, es posible frenar la enorme fuerza de gravedad que está comprimiendo a la estrella.
De la misma forma, si tratamos de eliminar todas las oscilaciones electromagnéticas o gravitatorias de alguna región del espacio, nunca tendremos éxito. Las leyes de la mecánica cuántica insisten en que siempre quedarán algunas oscilaciones aleatorias impredecibles, es decir, algunas ondas electromagnéticas y gravitatorias aleatorias e impredecibles. Estas fluctuaciones del vacío no pueden ser frenadas eliminando su energía (aunque algunos estiman que, en promedio, no contienen energía en absoluto).
Claro que, aún nadie ha podido medir de ninguna manera la cantidad real de energía que se escapa de ese supuesto “vacío”, como tampoco se ha medido la cantidad de fuerza gravitatoria que puede salir de ese mismo espacio “vacío”. Si la energía es masa y si la masa produce gravedad, entonces ¿Qué es lo que hay en ese mal llamado “espacio vacío”?
Podemos imaginar que el vacío es un depósito de energía: las partículas virtuales surgen del vacío, tomando prestada temporalmente parte de su energía. En física, lo normal es sorprenderse y leer cosas como esta:
“Así, como entramos en una nueva era para comprender el tiempo, también hemos entrado a una nueva era de comprender el espacio. Se ha descubierto que lo que llamamos espacio vacío, el vacío, en realidad está repleto de inmensa energía potencial. La conclusión ordinaria de considerar el espacio como la nada, el lugar donde se sitúa la materia, evidentemente se ha convertido en nuestro espacio. Pero el vacío tiene más energía que la materia que está en ese vacío y de hecho, la materia y el vacío son una misma cosa, hay una continuidad. Se ha descubierto que hay más energía en un centímetro cúbico de vacío que en todo el Universo manifiesto.”
Lo cierto es que estamos en un momento crucial de la Física, las matemáticas y la cosmología, y debemos, para poder continuar avanzando, tomar conceptos nuevos que, a partir de los que ahora manejamos, nos permitan traspasar los muros que nos están cerrando el paso para llegar a las supercuerdas, a la posible “materia oscura” o a una “teoría cuántica de la gravedad” que, también está implícita en la teoría M.
Claro que esto estuvo bien pero… Habrá que buscar cosas nuevas que nos lleven más allá. Llevamos más de cien años utilizando las mismas herramientas (el cuanto de Planck y la relatividad de Einstein), sería la hora de que alguien iluminado tenga esa idea que nos haga dar ese gran paso hacia la física del futuro.
Las nuevas tecnologías cambiaran el futuro
Estamos anclados, necesitamos nuevas y audaces ideas que puedan romper las cadenas “virtuales” que atan nuestras mentes a ideas del pasado que, como la relatividad y la mecánica cuántica llevan cien años predominando sobre la física. ¿No es tiempo ya de andar otros caminos que nos lleven más lejos, que nos enseñen otros horizontes? ¿Dónde están las ideas? ¿Dónde nuestra imaginación?
Como nos dicen en este anuncio del Kybalión, nada es estático en el Universo y, todo está en continuo movimiento o vibración. Habréis oído hablar de la energía de punto cero que permanece en una sustancia en el cero absoluto (cero K). Está de acuerdo con la teoría cuántica, según la cual, una partícula oscilando con un movimiento armónico simple no tiene estado estacionario de energía cinética nula. Es más, el Principio de Incertidumbre no permite que esta partícula esté en reposo en el punto central exacto de sus oscilaciones. Del vacío surgen sin cesar partículas virtuales que desaparecen en fracciones de segundo, y, ya conocéis, por ejemplo, el Efecto Casimir en el que dos placas pueden producir energía negativa surgidas del vacío.
Efecto Casimir
Me llama poderosamente la atención lo que conocemos como las fluctuaciones de vacío; esas oscilaciones aleatorias, impredecibles e in-eliminables de un campo (electromagnético o gravitatorio), que son debidas a un tira y afloja en el que pequeñas regiones del espacio toman prestada momentáneamente energía de regiones adyacentes y luego la devuelven.
La bomba turbo, nos permite después del proceso de horneo llegar a régimen de ultra alto vacío (mejor que 1E-7 mbar.)
Ordinariamente, definimos el vacío como el espacio en el que hay una baja presión de un gas, es decir, relativamente pocos átomos o moléculas. En ese sentido, un vacío perfecto no contendría ningún átomo o molécula, pero no se puede obtener, ya que todos los materiales que rodean ese espacio tienen una presión de vapor infinita. En un bajo vacío, la presión se reduce hasta 10-2 pascales, mientras que un alto vacío tiene una presión de 10-2 – 10-7 pascales. Por debajo de 10-7 pascales se conoce como un vacío ultra-alto. Tenemos que llegar a la conclusión de que el “vacío” y la “nada” no existen realmente. ¡Siempre hay!
“La raíz etimológica de «nada»: res nata, es contradictoria del significado actual, pues significa cosa nacida. Quizás este -para muchos- insospechado y contundente hecho justifique las tal vez permanentes e irreconciliables concepciones antagónicas, y la reificación no incurra ya en falacia.
En contraste, en la filosofía griega la idea de la nada surgió con los problemas de la negación del ser, de la conservación del ser y de la imposibilidad de afirmar la nada. En particular, Parménides creyó que del «no ser» (la nada) no se puede hablar. Epicuro y Lucrecio aseveraron que la materia no se puede crear de la nada, ni destruir a nada”. Hasta los antiguos sospechaban esa verdad.
Fui a una charla de Álvaro Rújula del CERN y, entre otras cosas decía:
“Saquemos los muebles de la habitación, apaguemos las luces y vayámonos. Sellemos el recinto, enfriemos las paredes al cero absoluto y extraigamos hasta la última molécula de aire, de modo que dentro no quede nada. ¿Nada? No, estrictamente hablando lo que hemos preparado es un volumen lleno de vacío. Y digo lleno con propiedad. Quizás el segundo más sorprendente descubrimiento de la física es que el vacío, aparentemente, no es la nada, sino una substancia. Aunque no como las otras…”
Siempre hay
El hombre lleva toda la razón y es cierto que en física, la “nada” no existe y es simplemente una abstracción, un concepto, una manera de hablar para entendernos en ciertos aspectos de la conversación. Como antes he dicho por ahí arriba, existe ese algo que surge del “espacio vacío” y que conocemos como partículas virtuales, las que constantemente se crean y se destruyen y aunque no son observables de manera directa, los efectos que dichas partículas generan si que lo son. En ese sentido la física curiosamente se alinea con la etimología de la palabra nada. Todo esto, ese fenómeno que no hemos llegado a comprender nos lleva a sospechar que, ahí reside un a “identidad secreta” que nos pone delante de “la nada y el nacer”, es decir, nos pone delante del plano que nos dice que… !la nada puede ser el nacimiento! Lo que hace posible el propio proceso de nacer, o, dicho de otra manera, la “nada” podría ser la perenne potencia de ser.
Gráfico del Principio de Indeterminación de Heisenberg.
Así, podemos llegar a la conclusión de que debido a la extraña mecánica cuántica, “la nada” se puede transformar en “algo” de manera constante. El Principio de Incertidumbre de Heisenberg señala que un sistema nunca puede tener exactamente cero energía y como la energía es masa -la relatividad especial nos demostró que son dos caras de una misma moneda-, podríamos llegar a entender el por qué, pares de partículas se pueden formar espontáneamente siempre y cuando se aniquilen rápidamente para restablecer el equilibrio.
En mecánica cuántica, la Incertidumbre nos dice que hay una compensación entre energía y tiempo: Cuanta menor energía tiene un sistema, más tiempo podrá mantenerse. Lo mismo les pasa a las estrellas super-masivas que duran mucho menos que estrellas más pequeñas que consumen menos materia de fusión nuclear. Si pensamos en todo eso, incluso podríamos llegar a la conclusión final de que, el Universo, que tiene 13.700 millones de años, ha tenido el tiempo necesario para poder formar, a partir del “vacío cuántico” estrellas y galaxias llenas de mundos y de formas de vida complejas, gracias a que, su energía en conjunto, debe ser -teniendo en cuenta su extensión- demasiado baja, o, lo necesariamente baja para que eso sea posible.
Claro que, a pesar de todo lo que más arriba he dicho, debemos llegar a la conclusión de que “no sabemos”, y, el hecho cierto de que, hayamos sido capaces de desvelar “algunos” secretos de la Naturaleza, no debe ser suficiente para que se nos suban esos “pequeños” triunfos a la cabeza. Newton nos descubrió que la luz del Sol o luz blanca, era el producto de la mezcla de todos los componentes coloreados, hizo pasar un rayo de luz por un prisma y, la habitación donde hacía el experimento, sus paredes, se llenaron de luciérnagas luminosas de muchos colores, el arco iris estaba allí, del rojo al violeta, descompuestos en mariposas luminosas.
Planck nos habló del cuanto de energía, h. Einstein nos dijo que la energía y la masa eran la misma cosa y que la luz marcaba el límite al que podemos enviar la información en nuestro universo. Otros descubrieron de qué estaba formada la materia y cómo se transmitían las fuerzas fundamentales del nuestro Universo. Pudimos descubrir la existencia de unas constantes universales que hacían posible un Universo como el que nos acoge. Muchos otros secretos fueron desvelados y “arrancados” de la “gruta de los tesoros” que la Naturaleza esconde.
Todo eso es cierto, y, nuestro cerebro, una obra de la Naturaleza que lo hizo surgir a partir de la materia “inerte”, que ha podido evolucionar para desvelar todos esos secretos y, sin embargo, no debemos confundir -para nuestro propio bien-, que unos pocos conocimientos son los conocimientos. Como decía el sabio:
“cuanto más profundizo en el saber de las cosas, más consciente soy de lo poco que sé. Mis conocimientos son finitos pero, mi ignorancia, es infinita“.
“La ciencia no es otra cosa que la empresa de descubrir la unidad en la variedad desaforada de la naturaleza, o más exactamente, en la variedad de nuestra experiencia que está limitada por nuestra ignorancia.”
Yo creo que la Ciencia es un proceso de ir descubriendo a cada paso un orden nuevo que nos lleve a unir lo que parecía desunido. Todo en el Universo tiene una relación y, lo que pasa “aquí”, de alguna manera, influye en lo que pasará “allí”. Todo parece estar conectado por hilos invisibles de la Gravedad y el electromagnetismo que tienen alcance infinito y están presentes en todas partes, también en nosotros influyen esas y las otras fuerzas fundamentales del Universo para que seamos como somos y no de otra manera.
emilio silvera
Abr
23
¿Cómo poder ver la realidad… “del mundo” que nos rodea?
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Si sabemos mirar la Naturaleza… Nos irá mucho mejor
No pocos se pasan la vida sin ver lo que existe a su alrededor, el trabajo, la familia, el coche nuevo, la hipoteca del chalet, alcanzar ese puesto más alto… Se pasan la vida en esa vorágine circunscrita a un pequeño “mundo” personal que le aleja de una realidad que es mucho más grande y, sin darse cuenta, se le pasa la vida sin haber podido ver todo lo que existe a su alrededor que, dejando a un lado las pequeñas cosas, también estaba a su alcance.
Es fácil caer en la tentación de mirarnos el ombligo y no hacerlo al entorno que nos rodea. Muchas más cosas habríamos evitado y habríamos descubierto si por una sola vez hubiésemos dejado el ego a un lado y, en lugar de estar pendientes de nosotros mismos, lo hubiéramos hecho con respecto a la Naturaleza que, en definitiva, es la que nos enseña el camino a seguir, nos elimina (de mil maneras diferentes) o permite que podamos seguir contemplando sus maravillas.
La edad actual del universo visible ≈ 1060 tiempos de Planck
Tamaño actual del Universo visible ≈ 1060 longitudes de Planck
La masa actual del Universo visible ≈ 1060 masas de Planck
Vemos así que la bajísima densidad de materia en el universo es un reflejo del hecho de que:
Densidad actual del universo visible ≈10-120 de la densidad de Planck
Y la temperatura del espacio, a 3 grados sobre el cero absoluto es, por tanto
Temperatura actual del Universo visible ≈ 10-30 de la T. de Planck
Mirando los escenarios que el Universo nos muestra, nos sentimos más humildes ante tanta grandeza
Estos números extraordinariamente grandes y estas fracciones extraordinariamente pequeñas nos muestran inmediatamente que el Universo está estructurado en una escala sobrehumana de proporciones asombrosas cuando la sopesamos en los balances de su propia construcción. Con respecto a sus propios patrones, el Universo es viejo. El tiempo de vida natural de un mundo gobernado por la gravedad, la relatividad y la mecánica cuántica es el fugaz breve tiempo de Planck. Parece que es mucho más viejo de lo que debería ser.
Pero, pese a la enorme edad del universo en “tics” del Tiempo de Planck, hemos aprendido que casi todo este tiempo es necesario para producir estrellas y los elementos químicos que traen la vida.
¿Por qué nuestro Universo no es mucho más viejo de lo que parece ser? Es fácil entender por qué el Universo no es mucho más joven. Las estrellas tardan mucho tiempo en formarse y producir elementos más pesados que son las que requiere la complejidad biológica. Pero los universos viejos también tienen sus problemas. Conforme para el Tiempo en el Universo el proceso de formación de estrellas se frena. Todo el gas y el polvo cósmico que constituyen las materias primas de las estrellas habrían sido procesados por las estrellas y lanzados al espacio intergaláctico donde no pueden enfriarse y fundirse en nuevas estrellas.
Pocas estrellas hacen que, a su vez, también sean pocos los sistemas planetarios. Los planetas que se forman son menos activos que los que se formaron antes, la entropía va debilitando la energía del sistema para realizar trabajo. La producción de elementos radiactivos en las estrellas disminuirá, y los que se formen tendrán semividas más largas. Los nuevos planetas serán menos activos geológicamente y carecerán de muchos de los movimientos internos que impulsan el vulcanismo, la deriva continental y la elevación de las montañas en el planeta. Si esto también hace menos probable la presencia de un campo magnético en un planeta, entonces será muy poco probable que la vida evolucione hasta formas complejas.
Las estrellas típicas como el Sol, emiten desde su superficie un viento de partículas cargadas eléctricamente que barre las atmósferas de los planetas en órbitas a su alrededor y, a menos que el viento pueda ser desviado por un campo magnético, los posibles habitantes de ese planeta lo podrían tener complicado soportando tal lluvia de radiactividad. En nuestro sistema solar el campo magnético de la Tierra ha protegido su atmósfera del viento solar, pero Marte, que no está protegido por ningún campo magnético, perdió su atmósfera hace tiempo.
Las amenazas espaciales están siempre ahí. No pocas veces lo pudimos comprobar
Probablemente no es fácil mantener una larga vida en un planeta del Sistema solar. Poco a poco hemos llegado a apreciar cuán precaria es. Dejando a un lado los intentos que siguen realizando los seres vivos de extinguirse a sí mismos, agotar los recursos naturales, propagar infecciones letales y venenos mortales y emponzoñar la atmósfera, también existen serias amenazas exteriores.
Los movimientos de cometas y asteroides, a pesar de tener la defensa de Júpiter, son una seria y cierta amenaza para el desarrollo y persistencia de vida inteligente en las primeras etapas. Los impactos no han sido infrecuentes en el pasado lejano de la Tierra, habiendo tenido efectos catastróficos. Somos afortunados al tener la protección de la Luna y de la enorme masa de Júpiter que atrae hacia sí los cuerpos que llegan desde el exterior desviándolos de su probable trayectoria hacia nuestro planeta.
La caída en el planeta de uno de estos enormes pedruscos podría producir extinciones globales y retrasar en millones de años la evolución que tantos miles de millones de años le costó al Universo para poder plasmarla en una realidad que llamamos vida. Cuando comento este tema no puedo evitar el recuerdo del meteorito caído en la Tierra que impactó en la península de Yucatán hace 65 millones de años, al final de la Era Mesozoica.
Cuando según todos los indicios, los dinosaurios se extinguieron. Sin embargo, aquel suceso catastrófico para los grandes lagartos, en realidad supuso que la Tierra fue rescatada de un callejón sin salida evolutivo. Parece que los dinosaurios evolucionaron por una vía que desarrollaba el tamaño físico antes que el tamaño cerebral.
La vida después de la desaparición de los dinosaurios
La desaparición de los dinosaurios junto con otras formas de vida sobre la Tierra en aquella época, hizo un hueco para la aparición de los mamíferos. Se desarrolló la diversidad una vez desaparecidos los grandes depredadores. Así que, al menos en este caso concreto, el impacto nos hizo un gran favor, ya que hizo posible que 65 millones de años más tarde pudiéramos llegar nosotros. Los dinosaurios dominaron el planeta durante 150 millones de años; nosotros en comparación, llevamos aquí tres días y, desde luego, ¡la que hemos formado!
Y no podemos tener la menor duda, mientras que estemos aquí, seguiremos pretendiendo y queriendo saber sobre los secretos de la Naturaleza que, al fin y al cabo, puede ser nuestra salvación. Ya saben ustedes: ¡Saber es poder! Y, en relación a la vida…
Hemos llegado a ser conscientes de que, el secreto reside en el tiempo biológico necesario para desarrollar la vida y el tiempo necesario para desarrollar estrellas de segunda generación y siguientes que en novas y supernovas cristalicen los materiales complejos necesarios para la vida, tales como el hidrógeno, nitrógeno, oxígeno, carbono, etc.
Parece que la similitud en los “tiempos” no es una simple coincidencia. El argumento, en su forma más simple, lo introdujo Brandon Carter y lo desarrolló John D. Barrow por un lado y por Frank Tipler por otro. Al menos, en el primer sistema solar habitado observado, ¡el nuestro!, parece que sí hay alguna relación entre t(bio) y t(estrella) que son aproximadamente iguales; el t(bio) – tiempo biológico para la aparición de la vida – algo más extenso.
La evolución de una atmósfera planetaria que sustente la vida requiere una fase inicial durante la cual el oxígeno es liberado por la fotodisociación de vapor de agua. En la Tierra esto necesitó 2.400 millones de años y llevó el oxígeno atmosférico a aproximadamente una milésima de su valor actual. Cabría esperar que la longitud de esta fase fuera inversamente proporcional a la intensidad de la radiación en el intervalo de longitudes de onda del orden de 1000-2000 ángstroms, donde están los niveles moleculares clave para la absorción de agua.
Este simple modelo indica la ruta que vincula las escalas del tiempo bioquímico de evolución de la vida y la del tiempo astrofísico que determina el tiempo requerido para crear un ambiente sustentado por una estrella estable que consume hidrógeno en la secuencia principal y envía luz y calor a los planetas del Sistema Solar que ella misma forma como objeto principal.
A muchos les cuesta trabajo admitir la presencia de vida en el universo como algo natural y corriente, ellos abogan por la inevitabilidad de un universo grande y frío en el que es difícil la aparición de la vida, y en el supuesto de que ésta aparezca, será muy parecida a la nuestra.
¿Quién sabe lo que en otros mundos puede existir?
Los biólogos, sin embargo, parecen admitir sin problemas la posibilidad de otras formas de vida, pero no están tan seguros de que sea probable que se desarrollen espontáneamente, sin un empujón de formas de vida basadas en el carbono. La mayoría de las estimaciones de la probabilidad de que haya inteligencias extraterrestres en el universo se centran en formas de vida similares a nosotros que habiten en planetas parecidos a la Tierra y que necesiten agua y oxígeno o similar con una atmósfera gaseosa y las demás condiciones de la distancia entre el planeta y su estrella, la radiación recibida, etc. En este punto, parece lógico recordar que antes de 1.957 se descubrió la coincidencia entre los valores de las constantes de la Naturaleza que tienen importantes consecuencias para la posible existencia de carbono y oxígeno, y con ello para la vida en el universo.
¡Y pensar que nosotros, sólo somos una pequeña ramita del gran árbol!
La luz del Sol es la responsable de que en la Tierra -y supongo que la de otras estrellas en otros muchos planetas del Universo- , se puedan formar complejas estructuras y germinar muchas otras que son imprescindibles para la existencia de los seres vivos. La utilización biológica de la luz se comprenderá más fácilmente si, consideramos primero, en que nosotros y todos los demás organismos heterótrofos -que viven en el aire-, es decir, animales, hongos y muchos protistas y bacterias, satisfacemos nuestras necesidades energéticas. La palabra clave es combustión; más técnicamente, oxidación, esto es, la producción de energía por la interacción de determinadas sustancias con el oxígeno. En este sentido, somos como cualquier máquina y, el combustible en nuestro caso, consiste en componentes del acervo metabólico, que a su vez deriva de los alimentos. Aquí, sin embargo, termina la analogía. Las combustiones vitales son frías; y las energías que liberan no se utiliza en forma de calor, un fenómeno que sería imposible en células vivas, en las que las diferencias de temperaturas son despreciables. Esta energía sirve en cambio, para hacer funcionar el generador químico central que, a su vez, proporciona energía a la mayoría de las formas de trabajo biológico.
En las combustiones celulares, al igual que en aquellas en las que estamos familiarizados, se utiliza el oxígeno para convertir el carbono de las sustancias orgánicas en dióxido de carbono (CO2) y su Hidrógeno en agua (H2O). En la fotosíntesis ocurre exactamente lo contrario. Lo que hacen las plantas verdes con ayuda de la energía luminosa es sencillamente invertir las oxidaciones. A partir de dióxido de carbono y agua, las plantas fabrican un azúcar de fórmula (CH2O)6, y emiten el Oxígeno sobrante (una molécula de O2 por cada molécula de CO2 utilizada) a la atmósfera.
En algún momento de las próximas décadas descubriremos el primer planeta albergando vida. Pero seguramente será “parecida” a la nuestra; basada en enlaces de C y agua como medio. Pero; ¿podría existir un tipo de vida completamente diferente? ¿la reconoceremos cuando la veamos? ¿podría evolucionar hasta desarrollar inteligencia?
Para poder saber sobre todo eso, para llegar a conocer los secretos de la Naturaleza, es preciso que sigamos observando atentamente para poder descubrir los secretos en los que están encerradas las respuestas a esas preguntas que nadie ha sabido contestar. Nosotros somo propensos a crearnos un entorno cercano y localista que, la mayoría de las veces, nos aparta de la realidad “del mundo” y de cómo son las cosas en el Universo del que formamos parte que, aunque sea muy pequeña, es la parte que piensa, la que imagina y tiene ideas de lo que todo esto podría ser.
“Existe un trabajo publicado hace tiempo que estima que los humanos no constituimos más del 0,01% de la biomasa terrestre. Sólo el 0,01%. Parece una cifra muy insignificante para el impacto que tenemos sobre el resto de los organismos vivos. A veces cuesta saber si estos datos pueden observarse desde una perspectiva positiva o una negativa.
Nuestra masa de 0,06 Gigatoneladas de Carbono (Gt C), que es apenas un 0,01% del total, resulta que es la causa de lo que los expertos denominan el Antropoceno, que no es más que el nombre con el que hace poco los geólogos decidieron bautizar esta nueva era geológica que empezó con el auge de la civilización de nuestra especie.”
Según Alex Richter-Boix al comentar el aludido trabajo.
De esa manera y a pesar de nuestra poca importancia en relación al todo, somos los responsables de la mayor incidencia observada en otros seres y sus ecosistemas. Siempre hemos pensado de manera algo egoísta en nosotros dejando de lado lo que eso podría repercutir en los demás.
emilio silvera
Abr
22
¡La Física! ¿Qué sería de nosotros sin ella?
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Incluso las frecuencias de onda cerebrales están estrechamente relacionadas con la actividad fisiológica de nuestro organismo. Esto es algo indudable, puesto que todo lo que conocemos en el mundo físico está compuesto por átomos que vibran a determinadas frecuencias. En las últimas décadas, la física cuántica nos ha revelado información muy importante acerca de nuestra realidad. Fue Richard Feynman el que dijo en cierta ocasión que si tuviera que elegir en una frase el descubrimiento más importante de la Ciencia moderna, elegiría:
El mundo está hecho de átomos”
Átomos y moléculas que se constituyen en la materia que todo lo conforma… ¡También nosotros!
Muchas son las veces que aquí nos hemos referido a que, 500 años antes de Cristo, ya algunos hablaban de ese hecho cierto de que “el mundo estaba hecho de átomos”. Los filósofos de la Naturaleza (como los llamaban entonces), Leucipo de Mileto y su alumno, Demócrito de Abdera, fueron los encargados de divulgar ese increíble hecho que, según ellos decían: “Todas las cosas estaban hechas de unos objetos invisibles e indivisibles, la parte más pequeña de la materia que llamaban a-tomo o átomos. Aquella historia viene de mucho más lejos y, esos filósofos griegos tomaron prestadas las ideas de los pensadores hindúes que mucho antes que ellos hablaban de átomos y de vacío. Otro filósofo de la Naturaleza, Empédocles, nos decía:
Empedocles de Agrigento, filósofo presocrático de la antigua Grecia. Imagen procedente de Thomas Stanley (1655), The history of philosophy.
“Pues yo he sido a veces un muchacho y una chica,
Un matorral y un pájaro y un pez en las olas saladas.”
Esto nos decía Empédocles, el padre de aquellos primitivos elementos formados por Agua, tierra, aire y fuego que, mezclados en la debida proporción, formaban todas las cosas que podemos ver a nuestro alrededor. Claro que, él no podía llegar a imaginar hasta donde pudimos llegar después en la comprensión de la materia a partir del descubrimiento de las partículas “elementales” que formaban el átomo. Pero sí, con sus palabras, nos quería decir que, la materia, una veces está conformando mundos y, en otras, estrellas y galaxias.
Sí, hay cosas malas y buenas pero todas deben ser conocidas para poder, en el primer caso aprovecharlas, y en el segundo, prevenirlas.
Pero demos un salto en el tiempo y viajemos hasta los albores del siglo XX cuando se hacía cada vez más evidente que alguna clase de energía atómica era responsable de la potencia del Sol y del resto de las estrellas que más lejos, brillaban en la noche oscura. Ya en 1898, sólo dos años después del descubrimiento de la radiactividad por Becquerel, el geólogo americano Thomas Chrowder Chamberlin especulaba que los átomos eran “complejas organizaciones y centros de enormes energías”, y que “las extraordinarias condiciones que hay en el centro del Sol pueden…liberar una parte de su energía”. Claro que, por aquel entonces, nadie sabía cual era el mecanismo y cómo podía operar, hasta que no llegamos a saber mucho más sobre los átomos y las estrellas.
Conseguimos tener los átomos en nuestras manos y, aunque la imagen sea simbólica, nos muestra una realidad, toda vez que, en este mismo instante podemos construir “cosas” átomo a átomo. Hemos llegado a un nivel de manipulación de la materia que ni podíamos imaginar hasta hace tan sólo un siglo. Si aquellos Filósofos Naturales levantarán la cabeza…
El intento de lograr tal comprensión exigió una colaboración cada vez mayor entre los astrónomos y los físicos nucleares. Su trabajo llevaría, no sólo a resolver la cuestión de la energía estelar, sino también al descubrimiento de una trenza dorada en la que la evolución cósmica se entrelaza en la historia atómica y la estelar. En todos estos fenómenos y secretos que nos ocultan la Naturaleza, la Luz está presente y, en el futuro tendrá mucho que decirnos cuando de verdad, la podamos conocer.
¿Dónde estará el límite? Parece que no hay límites si el Tiempo es ilimitado
La Clave: Fue comprender la estructura del átomo. Que el átomo tenía una estructura interna podía inferirse de varias líneas de investigación, entre ellas, el estudio de la radio-ctividad: para que los átomos emitiesen partículas, como se había hallado que lo hacían en los laboratorios de Becquerel y los Curie, y para que esas emisiones los transformasen de unos elementos en otros, como habían demostrado Rutherford y el químico inglés Frederick Soddy, los átomos debían ser algo más que simples unidades indivisibles, como implicaba su nombre (de la voz griega que significa “imposible de cortar”).
El Premio Nobel de Física de 1903 fue compartido por Henri Becquerel, Pierre Curie y Marie Curie (Fuente). Pero no se quedó ahí. En 1911 ganó un segundo Premio Nobel, esta vez de Química y en solitario,
“En 1902, miembros de la Academia de Ciencias de Francia escribieron una carta a la Academia Sueca para presentar los descubrimientos en el campo de la radiactividad realizados por Marie y Pierre Curie, así como por Henri Becquerel, para el Premio Nobel de Física. Sin embargo, debido a las actitudes sexistas que prevalecían en la época, no se ofreció ningún tipo de reconocimiento a las contribuciones de Marie.”Como decimos más arriba, finalmente, la Academia Sueca reconoció, por dos veces, el mérito de MarieCurie.
La Clave: Fue comprender la estructura del átomo. Que el átomo tenía una estructura interna podía inferirse de varias líneas de investigación, entre ellas, el estudio de la radio-ctividad: para que los átomos emitiesen partículas, como se había hallado que lo hacían en los laboratorios de Becquerel y los Curie, y para que esas emisiones los transformasen de unos elementos en otros, como habían demostrado Rutherford y el químico inglés Frederick Soddy, los átomos debían ser algo más que simples unidades indivisibles, como implicaba su nombre (de la voz griega que significa “imposible de cortar”).
El átomo de Demócrito era mucho más de lo que él, en un principio intuyó que sería. Hoy sabemos que está conformado por diversas partículas de familias diferentes: unas son bariones que en el seno del átomo llamamos nucleones, otras son leptones que giran alrededor del núcleo para darle estabilidad de cargas, y, otras, de la familia de los Quarks, construyen los bariones del núcleo y, todo ello, está, además, vigilado por otras partículas llamadas bosones intermedios de la fuerza nuclear fuerte, los Gluones que, procuran mantener confinados a los Quarks.
Pero no corramos tanto, la física atómica aún debería recorrer un largo camino para llegar a comprender la estructura que acabamos de reseñar. De los trs principales componentes del átomo -el protón, el neutrón y el electrón-, sólo el electrón había sido identificado (por J.J. Thomson, en los últimos años del siglo XIX). Nadie hablaba de energía “nuclear” pues ni siquiera se había demostrado la existencia de un núcleo atómico, y mucho menos de sus partículas constituyentes, el protón y el neutrón, que serían identificados, respectivamente, por Thomson en 1913 y James Chawick en 1932.
Rutherford era uno de esos individuos poco corrientes que hizo su más importante contribución a la ciencia, él con su experimento al bombardear una plaxa de oro con partículas alfas, descubrió la existencia de un núcleo dentro del átomo y que era 1/100.000 veces menor que éste. Ganó el Nobel de Física por ello.
De importancia capital resultó conocer la existencia del núcleo y que éste, era 1/100.000 del total del átomo, es decir, casi todo el átomo estaba compuesto de espacios “vacíos” y, la materia así considerada, era una fracción infintesimal del total atómico.
Rutherford, Hans Geiger y Ernest Marsden se encontraban entre los “Estrabones y Tolomeos” de la cartografía atómica, en Manchester , de 1909 a 1911, sondearon el átomo lanzando corrientes de “partículas alfa” subatómicas -núcleos de helio- contra delgadas laminillas de oro, plata, estaño y otros metales. La mayoría de partículas Alfa se escapaban a través de las laminillas, pero, para sombro de los experimentadores, algunas rebotaban hacia atrás. Rutherford pensó durante largo tiempo e intensamente en este extraño resultado; era tan sorprendente, señalaba, como si una bala rebotase sobre un pañuelo de papel. Finalmente, en una cena en su casa en 1911, anunció a unos pocos amigos que había dado con una explicación: que la mayoría de la masa de un átomo reside en un diminuto núcleo masivo. Ruthertford pudo calcular la carga y el diámetro máximo del núcleo atómico. Así se supo que los elementos pesados eran más pesados que los elementos ligeros porque los núcleos de sus átomos tienen mayor masa.
Todos sabemos ahora, la función que desarrollan los electrones en el átomo. Pero el ámbito de los electrones para poder llegar a la comprensión completa, tuvo que ser explorado, entre otros, por el físico danés Niels Bohr, quien demostró que ocupaban órbitas, o capas, discretas que rodean al núcleo. (Durante un tiempo Bohr consideró el átomo como un diminuto sistema solar, pero ese análisis, pronto demostró ser inadecuado; el átomo no está rígido por la mecánica newtoniana sino por la mecánica cuántica.)
Entre sus muchos otros éxitos, el modelo de Bohr revelaba la base física de la espectroscopia. El número de electrones de un átomo está determinado por la carga eléctrica del núcleo, la que a su vez se debe al número de protones del núcleo, que es la clave de la identidad química del átomo. Cuando un electrón cae de una órbita externa a una órbita interior emite un fotón. La longitud de onda de este fotón está determinada por las órbitas particulares entre las que el electrón efectúa la transición.
Esta es la razón de que un espectro que registra las longitudes de onda de los fotones, revele los elementos químicos que forman las estrellas u otros objetos que sean estudiados por el espectroscopista. En palabras de Max Planck, el fundador de la física cuántica, el modelo de Bohr del átomo nos proporciona “la llave largamente buscada de la puerta de entrada al maravilloso mundo de la espectroscopia, que desde el descubrimiento del análisis espectral (por Fraunhoufer) había desafiado obstinadamente todos los intentos de conocerlo”.
Es curioso que, mirando en la oscura noche como brillan las estrellas del cielo, nos atrae su titilar engañoso (es la atmósfera terrestre la que hace que lo parezca) y su brillo, Sin embargo, pocos llegan a pensar en lo que verdaderamente está allí ocurriendo. Las transformaciones de fase por fusión no cesan. Esta transformación de materia en energía es consecuencia de la equivalencia materia-energía, enunciada por Albert Einstein en su famosa fórmula E=mc2; donde E es la energía resultante, m es la masa transformada en energía, y c es la velocidad de la luz (300 000 kilómetros por segundo). La cantidad de energía que se libera en los procesos de fusión termonuclear es fabulosa. Un gramo de materia transformado íntegramente en energía bastaría para satisfacer los requerimientos energéticos de una familia mediana durante miles de años.
Es un gran triunfo del ingenio humano el saber de qué, están “construidas” las estrellas, de qué materiales están hechas. Recuerdo aquí a aquel Presidente de la Real Society de Londres que, en una reunión multitudinaria, llegó a decir: “Una cosa está clara, nunca podremos saber de qué están hechas las estrellas”. El hombre se vistió de gloria con la desde entonces, famosa frase. Creo que nada, con tiempo por delante, será imposible para nosotros.
Pero, por maravilloso que nos pueda parecer el haber llegado a la comprensión de que los espectros revelan saltos y tumbos de los electrones en sus órbitas de Bohr, aún nadie podía hallar en los espectros de las estrellas las claves significativas sobre lo que las hace brillar. En ausencia de una teoría convincente, se abandonó este campo a los taxonomistas, a los que seguían obstinadamente registrando y catalogando espectros de estrellas, aunque no sabían hacia donde los conduciría esto.
No recibieron el reconocimiento del mérito que tenía su trabajo
En el Laboratorio de la Universidad de Harvard, uno de los principales centros de la monótona pero prometedora tarea de la taxonomía estelar, las placas fotográficas que mostraban los colores y espectros de decenas de miles de estrellas se apilaban delante de “calculadoras”, mujeres solteras en su mayoría y, de entre ellas, Henrietta Leavitt, la investigadora pionera de las estrellas variables Cefeidas que tan útiles serían a Shapley y Hubble.
Imagen de Sirio A, la estrella más brillante del cielo tomada por el Telescopio Hubble (Créd. NASA). Sirio es la quinta estrella más cercana y tiene una edad de 300, millones de años. Es una estrella blanca de la secuencia principal de tipo espectral A1V con temperatura superficial de 10 000 K y situada a 8,6 años luz de la Tierra. Es una estrella binaria y, de ella, podríamos contar muchas historias. La estrella fue importante en las vidas de Civilizaciones pasadas como, por ejemplo, la egipcia.
Fue Cannon quien, en 1915, empezó a discernir la forma en una totalidad de estrellas en las que estaba presente la diversidad, cuando descubrió que en una mayoría, las estrellas, pertenecían a una de media docena de clases espectrales distintas. Su sistema de clasificación, ahora generalizado en la astronomía estelar, ordena los espectros por el color, desde las estrellas O blanco-azuladas, pasando por las estrellas G amarillas como el Sol, hasta estrellas rojas M. Era un rasgo de simplicidad denajo de la asombrosa variedad de las estrellas.
Pronto se descubrió un orden más profundo, en 1911, cuando el ingeniero y astrónomo autodidacta danés Ejnar Hertzsprung analizó los datos de Cannon y Maury de las estrellas de dos cúmulos, las Híades y las Pléyades. Los cúmulos como estos son genuinos conjuntos de estrellas y no meras alineaciones al azar; hasta un observador inexperimentado salta entusiamado cuando recorre con el telecopio las Pléyades, con sus estrellas color azul verdoso enredadas en telarañas de polvo de diamante, o las Híades, cuyas estrellas varían en color desde el blanco mate hasta un amarillo apagado.
Las Híades
Hertzsprung utilizó los cúmulos como muestras de laboratorio con las que podía buscar una relación entre los colores y los brillos intrínsecos de las estrellas. Halló tal relación: la mayoría de las estrellas de ambos cúmulos caían en dos líneas suavemente curvadas. Esto, en forma de gráfico, fue el primer esbozo de un árbol de estrellas que desde entonces ha sido llamado diagrama Hertzsprung-Russell.
El progreso en física, mientras tanto, estaba bloqueado por una barrera aparentemente insuperable. Esto era literal: el agente responsable era conocido como barrera de Coulomb, y por un tiempo frustró los esfuerzos de las físicos teóricos para comprender como la fusión nuclear podía producir energía en las estrellas.
La línea de razonamiento que conducía a esa barrera era impecable. Las estrellas están formadas en su mayor parte por hidrógeno. (Esto se hace evidente en el estudio de sus espectros.) El núcleo del átomo de Hidrógeno consiste en un solo protón, y el protón contiene casi toda la masa del átomo. (Sabemos esto por los experimentos de Rutherford). Por tanto, el protón también debe contener casi toda la energía latente del átomo de hidrógeno. (Recordemos que la masa es igual a la energía: E = mc2.) En el calor de una estrella, los protones son esparcidos a altas velocidades -el calor intenso significa que las partículas involucradas se mueven a enormes velocidades- y, como hay muchos protones que se apiñan en el núcleo denso de una estrella, deben tener muchísimos choques. En resumen, la energía del Sol y las estrellas, puede suponerse razonablemente, implica las interacciones de los protones. Esta era la base de la conjetura de Eddintong de que la fuente de la energía estelar “difícilmente puede ser otra que la energía subatómica, la cual, como se sabe, existe en abundancia en toda materia”.
Plasma en ebullición en la superficie del Sol
Hasta el momento todo lo que hemos repasado está bien pero, ¿Que pasa con la Barrera de Coulomb? Los protones están cargados positivamente; las partículas de igual carga se repelen entre sí; y este obstáculo parecía demasiado grande para ser superado, aun a la elevada velocidad a la que los protones se agitaban en el intenso calor del interior de las estrellas. De acuerdo con la física clásica, muy raras veces podían dos protones de una estrella ir con la rapidez suficiente para romper las murallas de sus campos de fuerza electromagnéticos y fundirse en un solo núcleo. Los cálculos decían que la tasa de colisión de protones no podía bastar para mantener las reacciones de fusión. Sin embargo, allí estaba el Sol, con el rostro radiante, riéndose de las ecuaciones que afirmaban que no podía brillar.
Afortunadamente, en el ámbito nuclear, las reglas de la Naturaleza no se rigen por las de la mecánica de la física clásica, que tienen validez para grandes objetos, como guijarros y planetas, pero pierden esa validez en el reino de lo muy pequeño. En la escala nuclear, rigen las reglas de la indeterminación cuántica. La mecánica cuántica demuestra que el futuro del protón sólo puede predecirse en términos de probabilidades: la mayoría de las veces el protón rebotará en la Barrera de Coulomb, pero de cuando en cuando, la atravesará. Este es el “efecto túnel cuántico”; que permite brillar a las estrellas.
George Gamow, ansioso de explotar las conexiones entre la astronomía y la nueva física exótica a la que era adepto, aplicó las probabilidades cuánticas a la cuestión de la fusión nuclear en las estrellas y descubrió que los protones pueden superar la Barrera de Coulomb. Esta historia es mucho más extensa y nos llevaría hasta los trabajos de Hans Bethe, Edward Teller y otros, así como, al famoso Fred Hoyle y su efecto Triple Alfa y otras maravillas que, nos cuentan la historia que existe desde los átomos a las estrellas del cielo.
Una cuestión que no debemos olvidar nunca es que la simetría subyace en las leyes del Universo. Muchos han sido los cambios que en los últimos tiempos se han producido en la disciplina científica de la física y otras áreas del saber humano. Sin embargo, en todos ellos, en todos esos cambios ha estado siempre presente una característica esencia: La Simetría que es aquella propiedad que permanece invariable a pesar de los cambios. Los físicos fijándose en esa simetría han podido descubrir cuestiones importantes que permanecían profundamente escondidas en las entrañas de la Naturaleza.
Los que hemos trillado el camino de la Física y de la Astronomía, hemos podido llegar a comprender la importancia de la simetría en la comprensión del “mundo” (una manera en la que los victorianos expresaban su parecer sobre el universo). En todos los aspectos misteriosos y sutiles que encontramos en la naturaleza, la simetría nos arroja una luz sobre ellos que hace posible que lleguemos a comprender lo que antes no entendíamos. Muchos Físicos como Einstein, por ejemplo, con la Simetría en su cabeza llegó a comprender “su mundo” y se dio cuenta de qué cosas en el Universo no cambian a pesar de todo.
Índice de las eras del Universo
- 1El universo muy primigenio
- 2El universo primigenio
- 3Formación de estructuras
- 4Destino final del universo
- 4.1Muerte térmica, 1-100 billones de años
- 4.2El big crunch, 100 000 millones de años
- 4.3Big rip
- 4.4Metaestabilidad del vacío
El Universo no msiempre fue como en el Presente lo podemos observar, y pasó, por distintas eras
No hace mucho hemos hablado aquí de las eras por las que pasó el Universo primitivo hasta que, al enfriarse, se pudo estabilizar y hacerse mayor, es decir, el Universo que hoy conocemos y en los que están presentes una serie de simetrías o constantes que lo hacen reconocible para nosotros. Una de esas constantes, como tantas veces hemos podido referir aquí, es la de la Luz. El amigo Einstein supo “ver” que aquella simetría luminosa hecha de fotones, era invariable y, sin importar cual fuere la fuente ni a que velocidad pudiera moverse ésta o incluso estar parada, la luz, sin importarle nada de todo eso, seguía su camino a la misma velocidad siempre, es decir, a 299.972.458 metros por segundo cuando corría por el vacío interestelar, y, nada podría nunca sobrepasar de esa velocidad que era una constante de la Naturaleza.
Hemos tenido que construir máquinas inmensas para poder comprobar los efectos que se producen en un cuerpo cuando éste quiere ir más rápido que la luz. Lo predijo la teoría de la relatividad especial de Einstein y se ha comprobado despuès en los aceleradores de partículas: Nada va más rápido que la luz en nuestro Universo.
Es preciso ampliar un poco más las explicaciones anteriores que no dejan sentadas todas las cuestiones que el asunto plantea, y quedan algunas dudas que incitan a formular nuevas preguntas, como por ejemplo: ¿por qué se convierte la energía en masa y no en velocidad?, o ¿por qué se propaga la luz a 299.793 Km/s y no a otra velocidad?
La única respuesta que podemos dar hoy es que así es el universo que nos acoge y las leyes naturales que lo rigen, donde estamos sometidos a unas fuerzas y unas constantes universales de las que la velocidad de la luz en el vacío es una muestra.
Nada puede superar la velocidad de la luz en el vacío
Contracción de la longitud del objeto que viaja a velocidad relativista
Dilatación del Tiempo del que viaja a velocidad relativista
Haces de muones lanzados en el LHC a velocidades cercanas a c (la velocidad de la luz en el vacío), aumentaron diez veces sus masas. Al ser la velocidad de la Luz en el vacío un límite impuesto por el Universo, cuando el objeto se acerca a esa velocidad se va frenando y, la energía cinética se convierte en masa en virtud de E=mc2 .
A velocidades grandes cercanas a la de la luz (velocidades relativistas) no sólo aumenta la masa del objeto que viaja, sino que disminuye también su longitud en la misma dirección del movimiento (contracción de Lorentz) y en dicho objeto y sus ocupantes – si es una nave – se retrasa al paso del tiempo, o dicho de otra manera, el tiempo allí transcurre más despacio. A menudo se oye decir que las partículas no pueden moverse “más deprisa que la luz” y que la “velocidad de la luz” es el límite último de velocidad.
Pero decir esto es decir las cosas a medias, porque la luz viaja a velocidades diferentes dependiendo del medio en el que se mueve. Donde más deprisa se mueve la luz es en el vacío: allí lo hace a 299.792’458 Km/s. Este sí es el límite último de velocidades que podemos encontrar en nuestro universo.
En el futuro, grandes estaciones sumergidas en el océano y ciudades en otros mundos rodeadas de campos de fuerza que impedirán la radiación nociva mientras tanto se va consiguiendo terra-formar el planeta. La tecnología habrá avanzado tanto que nada de lo que hoy podamos imaginar estará fuera de nuestro alcance y, viajar a mundos situados a decenas de años-luz de la Tierra será para entonces, lo cotidiano
Eso es lo que imaginamos pero… ¿Qué maravillas tendremos dentro de 150 años? ¿Qué adelantos científicos se habrán alcanzado? ¿Qué planetas habremos colonizado? ¿Habrá sucedido ya ese primer contacto del que tanto hablamos? ¿Cuántas “Tierras” habrán sido encontradas? ¿Qué ordenadores utilizaremos? ¿Será un hecho cotidiano el viaje espacial tripulado? ¿Estaremos explotando las reservas energéticas de Titán? ¿Qué habrá pasado con la Teoría de Cuerdas? Y, ¿Habrán aparecido las dichosas teorías de la Gravedad – Cuántica, las Súper-Cuerdas, o, el enigma de la “materia oscura” Haciendo todas estas preguntas de lo que será o podrá ser, nos viene a la memoria todo lo que fue y que nos posibilita hacer estas preguntas.
Una cosa nos debe quedar bien clara, nada dentro de 250 años será lo mismo que ahora. Todo habrá cambiado en los distintos ámbitos de nuestras vidas y, a excepción del Amor y los sentimientos que sentiremos de la misma manera (creo), todo lo demás, habrá dado lugar a nuevas situaciones, nuevas formas de vida, nuevas sociedades, nuevas maneras y, podríamos decir que una Humanidad nueva, con otra visión y otras perspectivas.
Nuevas maneras de sondear la Naturaleza y desvelar los secretos
Pero echemos una mirada al pasado. Dejando a un lado a los primeros pensadores y filósofos, como Tales, Demócrito, Empédocles, Ptolomeo, Copérnico, Galileo, Kepler y otros muchos de tiempos pasados, tenemos que atender a lo siguiente:
Nuestra Física actual está regida y dominada por dos explosiones cegadoras ocurridas en el pasado: Una fue aquel artículo de 8 páginas que escribiera Max Planck, en ese corto trabajo dejó sentados los parámetros que rigen la Ley de la distribución de la energía radiada por un cuerpo negro. Introdujo en física el concepto novedoso de que la energía es una cantidad que es radiada por un cuerpo en pequeños paquetes discretos, en vez de en una emisión continua. Estos pequeños paquetes se conocieron como cuantos y la ley formulada es la base de la teoría cuántica.
Para los entendidos tienen una gran belleza que, con tan pocos signos, puedan decir tanto. El neófito, la mira asombrado y nada entiende de un lenguaje que, según dicen es el que utilizan los físicos cuando la explicación no se puede dar con palabras.
Un amigo físico me decía: cuando escribo un libro, procuro no poner ecuaciones, cada una de ellas me quita diez lectores. Siguiendo el ejemplo, procuro hacer lo mismo (aunque no siempre es posible) pero, en esta ocasión dejaremos el desarrollo de la energía de Planck del que tantas veces se habló aquí, y, ponernos ahora a dilucidar ecuaciones no parece lo más entretenido, aunque el lenguaje de la ciencia, no pocas veces es el de los números.
En cualquier evento de Ciencia, ahí aparecen esos galimatías de los números y letras que pocos pueden comprender, dicen que es el lenguaje que se debe utilizar cuando las palabras no pueden expresar lo que se quiere decir. Y, lo cierto es que, así resulta ser.
Después de lo de Planck y su radiación de cuerpo negro, cinco años más tarde, irrumpió en escena otra revolución de la Física se produjo en 1.905, cuando Albert relatividad/Einstein con su relatividad/relatividad especial nos dio un golpecito en nuestras cabezas para despertar en ellas nuestra comprensión de las leyes que gobiernan el Universo.
Nos dijo que la velocidad de la luz es la máxima alcanzable en nuestro universo, que la masa y la energía son la misma cosa, que si se viaja a velocidades cercanas a la de la luz, el tiempo se ralentiza pero, el cuerpo aumentará su masa y se contraerá en el sentido de la misma…Y, todo eso, ha sido una y mil veces comprobado. Sin embargo, muchas son las pruebas que se realizan para descubrir los fallos de la teoría, veamos una:
Los científicos que estudian la radiación gamma de una explosión de rayos lejanos han encontrado que la velocidad de la luz no varía con la longitud de onda hasta escalas de distancia por debajo de la relatividad/longitud de Planck. Ellos dicen que esto desfavorece a algunas teorías de la gravedad cuántica que postulan la violación de la invariancia de Lorentz.
La invariancia de Lorentz se estipula que las leyes de la física son las mismas para todos los observadores, independientemente de dónde se encuentren en el universo. relatividad/Einstein utilizó este principio como un postulado de la relatividad/relatividad especial, en el supuesto de que la velocidad de la luz en el vacío, no depende de que se esté midiendo, siempre y cuando la persona esté en un sistema inercial de referencia. En más de 100 años la invariancia de Lorentz nunca ha sido insuficiente.
La Teoría de cuerdas nos habla de las vibraciones que éstas emiten y que son partículas cuánticas. En esta teoría, de manera natural, se encuentran las dos teorías más importantes del momento: La Gravedad y la Mecánica cuántica, allí, subyacen las ecuaciones de campo de la teoría de la relatividad de Einstein que, cuando los físicas de las “cuerdas” desarrollan su teoría, aparecen las ecuciones relativista, sin que nadie las llame, como por arte de magia. Y, tal aparición, es para los físicos una buena seña.
Sin embargo, los físicos siguen sometiendo a pruebas cada vez más rigurosas, incluyendo versiones modernas del famoso experimento interferométrico de Michelson y Morley. Esta dedicación a la precisión se explica principalmente por el deseo de los físicos para unir la mecánica cuántica con la relatividad/relatividad general, dado que algunas teorías de la gravedad cuántica (incluyendo la teoría de cuerdas y la gravedad cuántica de bucles) implica que la invariancia Lorentz podría romperse.
Granot y sus colegas estudiaron la radiación de una explosión de relatividad/rayos gamma (asociada con una explosión de gran energía en una galaxia distante) que fue descubierto por la NASA relatividad/Fermi Gamma-Ray Space Telescope, el 10 de mayo de este año. Se analizó la radiación en diferentes longitudes de onda para ver si había indicios de que los relatividad/fotones con energías diferentes llegaron a los detectores de relatividad/Fermi en diferentes momentos.
Tal difusión de los tiempos de llegada parece indicar que la invariancia Lorentz efectivamente había sido violada, es decir que la velocidad de la luz en el vacío depende de la energía de la luz y no es una constante universal. Cualquier dependencia de la energía sería mínima, pero aún podría resultar en una diferencia mensurable en los tiempos de llegada de relatividad/fotones debido a los miles de millones de años luz de a la que se encuentran las explosiones de relatividad/rayos gamma.
Cuando nos acercamos a la vida privada del genio… ¡también, como todos, era humano!
De la calidad de relatividad/Einstein como persona nos habla un detalle: Cuando el Presidente Chaim Weizmann de Israel murió en 1952, a relatividad/Einstein se le ofreció la presidencia, pero se negó, diciendo que no tenía “ni la habilidad natural ni la experiancia para tratar con seres humanos.” Luego escribió que se sentía muy honrado por el ofrecimiento del estado de Israel, pero a la vez triste y avergonzado de no poder aceptarla.
Pero sigamos con la segunda revolución de su teoría que se dio en dos pasos: 1905 la teoría de la relatividad/relatividad especial y en 1.915, diez años después, la teoría de la relatividad/relatividad general que varió por completo el concepto del Cosmos y nos llevó a conocer de manera más profunda y exacta la Gravedad de relatividad/Newton.
Einstein nos decía que el espacio se curva en presencia de grandes masas
En la Teoría Especial de la Relatividad, relatividad/Einstein se refirió a sistemas de referencias inerciales (no acelerados). Asume que las leyes de la física son idénticas en todos los sistemas de referencia y que la velocidad de la luz en el vacío, c, es constante en el todo el Universo y es independiente de la velocidad del observador.
La teoría desarrolla un sistema de matemáticas con el fin de reconciliar estas afirmaciones en aparente conflicto. Una de las conclusiones de la teoría es que la masa de un cuerpo, aumenta con la velocidad (hay una ecuación que así lo demuestra), y, tal hecho, ha sido sobradamente comprobado en los aceleradores de partículas donde un relatividad/muón, ha aumentado más de diez veces su masa al circular a velocidades cercanas a la de la luz. Y el relatividad/muón que tiene una vida de dos millonésimas de segundo, además, al desplazarse a velocidades relativistas, también ven incrementado el tiempo de sus vidas.
El Acelerador de Partículas LHC es una Obra inmensa que ha construido el SER Humano para saber sobre la Naturaleza de la materia y…
Todos esos impulsos son llevados a procesadores electrónicos de datos a través de cientos de miles de cables. Por último, se hace una grabación en carrete de cinta magnética codificada con ceros y unos. La cinta graba las violentas colisiones de los protones y antiprotones, en las que generan unas setenta partículas que salen disparadas en diferentes direcciones dentro de las varias secciones del detector.
El LHC es un esfuerzo internacional, donde participan alrededor de siete mil físicos de 80 países. Consta de un túnel en forma de anillo, con dimensiones interiores parecidas a las del metro subterráneo de la Ciudad de México, y una circunferencia de 27 kilómetros. Está ubicado entre las fronteras de Francia y Suiza, cerca de la ciudad de Ginebra, a profundidades que van entre los 60 y los 120 metros debido a que una parte se encuentra bajo las montañas del Jura
La ciencia, en especial la física de partículas, gana confianza en sus conclusiones por duplicación; es decir, un experimento en California se confirma mediante un acelerador de un estilo diferente que funciona en Ginebra con otro equipo distinto que incluye, en cada experimento, los controles necesarios y todas las comprobaciones para que puedan confirmar con muchas garantías, el resultado finalmente obtenido. Es un proceso largo y muy complejo, la consecuencia de muchos años de investigación de muchos equipos diferentes.
Relatividad/Einstein también concluyó que si un cuerpo pierde una energía L, su masa disminuye en L/c2. relatividad/Einstein generalizó esta conclusión al importante postulado de que la masa de un cuerpo es una medida de su contenido en energía, de acuerdo con la ecuación m=E/c2 ( o la más popular E=mc2).
Otras de las conclusiones de la teoría de relatividad/Einstein en su modelo especial, está en el hecho de que para quien viaje a velocidades cercanas a c (la velocidad de la luz en el vacío), el tiempo transcurrirá más lento. Dicha afirmación también ha sido experimentalmente comprobada.
Todos estos conceptos, por nuevos y revolucionarios, no fueron aceptados por las buenas y en un primer momento, algunos físicos no estaban preparados para comprender cambios tan radicales que barrían de un plumazo, conceptos largamente arraigados.
Todo lo grande está hecho de cosas pequeñas
Fue Max Planck, el Editor de la Revista que publicó el artículo de Albert relatividad/Einstein, quien al leerlo se dió cuenta de la enorme importancia de lo que allí se decía. A partir de aquel momento, se convirtió en su valedor, y, en verdad, relatividad/Einstein, reconoció públicamente tal ayuda.
En la segunda parte de su teoría, la Relatividad General, relatividad/Einstein concluyó que el espacio y el tiempo están distorsionados por la materia y la energía, y que esta distorsión es la responsable de la gravedad que nos mantiene en la superficie de la Tierra, la misma que mantiene unidos los planetas del Sistema Solar girando alrededor del Sol y, también la que hace posible la existencia de las Galaxias.
¡La Gravedad! Siempre está presente e incide en los comportamientos de la materia. La gravedad presente en un agujero negro gigante hace que en ese lugar, el tiempo deje de existir, se paralice y el espacio, se curve en una distorsión infinita. Es decir, ni espacio ni tiempo tienen lugar en la llamada singularidad.
Nos dio un conjunto de ecuaciones a partir de los cuales se puede deducir la distorsión del tiempo y del espacio alrededor de objetos cósmicos que pueblan el Universo y que crear esta distorsión en función de su masa. Se han cumplido 100 años desde entonces y miles de físicos han tratado de extraer las predicciones encerradas en las ecuaciones de relatividad/Einstein (sin olvidar a Riemann ) sobre la distorsión del espacio-tiempo.
Confirmado: una estrella puede ‘arrastrar’ el espacio-tiempo a su alrededor
Un relatividad/agujero negro es lo definitivo en distorsión espaciotemporal, según las ecuaciones de relatividad/Einstein: está hecho única y exclusivamente a partir de dicha distorsión. Su enorme distorsión está causada por una inmensa cantidad de energía compactada: energía que reside no en la materia, sino en la propia distorsión. La distorsión genera más distorsión sin la ayuda de la materia. Esta es la esencia del relatividad/agujero negro.
Las ecuaciones de campo de la relatividad general de Einstein… ¡Nos dicen tantas cosas! Nos muestra el desarrollo teórico del Universo, en una explosión intelectual difícil de igualar. Ahí comenzó la verdadera Cosmología
Si tuviéramos un relatividad/agujero negro del tamaño de la calabaza más grande del mundo, de unos 10 metros de circunferencia, entonces conociendo las leyes de la geometría de Euclides se podría esperar que su diámetro fuera de 10 m.: л = 3,14159…, o aproximadamente 3 metros. Pero el diámetro del agujero es mucho mayor que 3 metros, quizá algo más próximo a 300 metros. ¿ Cómo puede ser esto ? Muy simple: las leyes de Euclides fallan en espacios muy distorsionados.
Con Einstein llegó la cosmología moderna, otra manera de mirar el Universo
Con esta teoría de la Relatividad General, entre otros pasos importantes, está el hecho de que dió lugar al nacimiento de la Cosmología que, de alguna manera, era como mirar con nueva visión a lo que l Universo podía significar, Después de relatividad/Einstein, el Universo no fue el mismo.
El análisis de la Gravitación que aquí se muestra interpreta el Universo como un continuo espacio-tiempo de cuatro dimensiones en el el que la presencia de una masa (como decía antes) curva el espacio para crear un campo gravitacional.
De la veracidad y comprobación de las predicciones de ésta segunda parte de la Teoría Relativista, tampoco, a estas alturas cabe duda alguna, y, lo más curioso del caso es que, después de casi un siglo (1.915), aún los físicos están sacando partido de las ecuaciones de campo de la teoría relativista en su versión general o de la Gravedad.
Tan importante es el trabajo de relatividad/Einstein que, en las nuevas teorías, en las más avanzadas, como la Teoría M (que engloba las cinco versiones de la Teoría de Cuerdas), cuando la están desarrollando, como por arte de magia y sin que nadie las llame, surgen, emergen, las ecuaciones de relatividad/Einstein de la Relatividad General.
Los fotones son Bosones emisarios de las radiaciones electromagnéticas y se mueven por el espacio vacío a una velocidad de 299.792.458 metros por segundo es decir, redondeando a 300.000 Km/s.).
La luz se propaga en cualquier medio pero en el vacío, mantiene la mayor velocidad posible en nuestro Universo, y, hasta el momento, que se sepa, nada ha corrido más que la luz en ese medio. Algunos han publicado ésta o aquella noticia queriendo romper la estabilidad de la relatividad especial y han publicado que los neutrinos o los taquiones van más rápidos que la luz. Sin embargo, todo se quedó en eso, en una noticia sin demostración para captar la atención del momento.
La luz se propaga en el vacío a una velocidad aproximada a los 30.000 millones (3×1010) de centímetros por segundo. La cantidad c2 representa el producto c×c, es decir:
3×1010 × 3×1010, ó 9×1020.
Por tanto, c2 es igual a 900.000.000.000.000.000.000. Así pues, una masa de un gramo puede convertirse, en teoría, en 9×1020 ergios de energía.
El ergio es una unida muy pequeña de energía que equivale a: “Unidad de trabajo o energía utilizado en el sistema c.g.s y actúa definida como trabajo realizado por una fuerza de 1 dina cuando actúa a lo largo de una distancia de 1 cm: 1 ergio = 10-7 julios”. La kilocaloría, de nombre quizá mucho más conocido, es igual a unos 42.000 millones de ergios. Un gramo de materia convertido en energía daría 2’2×1010 (22 millones) de kilocalorías. Una persona puede sobrevivir cómodamente con 2.500 kilocalorías al día, obtenidas de los alimentos ingeridos. Con la energía que representa un solo gramo de materia tendríamos reservas para unos 24.110 años, que no es poco para la vida de un hombre.
Emilio Silvera