Jul
16
Noticias de lo que pasa por ahí
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Itziar Serrano, la simpática y eficiente funcionaria de la Real Sociedad Espoñola de Física, como de costumbre, me envía el Boletín Electrónico que emite la Entidad y correspondiente a Julio-Agosto 2.014.
Siempre es portador de noticias y comunicados muy interesantes, y, en esta ocasión, dados los temas que en este Blog tratamos, he elegido un par de noticias que nos vienen como anillo al dedo.
Representación artística de una galaxia activa. ESA.
“Athena estudiará el Universo más caliente y energético La Agencia Espacial Europea ha seleccionado el
Telescopio Avanzado para la Astrofísica de Alta Energía, Athena, cuyo lanzamiento está previsto para el
año 2028 para estudiar el Universo más caliente y energético. Athena ocupa el puesto ‘L2’ del programa
Cosmic Vision 2015-‐2025 de la ESA.
Combinando un gran telescopio de rayos X con instrumentos científicos de última tecnología, Athena ayudará a encontrar respuestas a las grandes cuestiones de la astrofísica, entre las que destacan cómo y por qué la materia ordinaria se agrupa para formar las galaxias y los cúmulos de galaxias o cómo los agujeros negros crecen y afectan a su entorno. Los científicos piensan que los agujeros negros se esconden en el centro de casi todas las galaxias,jugando un papel fundamental en su formación y evolución.”
“ALMA, el mayor radiotelescopio del mundo, ya ha quedado completo tras la instalación en la altiplanicie
chilena de Chajnantor en pleno desierto de Atacama, de la última de sus antenas, que en un futuro permitirán escuchar el origen del universo. Su objetivo es poder ver el comienzo del Universo, para que los científicos puedan comprender la física del Universo, cómo se expandió y cómo nacieron las estrellas
y galaxias. En un hecho muy importante contar con esta antena que representa una potencia muy importante para los futuros descubrimientos, destacó Pierre Cox en una conferencia de prensa. La totalidad de las antenas, instaladas a unos 5.000 metros de altitud sobre el nivel del mar, entrarán en funcionamiento a fines de 2015, en el último ciclo de operaciones del observatorio.”
El mayor Telescopio del mundo fue inaugurado el pasado día 13 de marzo de este mismo año, y, no creo que se tarde mucho en tener noticias de los “frutos” que a partir de estas instalaciones podremos recoger.
La instalación de la antena número 66 en el Sitio de Operaciones del Conjunto representa la etapa final de la construcción de ALMA”, anunció hoy el director de este observatorio astronómico, el francés Pierre Cox.
El mayor radiotelescopio del mundo comenzó a construirse en el año 2003 en el Llano de Chajnantor, a 50 kilómetros de San Pedro de Atacama y a 1.500 kilómetros al norte de Santiago, en una zona que parece más la superficie lunar que un paisaje del planeta Tierra.
Su objetivo era poder ver el comienzo del Universo, hace unos 14.000 millones de años, de manera que los científicos pudieran comprender la física del Universo, cómo se expandió y cómo nacieron las estrellas y galaxias.
“En un hecho muy importante contar con esta antena que representa una potencia muy importante para los futuros descubrimientos”, destacó Cox en una conferencia de prensa con medios internacionales.
La totalidad de las antenas, instaladas a unos 5.000 metros de altura sobre el nivel del mar, entrarán en funcionamiento a fines de 2015, en el último ciclo de operaciones del observatorio, indicó.
ALMA escudriña el universo usando antenas que no funcionan como los telescopios ópticos tradicionales, sino como radiotelescopios, lo que les permite detectar las longitudes de onda milimétricas y submilimétricas, aproximadamente mil veces más largas que la luz visible.
La observación de estas largas longitudes de onda permite a los astrónomos estudiar objetos muy fríos en el espacio, como las densas nubes de polvo cósmico y gas donde se forman estrellas y planetas, así como objetos muy fríos en el universo primitivo.
Jul
16
La Masa y la Energía ¿Qué son en realidad?
por Emilio Silvera ~ Clasificado en Física ~ Comments (1)
Todos los intentos y los esfuerzos por hallar una pista del cuál era el origen de la masa fallaron. Feynman escribió su famosa pregunta: “¿Por qué pesa el muón?”. Ahora, por lo , tenemos una respuesta parcial, en absoluto completa. Una voz potente y ¿segura? nos dice: “!Higgs¡” más de 60 años los físicos experimentadores se rompieron la cabeza con el origen de la masa, y ahora el campo Higgs presenta el problema en un contexto ; no se trata sólo del muón. Proporciona, por lo menos, una fuente común todas las masas. La nueva pregunta feynmaniana podría ser: ¿Cómo determina el campo de Higgs la secuencia de masas, aparentemente sin patrón, que da a las partículas de la matería?
La variación de la masa con el de movimiento, el cambio de masa con la configuración del sistema y el que algunas partículas (el fotón seguramente y los neutrinos posiblemente) tengan masa en reposo nula son tres hechos que ponen entre dicho que el concepto de masa sea un atributo fundamental de la materia. Habrá que recordar aquel cálculo de la masa que daba infinito y nunca pudimos resolver; los físicos sólo se deshicieron de él “renormalizándolo”, ese truco matemático que emplean no saben encontrar la respuesta al problema planteado.
Ese es el problema de trasfondo con el que tenemos que encarar el problema de los quarks, los leptones y los vehículos de las fuerzas, que se diferencian por sus masas. que la historia de Higgs se tenga en pie: la masa no es una propiedad intrinseca de las partículas, sino una propiedad adquirida por la interacción de las partículas y su entorno.
La idea de que la masa no es intrinseca la carga o el espín resulta aún más plausible por la idílica idea de que todos los quarks y fotones tendrían masa cero. En ese caso, obedecerían a una simetría satisfactoria, la quiral, en laque los espines estarían asociados siempre con su dirección de movimiento. Pero ese idilio queda oculto por el fenómeno de Higgs. ¡Que ahora parece haber sido puesto al desnudo!
¡Ah, una cosa más! Hemos hablado de los bosones gauge y de su espín de una unidad; hemos comentado las partículas fermiónicas de la materia (espin de media unidad). ¿Cuál es el pelaje de Higgs? Es un bosón de espin cero. El espín supone una direccionalidad en el espacio, el campo de Higgs da masa a los objetos dondequiera que estén y sin direccionalidad. Al Higgs se le llama a veces “bosón escalar” [sin dirección] por esa razón.
La interacción débil, recordareis, fue inventada por E. Fermin describir la desintegración radiactiva de los núcleos, que era básicamente un fenómeno de poca energía, y a medida que la teoría de Fermi se desarrolló, llegó a ser muy precisa a la hora de predecir un enorme número de procesos en el dominio de energía de los 100 MeV. Así que ahora, con las nuevas tecnologías y energías del LHC, las esperanzas son enormes para, por fin, encontrar el bosón Higgs origen de la masa… y algunas cosas más.
Fabiola Gianotti, portavoz del experimento ATLAS, ofrece algunos avances:
“En nuestros observamos claros signos de una nueva partícula compatible con la teoría de Higgs, con un nivel aproximado de 5 sigma [99,977% de eficiencia], en la región de masa alrededor de los 126 GeV. El increíble rendimiento del LHC y el ATLAS y los enormes esfuerzos de mucha gente nos han traído a este excitante punto, pero falta un poco más de tiempo para preparar estos resultados cara a su publicación.”
El Modelo Estándar describe las partículas de todo cuanto nos rodea, incluso de nosotros mismos. Toda la materia que podemos observar, sin embargo, no parece significar más que el 4% del total. Higgs podría ser el puente para comprender el 96% del universo que permanece oculto.
El 4 de julio de 2012 se anunció el descubrimiento de un bosón. Punto. En diciembre de 2012 se empezó a hablar de “un” Higgs (en lugar de “el” Higgs), pero oficialmente seguía siendo un nuevo bosón. ¿Importa el nombre? El Premio Nobel de Física para el bosón de Higgs sólo será concedido cuando el CERN afirme con claridad y rotundidad que se ha descubierto “el” Higgs, si el CERN es conservador, la Academia Sueca lo es aún más. Sin embargo, el rumor es que quizás baste con que el CERN diga que se ha descubierto “un” Higgs.
¿Por qué, a pesar de todas las noticias surgidas el CERN, creo que no ha llegado el momento de celebrarlo? ¿Es acaso el Higgs lo encontrado?
Hay que responder montones de preguntas. ¿Cuáles son las propiedades de las partículas de Higgs y, lo que es más importante, cuál es su masa? ¿Cómo reconoceremos una si nos la encontramos en una colisión de LHC? ¿Cuántos tipos hay? ¿Genera el Higgs todas las masas, o solo las incrementarse? ¿Y, cómo podemos saber más al respecto? También a los cosmólogos les fascina la idea de Higgs, pues casi se dieron de bruces con la necesidad de tener campos escalares que participasen en el complejo proceso de la expansión del Universo. A pesar de todo (Nobel incluido), habrá que dar muchas explicaciones sobre el Higgs “dadort de masas”.
Este gráfico de arriba me recuerda el “efecto frenado” de Ramón Marquez
El campo de Higgs, tal y como se lo concibe ahora, se destruir con una energía grande, o temperaturas altas. Estas generan fluctuaciones cuánticas que neutralizan el campo de Higgs. Por lo tanto, el cuadro que las partículas y la cosmología pintan juntas de un universo primitivo puso y de resplandeciente simetría es demasiado caliente Higgs. Pero la temperatura cae bajo los 10’5 grados kelvin o 100 GeV, el Higgs empieza a actuar y hace su generación de masas. Así por ejemplo, antes de Higgs teníamos W, Z y fotones sin masa y la fuerza electrodébil unificada.
El Universo se expande y se enfría, y entonces viene el Higgs (que engorda los W y Z, y por alguna razón ignora el fotón) y de ello resulta que la simetría electrodébil se rompe. Tenemos entonces una interacción débil, transportada por los vehículos de la fuerza W+, W–, Z0, y por otra una interacción electromagnética, llevada por los fotones. Es si para algunas partículas del campo de Higgs fuera una especie de aceite pesado a través del que se moviera con dificultad y que las hiciera parecer que tienen mucha masa. otras partículas, el Higgs es como el agua, y para otras, los fotones y quizá los neutrinos, es invisible.
Para cada suceso, la línea del haz es el eje común de los cilindros de ECAL y HCAL. ¿Cuál es el mejor candidato W? el mejor candidato Z? En cada evento, ¿dónde ocurrió la colisión y el decaimiento de las partículas producidas? Lo cierto es que, en LHC se hacen toda clase de pruebas para saber del mundo de las partículas, de dónde vienen y hacia dónde se dirigen y, el Bosón de Higgs, es una asignatura pendiente a pesar de las noticias y de los premios
De todas las maneras, es tanta la ignorancia que tenemos sobre el origen de la masa que, nos agarramos como a un clavo ardiendo el que se ahoga, en caso, a la partícula de Higgs que viene a ser una de las soluciones que le falta al Modelo Estándar que todo encaje con la teoría.
¡Ya veremos en que termina todo esto! Y, aunque el que suena siempre es Higgs, lo cierto es que los autores de la teoría del “Bosón de Higgs”, son tres a los que se ha concedido, junto al CERN, el Premio Principe de Asturias. Peter Ware Higgs —el primero en predecir la existencia del bosón— junto a los físicos François Englert, y el belga Robert Brout—fallecido en el año 2011—.
Peter Higgs, de la Universidad de Edimburgo, introdujo la idea en la física de partículas. La utilizaron los teóricos Steven Weinberg y V. Salam, que trabajaban por separado, para comprender se convertía la unificada y simétrica fuerza electrodébil, transmitida por una feliz familia de cuatro partículas mensajeras de masa nula, en dos fuerzas muy diferentes: la QED con un fotón carente de masa y la interacción débil con sus W+, W– y Z0 de masa grande. Weinberg y Salam se apoyaron en los trabajos previos de Sheldon Glasgow, quien tras los pasos de Julian Schwinger, sabía sólo que había una teoría electrodébil unificada, coherente, pero no unió todos los detalles. Y estaban Jeffrey Goldstone y Martines Veltman y Gerard’t Hooft. hay otras a los que había que mencionar, pero lo que siempre pasa, quedan en el olvido de manera muy injusta. Además, ¿Cuántos teóricos hacen falta para encender una bombilla?
La verdad es que, casi siempre, han hecho falta muchos. Recordemos el largo recorrido de los múltiples detalle sueltos y físicos que prepararon el terreno que, llegara Einstein y pudiera, uniéndolo todo, exponer su teoría relativista.
Sobre la idea de Peter Higgs, Veltman, uno de sus arquitectos, dice que es una alfombra bajo la que barremos nuestra ignorancia. Glasgow es menos amable y lo llamó retrete donde echamos las incoherencias de nuestras teorías actuales. La objeción principal: que no teníamos la menor prueba experimental que parece que va asomando la cabeza en el LHC.
Esperemos que la partícula encontrada, el bosón hallado, sea en realidad el Higgs dador de masa a las demás partículas pero… ¡Cabe la posibilidad de que sólo sea el hermano menor! de la familia. El modelo estándar es lo bastante fuerte decirnos que la partícula de Higgs de menor masa (podría haber muchas) debe “pesar” menos de 1 TeV. ¿Por qué? Si tiene más de 1 TeV, el modelo estándar se vuelve incoherente y tenemos la crisis de la unitariedad.
Después de todo esto, tal como lo están planteando los del CERN, se llegar a la conclusión de que, el campo de Higgs, el modelo estándar y nuestra idea de cómo se hizo el Universo dependen de que se encuentre el Bosón de Higgs. Y ahora, por fin, el mayor Acelerador del mundo, el LHC, nos dice que el Bosón ha sido encontrado y las pruebas tienen una fiabilidad enorme.
¡La confianza en nosotros mismos, no tiene límites! el camino no ha sido recorrido por completo y quedan algunos tramos que tendremos que andar para poder, al fín, dar una explicación más completa, menos oscura y neblinosa que lo que hasta el momento tenemos, toda vez que, del Bosón de Higgs y de su presencia veráz, dependen algunos detalles de cierta importancia para que sean confirmados nuestros conceptos de lo que es la masa y, de paso, la materia.
¿Pasará igual con las cuerdas?
emilio silvera
Fuente: León Lederman
Jul
16
La Naturaleza está en nuestras Mentes
por Emilio Silvera ~ Clasificado en el Mundo y nosotros ~ Comments (0)
La esfera, colgando de un largo cable fino al techo del
coro, oscilaba de un lado a otro con una majestád isócrona.
Yo sabía -pero cualquiera podía haberlo sentido en la
magia de ese sereno aliento- que el período estaba gobernado
por la raíz cuadrada de la longitud del cable y por π,
ese número que, por irracional que sea las mentes sublunares,
liga la circunferencia y el diámetro de todos los cículos posibles a
través de una racionalidad superior. El tiempo que necesitaba la
esfera para oscilar de un extremo a otro estaba determinado por una
conspiración arcana la más intemporal de las medidas: la singularidad
del punto de suspensión, la dualidad de las dimensiones del plano, el
comienzo triádico de π, la secreta Naturaleza cuadrática de la raíz y la
innumerada perfección del propio círculo.”
Uberto Eco
Después de haber utilizado un tiempo las ecuaciones y fórmulas de la física matemática, uno se acostumbra a una peculiaridad de la Naturaleza. Es muy comprensica con nuestra ignorancia de ciertos detalles. Las leyes de la Naturaleza tienen varios ingredientes: una máquina lógica para predecir el futuro a partir del presente, constantes especiales de la Naturaleza y un conjunto de simples números. Estos simples números aparecen junto a las constantes de la Naturaleza en casi todas las fórmulas físicas.
Einstein los supo apreciar muy y así lo reflejaba en las cartas que le envió a su amiga Ilse Rosenthal Schneider y los lamaba “constantes básicas”. Son solamente números. Por ejemplo, el período (“tic”) de un reloj de péndulo estaba dado con gran precisión por una sencilla fórmula:
Período = 2π √(L/g)
Donde L es la longitud del péndulo y g es la aceleración de la gravedad en la superficie de la Tierra. Aquí podemos notar la aparición de la “constante básica” 2π = 6,28. En todas las fórmulas que utilizamos para describir algún aspecto del mundo físico, aparece un factor numérico de este . Lo más notable es que casi siempre tienen un valor próximo a uno y pueden despreciarse, o aproximarse por 1, si sólo se está interesado en obtener una estimación razonablemente buena del resultado.
Éste es un premio importante, porque en un problema como la determinación del período de un péndulo simple nos permite obtener la aproximada de la respuesta.. El período, que tiene dimensiones de tiempo, sólo puede depender de una manera de la longitud L y la aceleración g si la combinación resultante ha de ser un tiempo: esa combinación es la raíz cuadrada de L/g.
bonita característica del mundo físico, que parece estar bien descrito por leyes matemáticas en las que los factores puramente numéricos que aparecen no son muy diferentes de 1 en magnitud, es uno de los misterios casi desapercibidos de nuestro estudio del mundo físico. Einstein estaba muy impresionado por la ubicuidad de pequeños números adimensionales en las ecuaciones de la física y escribió sobre el misterio de que, aunque casi siempre parece ser así.
“…no podemos exigirlo rigurosamente, pues ¿por qué no debería aparecer un factor numérico (12π)3 en una deducción fisicomatemática? sin duda tales casos son rarezas.”
Es posible arrojar alguna luz sobre problema si reconocemos que casi todos los factores numéricos por los que Einstein estaba tan impresionado tienen un origen geométrico. Por ejemplo, el volumen de un cubo de arista R es R3, el volumen de una esfera de radio R es 4πR3/3. Los factores numéricos dan de la forma detallada cuando las fuerzas de la Naturaleza estan actuando. Puesto que las fuerzas fundamentales de la Naturaleza son simétricas y no tienen una preferencia por direcciones diferentes, hay una tendencia a la simetría esférica.
Nuestra Galaxia, el Sol y nuestro mundo y la Luna… ¡Todos tienden a ser esféricos!
Nos hemos podido dar cuenta de que a partir de todo lo que hemos podido aprender, hemos podido ver que las constantes de la Naturaleza tienen una influencia relativa mucho mayor se trata de determinar los resultados de las leyes de la Naturaleza en tres dimensiones que la que tienen en universos con muchas más dimensiones espaciales.
Cuando consideramos mundos con dimensiones de espacio y tiempo distintas de 3 + 1 topamos con un problema sorprendente. Los mundos con más de una dimensión no permiten predecir el futuro a partir del presente. En este sentido son más bien como mundos sin dimensión temporal. Un sistema organizado complejo, como, por ejemplo, el necesario la vida, no podría utilizar la información recogida en su entorno para conformar su comportamiento futuro. Seguiría siendo simple: demasiado simple para almacenar información y evolucionar.
Si el número de dimensiones de espacio y tiempo hubiera sido escogido aleatoriamente y todos los números fueran posibles, entonces esperaríamos que el número fuera muy grande. Es muy improbable escoger un número pequeño. Sin embargo, las ligaduras impuestas por la necesidad de tener “observadores” para hablar del problema significa que no todas las posibilidades están disponibles y que se nos impone un espacio tridimensional. Todas las alternativas estarían privadas de vida. Si científicos de otro universo conocieran nuestras leyes no el número de dimensiones en que vivimos, podrían deducir su número simplemente a partir del hecho de nuestra existencia.
Así que, si queremos hacer una aproximación al problema de por qué el espacio tres dimensiones, nos lleva a una estimación de gran alcance de cómo y por qué son peculiares los mundos tridimensionales con una única flecha del tiempo. Las alternativas son demasiado simples, demasiado inestables o demasiado impredecibles para que observadores complejos evolucionen y perduren dentro de ellos. Como resultado, no debería sorprendernos encontrarnos viviendo en tres dimensiones espaciales sujetos a los caprichos de un único tiempo. No par4ece que existan alternativas.
Y, a todo esto, ustedes se preguntarán: ¿Qué tiene que ver todo esto con el péndulo? Bueno, ya sabéis que todo evoluciona y, a medida que se va escribiendo parece que las ideas fluyen y también evolucionan en su transcurrir de manera tal que, de una cuestión se pasa a otra sin que lo podamos evitar.
Le doy desde aquí las gracias a John D. Narrow que, con sus ideas inspiró ésta página que todos pudiéramos disfrutar al acercarnos al conocimiento de las cosas, del mundo, del universo y de su Naturaleza que continuamente nos enseña por qué camino debemos seguir avanzando.
emilio silvera
Jul
15
Curiosidades
por Emilio Silvera ~ Clasificado en El Universo cambiante ~ Comments (5)
Nebulosa de la Araña Roja.
También conocida como (NGC 6537), es una nebulosa planetaria situada en la constelación de Sagitario. Esta nebulosa tiene clara forma diferenciada en dos lóbulos, esto puede ser debido a que la enana blanca que está en el centro de la nebulosa puede tener una compañera binaria o también otra causa podría ser debida a campos magnéticos de la zona. La enana blanca produce un poderoso y fuerte y caliente viento estelar (10.000 K) y sopla a una velocidad de 300 km/s, lo que ha generado su característica y curiosa forma. La enana blanca está rodeada de una nube de polvo, lo que hace que sus características físicas sean difícilmente determinables y podríamos estar ante una de las enanas blancas más calientes que se conocen en la actualidad, con temperaturas superiores a los 250.000 K. La Nebulosa de la Araña Roja se encuentra a unos 3.000 – 8.000 años luz de la Tierra, aunque otras estimaciones reducen esta distancia a 1.900 años luz.
Nebulosa Boomerang
Es una protonebulosa planetaria, ya que esa una estrella o grupo de estrellas que aún están evolucionando hacia la fase de nebulosa planetaria y que se encuentra en la constelación de Centaurus a 5.000 años luz de la Tierra. La imagen de mucha mayor resolución obtenida con el Telescopio Espacial Hubble, la muestra como una nebulosa bipolar, por lo que también ha recibido el nombre de Nebulosa de la Pajarita. Esta nebulosa destaca porque su temperatura es tan sólo un grado superior al cero absoluto, es el único objeto conocido con una temperatura inferior a la radiación de fondo de microondas. La nebulosa (con un radio de un año luz) se formó por el gas expulsado por su estrella central, dicha estrella ha estado perdiendo materia a razón de una milésima de la masa solar cada año durante al menos 1.500 años. Ello supone un ritmo de pérdida de masa entre 10 y 100 veces mayor que en otros objetos similares. El gas se expande a una gran velocidad de 164 km/s, lo que causa la baja temperatura. Asimismo existe una capa interna que se expande a 35 km/s, que puede ser el resultado de la expulsión de una envoltura común por parte de una estrella binaria central.
Nebulosa de la Burbuja
La Nebulosa de la Burbuja, también conocida como NGC 7635, fue descubierta en 1787 por William Herschel, situada en la constelación de Cassiopeia, cerca del cúmulo abierto M52, a unos 7.100 – 11.000 años luz de la Tierra según diversas fuentes. Nos encontramos ante una nebulosa de emisión de unos 10 años luz de diámetro que hace honor al nombre por el que se la conoce ya que su forma es prácticamente esférica aunque no uniforme, ello es debido al choque del viento estelar de su gran y masiva estrella central con el denso material circundante que la rodea. La Nebulosa de la Burbuja está situada en las cercanías de una gran nube molecular (zona en las que existe hidrógeno molecular, H2) que contiene la expansión de la “burbuja” pero que a su vez es rechazada por las radiaciones a alta temperatura que emite la estrella situada en el núcleo de la nebulosa, de esta forma, dicha radiación hace calentar la regiones densas de la nube molecular, haciéndola brillar. Esta nebulosa puede observarse de forma amateur, si bien es complicado debido a la presencia de una estrella localizada a su Oeste. Las mejores imágenes que se han obtenido de la Nebulosa de la Burbuja han sido obtenidas una vez más por el Telescopio Espacial Hubble.
Nebulosa Cabeza de Caballo.
También conocida como Barnard 33, es una nebulosa de absorción, muy densa, fría y oscura ya que no está relacionada con ninguna estrella cercana por lo que el polvo y gas interestelar que la forma, no recibe ningún tipo de energía. Este tipo de nebulosas son más difíciles de detectar por aparatos humanos y son visibles mediante contraste. Fue descubierta en 1888 por Williamina Fleming y catalogada por primera vez en 1919 por el astrónomo estadounidense Edward Emerson Barnard. La Nebulosa Cabeza de Caballo mide aproximadamente 3,5 años luz de ancho y está situada en el extremo izquierdo del Cinturón de Orión y al Sur de Alnitak (estrella supergigante azul). La nebulosa forma parte del Complejo de Nubes Moleculares de Orión, situado a unos 1.500 años luz de distancia de la Tierra. Cabeza de Caballo ha sido una de las nebulosas más ampliamente difundidas debido a su curiosa forma y a la belleza de las imágenes obtenidas de ella en las que aparecen multitud de resplandores rojizos en su entorno debidos a la ionización del hidrógeno que rodea a la nebulosa por parte de la estrella Sigma Orionis y azulados por la presencia de una nebulosa de reflexión conocida como NGC 2023. Con el paso del tiempo (miles de años), Cabeza de Caballo irá perdiendo su forma característica por la expansión de los gases y los movimientos internos de la propia nube, alterando así su apariencia tal como hoy la conocemos.
Nebulosa Cara de Payaso.
También conocida como Nebulosa Esquimal (NGC 2392), es una nebulosa planetaria de la constelación de Géminis que se encuentra alejada de la Tierra a una distancia de entre 3.000 – 5.000 años luz. Fue descubierta el 17 de Enero de 1787 por William Herschel. Debe su nombre a su peculiar y curiosa forma, ya que recuerda de cierta manera a la cara de una persona rodeada con una capucha, mientras que sus brillantes colores dan la sensación de ser el maquillaje usado por los payasos del circo. Se estima que tiene una edad de 10.000 años, estando compuesta por dos lóbulos elípticos de materia saliendo de la estrella moribunda que se encuentra en el centro de la nebulosa. Desde nuestra perspectiva, unos de los lóbulos está delante del otro. La estrella central (similar a nuestro Sol pero en fase de gigante roja), está rodeada por el denso gas que compone las capas exteriores de dicha estrella y que es arrastrado a una velocidad de 115.000 km/h, lo que impide que el viento estelar arrastre dicho material a lo largo del ecuador de la nebulosa. Los filamentos internos visibles son expulsados por un fuerte viento de partículas de la estrella central. El disco externo contiene inusuales y largos filamentos de varios años luz de longitud.
Nebulosa de Carina.
La Nebulosa de Carina (también conocida como Nebulosa de la Quilla, Nebulosa Eta Carinae o NGC 3372) es una gran nebulosa de emisión que se encuentra en el Sur de nuestra Vía Láctea, a unos 7.500 años luz de distancia de la Tierra en la constelación de Carina y que rodea varios cúmulos estelares abiertos, conteniendo varias estrellas de magnitud O, algunas de ellas son de las más masivas encontradas hasta la fecha en nuestra galaxia. La Nebulosa de Carina fue descubierta en 1751 por Nicolas Louis de Lacaille en el Cabo de Buena Esperanza. La nebulosa está formada por densas nubes de polvo y gas brillante, siendo una de las incubadoras de estrellas más cercanas a nuestro planeta y teniendo un diámetro realmente impresionante y cercano a los 100 años luz, cuatro veces más grande que la Nebulosa de Orión. Dicho tamaño hace que podamos encontrar multitud de objetos estelares en su interior como la Nebulosa Keyhole (oscura y fría nube de polvo de 7 años luz de diámetro que posee brillantes filamentos fluorescentes) y la estrella hipergigante Eta Carinae (rodeada por la Nebulosa del Homúnculo que fue formada por material eyectado de la propia estrella en 1841), la cual tiene una luminosidad cuatro millones de veces mayor que la de nuestro Sol y una masa 100 – 150 veces superior. Tal es el tamaño de Eta Carinae, que cuando llegue al final de sus vidas explosionará en una hipernova (superior a una supernova), pudiendo formar directamente un agujero negro, el cual emitiría dos chorros de plasma y rayos gamma a una velocidad cercana a la de la luz por cada uno de sus polos. La Nebulosa de Carina es un laboratorio perfecto para los astrónomos que quieren estudiar el nacimiento y el inicio de las nuevas estrellas.
Terminemos por la misma imagen de la Nebulosa del Boomerang, captada en otra longitud de ondas.
Posee una temperatura de -272ºC y se encuentra tan sólo un grado por encima del cero absoluto, que es el límite más bajo para cualquier temperatura. Incluso el débil fulgor de la radiación de fondo dejada por el Big Bang, con una temperatura de -270ºC, tiene una temperatura más cálida que la propia nebulosa. Hasta el día de hoy, es el único elemento conocido del Universo cuya temperatura es más baja que la radiación cósmica de fondo.
La nebulosa Boomerang posee esa forma de lazo debido al fuerte viento que alcanza velocidades de 500.000 km/h, el cual arrojaba el gas ultrafrío lejos de la moribunda estrella central.
El Universo nunca dejará de asombrarnos y siempre nos podrá mostrar cosas nuevas que, habiéndolas observado desde la lejanía y utilizando sistemas no siempre fiables, por muy bueno y avanzado que puedan ser nuestros telescopios actuales, nunca podrán mostrarnos con la fidelidad de la cercanía, esos objetos que pueden captar pero que, dadas las inmensas distnacias, esconden secretos que, poco a poco, a medida que avanza la tecnología y buscamos nuevos sistemas, podremos ir desvelando para conocer, lo que el Universo es.
emilio silvera
Jul
15
Los misterios de la Tierra
por Emilio Silvera ~ Clasificado en Energías de la Tierra ~ Comments (3)
La más destructiva intensificación temporal de los normalmente suaves flujos de energía geotectónica – erupciones volcánicas o terremotos extraordinariamente potentes – o de energía atmosférica – vientos o lluvias anormalmente intensas –, parecen irrelevantes se comparan con las repetidas colisiones del planeta con cuerpos extraterrestres relativamente grandes.
Hace unos seis mil años, en una región argentina denominada Campo del Cielo, se suscitó una lluvia de meteoritos, producto de la explosión en la atmósfera de un asteroide que pesaba unos 840 mil kilos. En la actualidad, se conserva uno de esos fragmentos, al cual se le denominó como “El Chaco”. Es el segundo más pesado del cual se tiene , pues en la báscula registra 37 toneladas.
En los primeros años del siglo XIX, varios exploradores se asentaron en Cape York, Groenlandia, en donde descubrieron que los habitantes de las tribus del lugar utilizaban armas punzocortantes hechas, supuestamente, con materiales de origen meteórico. Años más tarde, Robert E. Peary fue quien encontró los resquicios de un gran asteroide que golpeó la Tierra en la llamada “Edad de Hierro”. A esta gran piedra se le llamó Ahnighito, la cual fue venida al Museo Americano de Historia Natural, en donde actualmente se le observar.
Este meteorito cayó miles de años en Bacubirito, Sinaloa. Se dice que en 1863, varios pobladores de dicha localidad hallaron esta gran piedra, aunque no se dio a conocer al mundo sino hasta finales del siglo XIX, gracias a la labor periodística de Gilbert Ellis. Bacubirito pesa cerca de 20 toneladas; mide más de cuatro metros de largo y dos metros de ancho, características por las cuales lo convierten en el quinto meteorito más grande que ha caído en el planeta. Hoy en día se encuentra en la explanada del Centro de Ciencias de Culiacán.
No sabemos un asteroide “asesino”, caerá sobre la Tierra. Los Encuentros espaciales, han sido relativamente frecuentes en la historia del planeta y, luego, no podemos asegurar que no se volverá a repetir, sino que, por el contrario, lo único que no sabemos es cuando pasará.
Existen simulaciones de lo que ser el choque del meteorito en la Tierra y, desde luego, no quisiera estar aquí cuando suceda. La Tierra está siendo bombardeada continuamente por invisibles partículas microscópicas de polvo muy abundantes en todo el Sistema Solar, y cada treinta segundos se produce un choque con partículas de 1 mm de diámetro, que dejan un rastro luminoso al autodestruirse en la atmósfera. También son relativamente frecuentes los choques con meteoritos de 1 metro de diámetro, que se producen con una frecuencia de, al , uno al año.
Pero los impactos, incluso con meteoritos mayores, producen solamente efectos locales. Esto es debido a que los meteoritos que deambulan por la región de asteroides localizada Marte y Júpiter están girando alrededor del Sol en el mismo sentido que la Tierra, de manera que la velocidad de impacto es inferior a 15 Km/s.
Marte y Júpiter hay cientos de miles de cuerpos pequeños que orbitan alrededor del Sol llamados asteroides. podemoas encontrarlos más allá de Plutón, llamado cinturón de Kuiper, y que en este caso reciben el de objetos transneptunianos y que están hecho de hielo. Ceres es el asteroide más grande y 913 km de diámetro.
El cráter de Arizona, casi perfectamente simétrico, se formó hace 25.000 por el impacto de un meteorito que iba a una velocidad de 11 Km/s, lo que representa una potencia cercana a 700 PW. Estas gigantescas liberaciones de energías palidecen cuando se comparan con un choque frontal con un cometa típico. Su masa (al menos de 500 millones de toneladas) y su velocidad relativa (hasta 70 Km/s) elevan su energía cinética hasta 1022 J. Aunque se perdiera un diez por ciento de esta energía en la atmósfera, el impacto sería equivalente a una explosión de unas 2.500 bombas de hidrógeno de 100 megatones. Está que un fenómeno de estas características produciría impresionantes alteraciones climatológicas. Sin embargo, no es seguro y sí discutible que un impacto parecido fuese la causa de la extinción masiva del cretácico, siendo lo más probable, si tenemos en cuenta el periodo relativamente largo en que se produjo, que se podría explicar por la intensa actividad volcánica de aquel tiempo.
La frecuencia de impactos sobre la Tierra disminuye exponencialmente con el tamaño del objeto. Muchas toneladas son las que recibimos cada año de pequeños fragmentos de todo pero, cuando estos van aumentando de tamaño, los sucesos de espacian de manera sustancial
Aproximadamente, cada cincuenta o sesenta millones de años se produce una colisión con un cometa, lo que significaría que la biosfera, que ha evolucionado durante cuatro mil millones de años, ha debido superar unos cuarenta impactos de este tipo. Está claro que ha salido airosa de estas colisiones, ya que aunque haya sido modificada, no ha sido aniquilada.
Esperemos que imagen no la podamos ver nunca en directo
Igualmente, la evolución de la biosfera ha sobrevivido a las explosiones altamente energéticas de las supernovas más “cercanas”. Dado que en nuestra galaxia se produce por término medio la explosión de una supernova cada 50 , el Sistema Solar se encuentra a una distancia de 100 parsecs de la explosión cada dos millones de años y a una distancia menor de 10 parsecs cada dos mil millones de años. En este último caso, la parte alta de la atmósfera se vería inundada por un flujo de rayos X y UV de muy corta longitud de onda, diez mil veces mayor que el flujo habitual de radiación solar, lo que implica que la Tierra recibiría, en unas pocas , una dosis de radiación ionizante igual a la que recibe anualmente. Exposiciones de 500 roentgens son setales para la mayoría de los vertebrados y, sin embargo, los diez episodios de esta magnitud que se han podido producir en los últimos 500 millones de años no han dejado ninguna consecuencia observable en la evolución de la biosfera.
Si suponemos que una civilización avanzada podría preparar refugios la población durante el año que transcurre ente la llegada de la luz y la llegada de la radiación cósmica, se encontraría con la inevitable dosis de 500 roentgens cada mil millones de años, tiempo suficiente para permitir el desarrollo de una sociedad cuyo conocimiento le sirviera para defenderse de un flujo tan extraordinario y de consecuencias letales.
nos queda tiempo, hablemos de… ¡La fotosíntesis! Y, sus consecuencias.
Todo el Oxígeno de la Atmósfera terrestre procede del oxígeno que desprenden los organismos autótrofos la fotosíntesis.
La fotosíntesis es el principal proceso bioquímico que consigue pasar materiales desde el biotopo hasta la biocenosis de un ecosistema. Una vez incorporados parte de los organismos autótrofos, los heterótrofos (por ejemplo, los animales) solo tienen que aprovecharse de aquellos; con la existencia de pequeñas cantidades de agua, todo está preparado para que el ecosistema entero comience a funcionar. Además, siempre habrá animales depredadores, carnívoros, que seguirán aprovechando los materiales de otros.
La conocida ecuación básica que describe la reacción endotérmica por la cual se sintetiza una molécula de glucosa a partir de sus seis moléculas de CO2 y H2O, y 2’8 MJ de radiación solar, es una simplificadísima caja negra. Una caja negra más realista sería la siguiente:
106 CO2 + 90 H2O + 16 NO3 + PO4 + nutrientes minerales + 5’4 MJ de radiación = 3’258 g de protoplasma (106 C, 180 H, 46 O, 16 N, 1 P y 815 g de cenizas minerales) + 154 O2 + 5’35 MJ de calor disipado.
Sin macronutrientes ni micronutrientes no se producir fitomasa, que está compuesta por los nutrientes básicos necesarios para todos los seres heterótrofos: azúcares complejos, ácidos grasos y proteínas.
La síntesis de fitomasa en el ciclo reductor del fosfato pentosa (RPP) – un proceso con varios pasos de carboxilación por catálisis enzimática, reducción y regeneración – tiene que empezar con la formación de trifosfato de adenosina (ATP) y nicotinamida adenina dinucleótido fosfato (NADP), que son los dos compuestos que suministran energía a todas las reacciones biosintéticas. La síntesis de las tres moléculas de ATP y las dos de NADP que se necesitan para reducir molécula de CO2 requiere de diez cuantos de radiación solar con longitud de onda próxima al pico rojo de absorción de la clorofila (680 nm). El carbono procedente del CO2, combinado con el hidrógeno del agua y con los micronutrientes, dará lugar a nueva fitomasa que contiene 465 KJ/mol.
La cantidad de energía de un cuanto de luz roja es de 2’92×10-19 J (el producto de la constante de Planck, 6’62×10-34 por la frecuencia de la luz, que a su vez es el cociente la velocidad de la luz y la longitud de onda).
Un einstein (definido como un mol o de Avogadro, 6’02×1023) de fotones rojos tiene una energía aproximadamente igual a 17 Kg. Suponiendo que la RFA es el 45% de la luz directa, la eficiencia global de la fotosíntesis es del 11%, que equivale a 456/(1.760/0’43). Esta eficiencia se reduce por lo en una décima parte más si tenemos en cuenta la reflexión de la luz en las hojas y la pérdida que supone atravesar la cubierta vegetal. Ninguna planta, sin embargo, se acerca siquiera a esta eficiencia teórica, porque parte de la luz absorbida por las clorofilas (generalmente, el 20 – 25 por ciento) vuelve a ser emitida en forma de calor, debido a que los pigmentos no pueden almacenar la luz y las reacciones enzimáticas no se producen con suficiente velocidad como para utilizar completamente el flujo de energía incidente. En la respiración se cede el carbono fijado en el metabolismo de la planta y en el mantenimiento de las estructuras que la soportan.
La luz y el calor que en una pequeña fracción recibinmos de la energía solar, posible todas estas maravillas en nuestro planeta. La vida incluida.
Para cada especie, la tasa con la que se pierde carbono está determinada principalmente por el tipo de fotosíntesis. Así, existen diferencias sustanciales las plantas C3 y C4. La respiración a escala de una comunidad o ecosistema depende del estado de crecimiento, y varía entre del 20 por ciento en plantas jóvenes en rápido crecimiento, hasta más del 90 por ciento en bosques maduros.
Con una pérdida del 25 por ciento para la reacción, y otro tanto para la respiración, la eficiencia fotosintética es ligeramente superior al 5 por ciento. En este punto, las estimaciones teóricas y los valores reales coinciden, ya que el valor medio de fotosíntesis neta en plantas muy productivas y en óptimas y durante cortos periodos de tiempo, oscila entre el 4 y el 5 por ciento. La mayoría de las plantas rinden en función de los nutrientes, especialmente nitrógeno y agua, o por las bajas temperaturas en las regiones de mayor altura y latitud. Los mejores rendimientos en sistemas naturales muy productivos, como los humedales y los cultivos, están entre el 2 y el 3 por ciento. En otros ecosistemas, como los pantanos tropicales templados y los bosques templados, el rendimiento de la transformación es del 1’5 por ciento, y en las praderas muy áridas sólo del 0’1 por ciento. Globalmente, la producción anual es, al menos, de 100.000 millones de toneladas de fitomasa, que se sintetizan con un rendimiento medio del 0’6 por ciento.
La fotosíntesis en los océanos, muy afectada por la escasez de nutrientes, es incluso menos . La productividad medie es de poco más de 3 MJ/m2 y se realiza con un rendimiento fotosintético del 0’06 por ciento. La media ponderada total es 0’2 por ciento, es decir, que sólo uno de cada 500 cuantos de energía solar que llega a la superficie de la Tierra se transforma en energía de biomasa en de tejido vegetal.
La mayor de esta energía se almacena en forma de azúcares simples, que contienen más energía, y que sólo se encuentran en las semillas.
La mayor parte de la fitomasa está en los bosques. En los océanos, los principales productores son los organismos que componen el fitoplancton, que son muy pequeños y flotan libres. Su tamaño varía algo menos de 2 y 200 μm de diámetro y están formados por cantidades variables de bacterias y protoctistas eucarióticos. Las cianobacterias cocoides son tan abundantes en algunas aguas oligotrópicas que pueden ser las responsables de la mayor parte de la producción de fitoplancton.
Los protoctistas fotosintetizadores varían entre los más pequeños flagelados pigmentados ( las criptomonas y crisofitos), hasta las diatomeas y dinoflagelados, que son mayores (más de 10 mm) y generalmente dominantes. Las diatomeas están formadas por células sin flagelos, con paredes de silicio amorfo mezclados con otros compuestos orgánicos. Presentan una sorprendente y amplia variedad de diseño, desde las que tienen simetría central (las de forma radial son las dominantes en el océano), a las pennadas (simetría lateral), y otras forman largas cadenas.
La productividad de fitoplancton está controlada por la temperatura del agua y por la disponibilidad de radiación solar y nutrientes. La temperatura no es determinante, porque muchas especies son muy adaptables y consiguen una productividad similar en distintos ambientes. Aunque es frecuente la adaptación a diferentes lumínicas, tanto el volumen como en contenido en clorofila de las diatomeas aumenta con la intensidad de la luz. En el mar abierto, la mayor limitación es la cantidad de nutrientes disponibles.
las carencias que más limitan la producción de fitoplancton está la de nitrógeno, el macronutriniente más importante, la de fósforo, y la de algunos otros micronutrientes clave como el hierro y el silicio.
Los medios productivos de la Tierra están en la capa superficial y la capa inmediatamente inferior de los océanos. En el mar abierto, las concentraciones más altas de nutrientes se encuentran entre los 500 y los 1.000 metros, a bastante más profundidad que la zona eufórica, capa en la que penetra la luz solar y que se extiende a unos 100 metros en las aguas transparentes.
El pequeñísimo tamaño de los productores dominantes es una adaptación eficaz a la escasez de nutrientes, ya que cuanto mayor sea el cociente entre la superficie y el volumen, y más lento el hundimiento de las células de fitoplancton en la capa eufórica, mayor es la tasa de absorción de nutrientes.
las corrientes elevan a la superficie las aguas frías y cargadas de nutrientes, la producción de fitoplancton aumenta sustancialmente. Las aguas costeras de Perú, California, noroeste y sudoeste de África, y de la India occidental son ejemplos destacados de ascensión costera de aguas frías. También se dan casos de ascensión mar adentro en la mitad del Pacífico, cerca del ecuador y en las aguas que rodean la Antártida. Otras zonas altamente productivas se encuentran en las aguas poco profundas cercanas a la costa que están enriquecidas por el aporte continental de nutrientes. Este enriquecimiento, con una proporción N/P muy descompensada, es especialmente elevados en los estuarios adonde van a parar grandes cantidades de aguas residuales y fertilizantes.
Las diferentes medidas de la productividad en las aguas oligotróficas de los mares subtropicales y de las aguas eutróficas con corrientes ascensionales, varían entre de 50 gC/m2 y 1 gC/m2, más de un orden de magnitud. Las estimaciones de la producción global de fitoplancton están comprendidas 80.000 y 100.000 millones de toneladas, que representan entre dos tercios y cuatro quintos de la fitomasa total terrestre. Contrasta con el resultado anterior el hecho de que, dado el corto periodo de vida del fitoplancton (1 – 5 días), la fitomasa marina represente sólo una pequeña fracción de todo el almacenamiento terrestre.
La distribución espacial del fitoplancton muestra zonas delimitadas que se extienden a escala local y global. La exploración desde los satélites es, con gran diferencia, la que permite detectar con mayor precisión las concentraciones de clorofila y la que ha posibilitado obtener las pautas de la distribución de fitoplancton. En las aguas que rodean la Antártida se observa claramente una distribución asimétrica en dos bandas casi concéntricas. La mejor distribución se explica por el hecho de que se deba a corrientes circumpolares y a la abundancia de ácido silicílico. las zonas de mayor riqueza de fitoplancton se encuentran cerca de los continentes donde los ríos arrastran abundantes nutrientes disueltos.
La vida necesita un aporte continuo de energía que llega a la Tierra el Sol y pasa de unos organismos a otros a través de la cadena trófica.
El fitoplancton es la base energética de las intrincadas pirámides tróficas. Las cadenas alimenticias en el océano, generalmente, son redes complicadas. Una gran parte de la fitomasa disponible no la consumen directamente los herbívoros, sino que primero se almacena en depósitos de materia muerta que, transformada por bacterias, se convertirá en alimento otros seres heterótrofos.
La gran producción de fitoplancton puede alimentar grandes cantidades de zoomasa. El kril, pequeños crustáceos parecidos a las quisquillas que se alimentan de diatomeas, son los organismos más abundantes en la superficie del mar; sus densas acumulaciones pueden contener mil millones de individuos y su producción anual de zoomasa quizá llegue hasta los 1.300 millones de toneladas. Esta prodigiosa cantidad de zoomasa sirve de alimento a focas, calamares y peces, así como a los mayores carnívoros de la biosfera, las especies de ballenas con barbas que se alimentan filtrando el agua.
emilio silvera