jueves, 03 de abril del 2025 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Todo es energía? Fijémosnos en la Tierra

Autor por Emilio Silvera    ~    Archivo Clasificado en La Tierra y su energía    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

En esta inmensa, colorida y hermosa Nebulosa se crean nuevas estrellas que, llenas de energía emiten radiaciones ultravioletas que ionizan toda la región que las circundan y hace que la Nebulosa resplandezca  como una inconmensurable isla de luces y colores que nos desata la imaginación sabiendo que nuevas estrellas y mundos surgen de todo ese conglomerado de gas y polvo que interacciona con las fuerzas de la Naturaleza presentes en todas partes.

El universo entero es energía. En sus formas diferentes la energía cambia continuamente y lo mismo hace que brillen las estrellas del cielo, que los planetas giren, que los estables átomos formen moléculas y materia, que las plantas crezcan o que las civilizaciones evolucionen.

La ciencia del siglo XIX reconoció la universalidad de la energía y supo ver que la Humanidad sin energía que hiciera el trabajo más duro, no evolucionarían en el bienestar social y el saber. De todas maneras, aún hoy día, a comienzos del siglo XXI, no tenemos un conocimiento unificado de todos los ámbitos y disciplinas, que relacionados de una u otra manera con la energía, nos presente una visión global y completa de este problema. Los estudios energéticos modernos se presentan fragmentados, divididos en disciplinas, y los científicos que trabajan en cada una de ellas están muy ocupados para leer el resultado obtenido en los otros estudios.

Los geólogos, por ejemplo, al tratar de entender las grandes fuerzas que transforman la superficie del planeta por el movimiento de las placas tectónicas, rara vez están al día de los descubrimientos en las otras ramas de la energética moderna, donde se estudia desde el esfuerzo de un corredor de élite hasta el vuelo de un colibrí.

Los ingenieros se preocupan por las plantas generadoras de electricidad y piensan poco en las constantes fundamentales de la energía o en los cambios que determinaron la evolución de las sociedades antes de la llegada de la civilización de los combustibles fósiles.

Energía es todo, desde el Sol hasta un embarazo; desde el pan que comemos hasta un microchip. Sin embargo, es difícil que un técnico pueda pensar en ello cuando está centrado en resolver el problema del momento.

         También aquí está presente la energía

La progresión lógica se realiza siguiendo una secuencia progresiva desde los flujos de energía planetarios a la vida de las plantas y los animales, siguiendo con la energía humana, la energía en el desarrollo de las sociedades preindustriales y modernas, y concluyendo con el transporte y los flujos de información, que son las dos características más importantes de la civilización de los combustibles fósiles.

Los que han leído algunos de mis trabajos saben que aquí podrán encontrarse con datos y materias diversas, y aunque el tema central, como he reseñado por título, es la evolución por la energía, también podrán leer sobre la entropía, las fuerzas de la naturaleza, el átomo, o incluso, del Sol, los vientos, radiación solar o cualquier dato que, en realidad, pueda estar conectado con el concepto de energía.


El conocimiento, las peculiaridades y las complejidades de las diferentes formas de energías, así como su almacenamiento y transformación, requiere que cuantifiquemos esas cualidades y procesos. Para ello debemos introducir cierto número de conceptos científicos y medidas, así como sus unidades correspondientes.

Al hablar sobre energía nos encontramos con el problema de que el uso en el habla común de muchos términos científicos está equivocado. Como dice Henk Tennekes, “hemos creado una terrible confusión con los conceptos físicos simples en la vida ordinaria”. Pocos de esos malentendidos son tan generales y molestos como los relacionados con los términos energía, potencia y fuerza.

Definimos fuerza como la intensidad con la que intentamos desplazar – empujar, tirar, levantar, golpear… – un objeto. Podemos ejercer una fuerza enorme sobre la roca que sobresale en una montaña incluso si ésta permanece inmóvil. Sin embargo, sólo realizamos trabajo cuando el objeto que empujamos se mueve en la dirección de la fuerza aplicada. De hecho, se define el trabajo realizado como el producto de la fuerza aplicada por la distancia recorrida. La energía, como se define en los libros de texto, es “la capacidad de hacer trabajo”, y así, ésta se medirá con las mismas unidades que el trabajo.

Si medimos la fuerza en unidades denominadas newton (N), llamada así en honor de Isaac Newton, y la distancia en metros (m), el trabajo se mide en la malsonante unidad de newton-metro. Para simplificar, los científicos llaman al newton-metro julio (J), en honor de James Prescot Joule (1.818 – 1.889), quien publicó el primer cálculo preciso de la equivalencia entre trabajo y energía. El julio es la unidad estándar de trabajo y energía.

La potencia es simplemente la tasa de trabajo, es decir, un flujo de energía por unidad de tiempo. A un julio por segundo lo llamamos vatio (W) en honor de James Watt (1.736 – 1.819), inventor de la máquina de vapor mejorada y el hombre que estableció la primera unidad de potencia, que no fue el vatio sino el caballo de vapor (CV), una unidad aproximadamente igual a 750 W.

Seguimos con algunas tablas para documentarnos:

Almacenamiento de energía
Energía de Magnitud
Reservas mundiales de carbón 200.000 EJ
Reservas mundiales de masa vegetal 10.000 EJ
Calor latente de un tormenta 5 PJ
Carga de carbón de un camión de 100 t 2 TJ
Barril de petróleo crudo 6 GJ
Botella de vino de mesa blanco 3 MJ
Garbanzo pequeño 5 KJ
Mosca en la mesa de la cocina 9 mJ
Gota de agua de 2 mm en una hoja de árbol 4 μJ
Flujos de energía
Energía de Magnitud
Radiación solar 5.500.000 EJ
Fotosíntesis mundial neta 2.000 EJ
Producción mundial de combustibles fósiles 300 EJ
Huracán típico en el Caribe 38 EJ
La mayor explosión de bomba H en 1.961 240 PJ
Calor latente de un tormenta 5 PJ
Bomba de Hiroshima en 1.945 84 TJ
Metabolismo basal de un caballo grande 100 MJ
Ingesta diaria de un adulto 10 MJ
Pulsación de una tecla del ordenador 20 mJ
Salto de una pulga 100 nJ

Para avanzar un poco más tenemos que pasar de empujar y tirar (lo que llamamos energía mecánica o energía cinética) a calentar (energía térmica). Definimos una unidad llamada caloría como la cantidad de calor necesario para elevar la temperatura de un gramo de agua desde 14’5 a 15’5 ºC. Usando esta unidad podemos comparar energías térmicas, pero una vez más, esta unidad no nos permite comparar todas las clases diferentes de energías.

Si nos preguntamos ¿qué es la energía?, esta pregunta no es fácil de contestar. Incluso uno de los más grandes físicos modernos resulta de poca ayuda: “es importante darse cuenta de que en física, en realidad, no se sabe muy bien qué es la energía. No tenemos una idea de por qué la energía está formada por pequeños pulsos de una cantidad definida”, decía Richard Feynman en su libro Lectures on Physics.

David Rose, para definir la energía, decía: “es un concepto abstracto inventado por los físicos en el siglo XIX para describir cuantitativamente una amplia variedad de fenómenos naturales”.

Definir la energía no ha sido nunca cosa fácil, dado que está presente en todo lo que podamos mirar desde una piedra que yace en las finas arenas del fondo de un río, la montaña que majestuosa nos mira desde su altanera e imponente figura, la simple visión de un hermoso árbol, y, sobre todo, energía para mí… ¡son las estrellas del espacio interestelar! que crean el material del que se forjan los mundos y surje la vida, la más elevada forma del energía que está presente en nuestro Universo.

El conocimiento moderno de la energía incluye un número de descubrimientos fundamentales: la masa y la energía son equivalente; los diferentes tipos de energía están relacionados por muchas transformaciones; durante esas transformaciones, la energía no se destruye (primer principio de la termodinámica) y esta conservación de la energía está inexorablemente acompañada por una pérdida de utilidad (segundo principio de la termodinámica).

El primer descubrimiento, descrito en una carta de Einstein a un amigo suyo como una “idea atrevida, divertida y atractiva”, se resume en su ecuación m = E/c2, que en su versión más famosa se escribe como E = mc2; la ecuación más conocida de la física.

El segundo descubrimiento se demuestra continuamente en miles de trasformaciones energéticas que se producen en el universo. La energía gravitatoria mantiene las galaxias en movimiento, a la Tierra girando alrededor del Sol y confinada la atmósfera que hace nuestro planeta habitable. La transformación de la energía nuclear en el interior del Sol produce el continuo flujo de energía electromagnética, llamada radiación solar. Una pequeña parte de esa energía llega al planeta Tierra que, a su vez, libera energía geotérmica. El calor producido en ambos procesos pone en movimiento la atmósfera, los océanos y las gigantescas placas tectónicas terrestres.

Una pequeña parte de la energía radiante del Sol se transforma, a través de la fotosíntesis, en reservas de energía química, que son utilizadas por muchas clases de bacterias y plantas. Los seres heterótrofos (organismos que van desde las bacterias, los protozoos y los hongos hasta los mamíferos), ingieren y reorganizan vegetales de las plantas en nuevos enlaces químicos y los utilizan para crear energía mecánica (cinética).

          Piscina de energía geotérmica en el Parque Nacional Yellowstone en Wyoming EE.UU.

¿Qué decir de la atmósfera de la Tierra?

La atmósfera terrestre (troposfera y estratosfera) es tan delgada que, dibujando el planeta con un diámetro de 10 cm, tendría un espesor de unos 0’4 milímetros, equivalente al grosor de una línea de lápiz. Sin embargo, esta delgada capa gaseosa posee una importancia crítica para mantener el balance energético de la Tierra.

El planeta es adecuado para el desarrollo de la vida debido a que su atmósfera el llamativamente diferente de la de sus vecinos más próximos. La atmósfera de Venus está compuesta en un 96 por ciento de CO2, con un 3’5 por ciento de nitrógeno y trazas de gases nobles. La atmósfera de Marte contiene un 95’3 por ciento de CO2, un 2’7 por ciento de nitrógeno, 1’6 por ciento de argón y también trazas de agua y O3. Una atmósfera parecida a la terrestre determinaría que en la superficie marciana la temperatura sería superior a los 200º C y la presión de unos pocos MPa. En tales condiciones no podría existir vida compleja basada en el carbono con tejidos húmedos.

Hay pocas dudas de que la primera atmósfera de la Tierra contuviera abundante CO2, pero no está claro si su posterior desaparición se debió exclusivamente a procesos geoquímicos inorgánicos (sobre todo a la pérdida de ácido carbónico), o si los primeros organismos fueron importantes en la posterior conversión de CO2 en sedimentos de CaCO3. Parece claro, por el contrario, que la fotosíntesis llevada a cabo inicialmente por bacterias fue la responsable de la transformación de la atmósfera sin oxígeno en el Arcaico.

La Biosfera se vio protegida contra la radiación ultravioleta que llegaba del espacio

El aumento de oxígeno comenzó a acelerarse hace unos 2.100 millones de años y el actual nivel del 20 por ciento se alcanzó hace unos 300 millones de años. El aumento del oxígeno troposférico permitió la formación de ozono estratosférico, que protegió la biosfera de la energética radiación UV de longitudes de onda inferiores a 295 nm. Sin esta protección no hubiera sido posible la evolución de plantas y animales más complejos, ya que si la radiación UV de frecuencias menores ya mata los gérmenes y quema la piel, la de frecuencias altas es letal para la mayoría de los organismos.

Las actividades humanas pueden modificar poco las proporciones de los constituyentes atmosféricos. La cantidad de nitrógeno que se utiliza para sintetizar amoniaco representa una fracción despreciable de las enormes reservas troposféricas y la desnitrificación finalmente recicle todo el gas. Incluso el consumo de todas las reservas conocidas de combustibles fósiles (un hecho imposible debido a los costos prohibitivos de la extracción de algunas de estas fuentes de energía, sumergidas en las fosas abisales a miles de kilómetros de profundidad) reduciría la concentración de O2 en menos de un 2 por ciento.

Las emisiones locales y regionales de aire contaminado contienen muchos gases, pero los riesgos de un cambio climático global sólo pueden venir de mayores emisiones de compuestos en trazas. Algunos de esos gases (sobre todo CO2, N2O y CH4), así como el vapor de agua, absorben fuertemente la radiación en el espectro IR. Consecuentemente, la radiación IR emitida por la superficie de la Tierra tiene longitudes de onda comprendidas en distintas ventanas intercaladas entre bandas de absorción.

Las bandas de absorción más importantes del vapor de agua están comprendidas entre 2’5 y 3 μm y entre 5 y 7 μm, mientras que el CO2 tiene dos picos estrechos en 2’5 y 4 μm, y una banda más ancha cerca de los 15 μm. Como la radiación terrestre está completamente incluida en el espectro IR, esta absorción tiene un gran efecto en el balance de la radiación de la Tierra.

Para mantener la biosfera habitable hacen falta solamente concentraciones muy pequeñas de gases de “efecto invernadero”. El CO2 representa actualmente sólo unos 360 ppm* (menos del 0’04%) de la atmósfera terrestre, y los demás gases en traza miden en ppb o ppt. Esta composición hace que la temperatura media en la superficie del planeta sea de unos 16º C, la cual, combinada con una presión superficial de 101 KPa, asegura que el agua permanezca líquida y que sea posible la fotosíntesis y el metabolismo heterótrofo. Hay que procurar (hablando coloquialmente) que Gaia no se enfade, ya que el aumento de las concentraciones de gases en traza elevaría gradualmente la temperatura media de la troposfera.

La conversión de bosques y praderas en campos de cultivo y la utilización de combustibles sólidos han hecho aumentar las emisiones de CO2, mientras que el creciente uso de fertilizantes nitrogenados, la cada vez más numerosa cabaña vacuna y el aumento del cultivo de arroz emiten cantidades adicionales de N2O y CH4. Los fluorforocarbonados, además de sus destructivos efectos sobre el ozono troposférico, son gases con efecto invernadero muy potentes. Debido a la acción combinada de los gases invernaderos antropogénicos, el flujo medio de calor absorbido ha aumentado en 2’5 W/m2 en grandes áreas del hemisferio norte, pero no estamos seguros de hasta dónde llegará esta tendencia ni de su velocidad. Lo mejor sería no confiarse; mi padre, hombre no cultivado, decía a menudo que “más vale un por si acaso que un yo creí”.

La atmósfera también interviene en el balance energético del planeta redistribuyendo el calor sensible y el calor latente del agua con los vientos y las lluvias, y de una manera completamente diferente pero más espectacular, con los rayos. La mayoría de esas descargas de elevadísima concentración de energía se originan en los cumulonimbos, y tienen una enorme potencia (duplicar el tamaño de la nube implica aumentar la potencia del rayo treinta veces). Un rayo normal descarga entre 20 y 50 MJ, la mayor parte de esa energía en 10 μs, produciendo la impresionante potencia de 1-10 GW. La luz visible emitida representa solamente el 0’2-2% de la energía disipada, invirtiéndose el resto en calentar la atmósfera a su alrededor y en la energía acústica del trueno. La observación de satélites indica que por término medio se producen unos cien mil relámpagos por segundo.

Sabemos que la atmósfera es la envoltura gaseosa que rodea a un cuerpo astronómico. Varios planetas (incluyendo la Tierra) poseen atmósferas considerables debido a su intensa gravedad. Los movimientos de los gases en las atmósferas planetarias en respuesta al calentamiento, junto con las fuerzas rotacionales, generan sistemas meteorológicos. Los satélites planetarios Titán y Tritón también poseen atmósferas.

3d hacer de la tierra y la atmósfera, proviene de todos los mapas http://www.visibleearth.nasa.gov Foto de archivo - 4501292

¡Nuestra casa! De cuyas maravillas y su relación con el Sol, sería interesante y muy instructivo saber

Creo que la atmósfera es quizá el término más vago para identificar una parte de un cuerpo celeste. Está referido a su envoltura superficial, generalmente de un planeta o estrella. Parece fácil decirlo, pero los gases no son como un líquido o un trozo de roca, en los que puede determinarse exactamente dónde está la superficie que los separa del entorno circundante de una manera precisa. Es imposible indicar el nivel exacto donde acaba la atmósfera y comienza el plasma interplanetario. De hecho, los gases apenas están sometidos a la fuerza de la gravedad; se “esfuman” hacia el espacio y abandonan continuamente el cuerpo celeste. En el caso de la Tierra, por estar cerca del Sol, determinar dónde termina la atmósfera terrestre y dónde empieza la solar es un problema al que sólo puede responderse teóricamente, que dicho sea de paso, permite licencias literarias que prohíben las matemáticas.

emilio silvera

Sobre el metabolismo de seres muy especiales.

Autor por Emilio Silvera    ~    Archivo Clasificado en Biologia    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

El metabolismo heterótrofo

Los seres autótrofos siguen dos vías diferentes para transformar la biomasa que ingieren en los compuestos complejos de los que se componen sus tejidos. Esta transformación puede ser mediante fermentación anaeróbica o a través de respiración aeróbica. La primera vía se restringe a las células procariotas  simples, como las fermentadoras, las bacterias metanogénicas y los hongos Ascomycota responsables de la fermentación del etanol (alcohol etílico). La segunda vía se hizo posible a partir del momento en que la cantidad de oxígeno atmosférico, generado por los vegetales, alcanzó un nivel suficientemente alto como para que algunos seres procariotes pudieran utilizar la respiración aeróbica para generar trifosfato de adenosina más eficientemente que por fermentación. Desde un punto de vista energético, la oxidación es claramente ventajosa. Así, por cada mol de glucosa se liberan 197 KJ por fermentación en ácido láctico, 232 KJ por fermentación alcohólica y 2’87 MJ por la oxidación completa, lo que representa para esta última una ganancia que está comprendida entre 12 y 14 veces.

Los nutrientes necesarios para el metabolismo de tipo heterótrofo proceden de la digestión de los tejidos vegetales o de otros heterótrofos. En el metabolismo heterótrofo hay notables regularidades orgánicas. Entre ellas destaca claramente el hecho de que al representar en un gráfico logarítmico la tasa metabólica basal (TMB), – metabolismo mínimo cuando el animal se encuentra en reposo absoluto – frente al peso, los resultados relativos a los animales comprendidos entre el ratón y el elefante se dispongan a lo largo de una línea recta.

metabolismo_basal_kleiber

Representación de Kleiber del metabolismo basal de los mamíferos desde el ratón al elefante.

Leer más

¿Existe el libre Albedrío?

Autor por Emilio Silvera    ~    Archivo Clasificado en La realidad humana ¿es realidad?    ~    Comentarios Comments (61)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

La libertad es una ficción cerebral

Estamos determinados, como el resto del Universo, por las leyes naturales

La libertad es una ficción cerebral, según confirman las últimas investigaciones sobre neurociencias. Estas investigaciones han determinado que la actividad cerebral previa a un movimiento, realizado por el sujeto en un tiempo por él elegido, es muy anterior (hasta 10 segundos) a la impresión subjetiva del propio sujeto de que va a realizar ese movimiento. Y aunque la falta de libertad es algo contraintuitivo, los experimentos indican que estamos determinados por las leyes de la Naturaleza. Por eso en Alemania algunos especialistas están reclamando la revisión del código penal para adecuarlo a los resultados de la neurociencia. Y aunque sigamos encarcelando a los que violen las leyes, cambiará la imagen que tenemos tanto de esos criminales como de nosotros mismos. Así nos lo cuenta D.Francisco J. Rubia.

http://elcandildelospensamientos.files.wordpress.com/2010/11/libre-albedrio-41.jpg

No pocas veces, nuestras mentes se ven abocadas a tener que retener, ese primer impulso, esa iniciativa de libertas, o, de libre albedrío. La complejidad en la que estamos inmersos nos prohibe, en la mayor parte de las ocasiones, poder desarrollar y poner en práctica ese libre albedrío que parece nos fue dado pero que, en realidad, es muy restringido.

La libertad, la voluntad libre o el libre albedrío es una ficción cerebral. Eso es el resultado de experimentos realizados recientemente en neurociencia que indican que la actividad cerebral previa a un movimiento, realizado por el sujeto en un tiempo por él elegido, es muy anterior (350 ms) a la impresión subjetiva del propio sujeto de que va a realizar ese movimiento (200 ms antes del movimiento). Esto quiere decir que la impresión subjetiva de la voluntad no es la causa del movimiento, sino que, junto con éste, es una de las consecuencias de una actividad cerebral que es inconsciente.

Los experimentos fueron realizados por Benjamín Libet en California hace más de 20 años; luego han sido confirmados sus resultados por un grupo de neurocientíficos en Inglaterra, y este mismo año, 2008, han vuelto a realizarse en Berlín con técnicas modernas de imagen cerebral, llegando a la conclusión que el cerebro se pone en marcha mucho antes que en los experimentos de Libet, a saber, que la actividad cerebral del lóbulo frontal tiene lugar hasta 10 segundos antes de la impresión subjetiva de voluntad.

Leer más

¡Fisica! Siempre la Física

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (5)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Las sustancias formadas por una sola clase de átomos se llaman elementos químicos. La palabra “átomo” procede del griego ατομος, que significa “indivisible” y el uso de la palabra “elemento” sugiere que se ha llegado a los ladrillos básicos con los que está formada la materia. De hecho, esta es la imagen que se tenía a mediados del siglo XIX cuando se acuñaron estos términos. Sin embargo, hoy sabemos que todo esto es falso, que los átomos se pueden dividir y que, de esta manera, los elementos han dejado de ser verdaderamente elementales. Los físicos continúan con esta nomenclatura aunque sea formalmente incorrecta, ya que, la costumbre, como dicen los juristas, no pocas veces rigen la jerga de las leyes.

671260397.jpg

                      Serán así los electrones, los que tomaron la imagen dicen que sí

A todo esto y hablando de los átomos, por fuerza, nos tenemos que acordar del electrón que da al átomo su forma esférica. Son partículas cargadas eléctricamente que se mueven alegremente alrededor del núcleo. El electrón es muy ligero: su masa es solamente 1/1.8836 de la del núcleo más ligero (el hidrógeno). La carga eléctrica del electrón es de signo opuesto a la del núcleo, de manera que los electrones están fuertemente atraídos hacia el núcleo y se repelen mutuamente. Si la carga eléctrica total de los electrones en un átomo iguala a la del núcleo, para lo que generalmente se necesitan varios electrones, se dice que el átomo está en equilibrio o que es eléctricamente neutro.

átomos ultrafríos

Un experimento realizado por científicos del Centro de Viena para la Ciencia y Tecnología Cuánticas ha demostrado que, en el mundo cuántico, la transición hacia el equilibrio térmico es más interesante y más complicada de lo que se pensaba.

Según destaca el trabajo, publicado en ‘Science’, entre un estado ordenado inicial y un estado final estadísticamente mixto, puede emerger un “cuasi-estacionario estado intermedio”. Este estado intermedio ya exhibe algunas propiedades como el equilibrio, pero parte de las características del estado inicial permanecen visibles durante un período de tiempo muy largo.

Este fenómeno se denomina “pre-termalización” y desempeña un papel importante en diversos procesos de no equilibrio en la física cuántica. Podría, por ejemplo, ayudarnos a comprender el estado del universo temprano.

http://webdelprofesor.ula.ve/ciencias/labdemfi/electrostatica/fotos/carga_globo_g.gif

La fuerza a la que obedecen los electrones, la denominada fuerza electrostática o de Coulomb, es matemáticamente bastante sencilla y, sin embargo, los electrones son los responsables de las importantes propiedades de los “enlaces químicos”. Esto se debe a que las leyes de movimiento de los electrones están regidas completamente por la “mecánica cuántica”, teoría que se completó a principios del siglo XX. Es una teoría paradójica y difícil de entender y explicar, pero al mismo tiempo es muy interesante, fantástica y revolucionaria. Cuando uno se introduce en las maravillas de la mecánica cuántica es como si hiciera un viaje a un universo que está situado fuera de este mundo nuestro, ya que, las cosas que allí se ven, desdicen todo lo que dicta nuestro sentido común de cómo tiene que ser el mundo que nos rodea.

http://www.mpe.mpg.de/410729/orbits3d_small_gif.gif

Sincronización perfecta, es una sinfonía

No solamente los electrones, sino también los núcleos atómicos y los átomos en su conjunto obedecen y se rigen por la mecánica cuántica. La Física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck, escribió un artículo de ocho páginas y allí propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menos intensidad, por los objetos más fríos.

Estaban bien aceptados entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si usamos las leyes de la termodinámica para calcular la intensidad de la radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano, y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para las longitudes mayores como para las longitudes menores. Esta longitud característica es inversamente proporcional a la temperatura absoluta del objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273 ºC bajo cero). Cuando a 1.000 ºC un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.

El espectro electromagnético se extiende desde la radiación de menor longitud de onda, como los rayos gamma y los rayos X, pasando por la luz ultravioleta, la luz visible y los rayos infrarrojos, hasta las ondas electromagnéticas de mayor longitud de onda, como son las ondas de radio. Se cree que el límite para la longitud de onda más pequeña posible es la longitud de Planck mientras que el límite máximo sería el tamaño del Universo.

Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de la onda y, por lo tanto, proporcional a la frecuencia de la radiación emitida. La sencilla fórmula es:

E = h x v

Donde E es la energía del paquete, v la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.

Poco tiempo después, en 1905, Einstein formuló esta teoría de una forma mucho más tajante: el sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos de los paquetes de energía de Planck. El príncipe francés Louis-Victor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene una energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta región del espacio, y que la frecuencia, v, de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilatorias de campos de fuerza.

Imagen ilustrativa de la dualidad onda-partícula, en el cual se puede ver cómo un mismo fenómeno puede tener dos percepciones distintas. Estas son las cosas que hacen de la mecánica cuántica un “mundo” extraño.

El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de De Broglie. Poco después, en 1926, Erwin Schrödinger descubrió como escribir la teoría ondulatoria de Debroglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños estaban exactamente determinados por la recién descubiertas “ecuaciones de onda cuánticas”.

Pocas dudas nos pueden caber a estas alturas de que la mecánica cuántica (de Planck) y, la Relatividad –tanto especial como general- (de Einstein), además de ser las dos teorías más importantes de la Física de nuestro tiempo, funcionan de tal forma que uno, cuando profundiza en sus predicciones y las compara con lo que ocurre en el Universo, no puede por menos que, asombrarse, al comprobar como unas mentes humanas han sido capaces de llegar a estos profundos pensamientos que nos acerca a la realidad de la Naturaleza, al mismo tiempo que nos aleja de nuestra propia realidad.

Sí, están ahí pero, en realidad, no sabemos, a ciencia cierta, ni cómo se formaron las galaxias

¿Qué encontraremos cuando sea posible verificar la Teoría de cuerdas? ¿Qué hay más allá de los Quarks? ¿Sabremos alguna vez lo que es una singularidad? ¿Será verdad la existencia de esa materia oscura de la que tanto se habla? ¿Podremos al fín, encontrar esa fuente de energía que tanto necesita la Humanidad para dar ese segundo paso hacia el futuro? ¿Tendremos, acaso, algún destino que no sea el de la irremisible extinción?

¡Preguntas! Preguntas y más preguntas que no podemos contestar. Es desesperante estar inmersos en este inmenso océano de ignorancia. ¿Cuándo sabremos? El el epitafio que Hilbert ordenó esculpir en su Tumba, nos lo prometía: “Tenemos que saber, sabremos”. Si, ¿pero cuándo?

Lo cierto es que, las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de ésta teoría en vez de las de la mecánica clásica.  En estadística cuantica, los estados de energía se considera que están cuantizados.  La estadística de Bose-Einstein se aplica si cualquier número de partículas puede ocupar un estado cuántico dado. Dichas partículas (como dije antes) son los bosones que, tienden a juntarse.

         Los bosones tienen un momento angular n h / 2p, donde n es cero o un entero y h es la constante de Planck.  Para bosones idénticos, la función de ondas es siempre simétrica.  Si solo una partícula puede ocupar un estado cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n+½) h/2p y cualquier función de ondas de fermiones idénticos es siempre antisimétrica.

http://farm5.static.flickr.com/4140/4745204958_afd02b2486.jpg

 

 

La mejor teoría para explicar el mundo subatómico nació en 1928 cuando el teórico Paul Dirac combinó la mecánica cuántica con la relatividad especial para explicar el comportamiento del electrón. El resultado fue la mecánica cuántica relativista, que se transformó en un ingrediente primario en la teoría cuántica de campos. Con unas pocas suposiciones y unos ajustes, la teoría cuántica de campos ha probado ser suficientemente poderosa para formar la base del modelo estándar de las partículas y las fuerzas que rigen el universo.

La relación entre el espín y la estadística de las partículas está demostrada por el teorema espín-estadística. En un espacio de dos dimensiones es posible que existan partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones.  Estas partículas se conocen con el nombre de aiones; para aniones idénticos la función de ondas no es simétrica (un cambio de fase de+1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1.  Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.

Debido al principio de exclusión de Pauli es imposible que dos fermiones ocupen el mismo estado cuántico (al contrario de lo que ocurre con los bosones). Y, precisamente por eso, se degeneran electrones y neutrones dando lugar a la formación de estrellas enanas blancas y de neutrones que, encuentran la estabilidad frenando la fuerza de gravedad.

La condensación de Bose-Einstein es de importancia fundamental para explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7k) se puede formar un condensado de Bose-Einstein, en el que varios miles de átomos forman una única entidad (un superátomo). Este efecto ha sido observado con átomos de rubidio y litio. Este efecto (condensación Bose-Einstein), como ya habréis podido suponer, es llamado así en honor al físico Satyendra Naht Bose (1.894-1.974) y de Albert Einstein.

condensado-bose-einstein

Más reciente es la obtención del Condensado de Bose-Einstein (BEC); en este caso las bases teóricas se postularon en la década de los 20 en manos de Satyendra Nath Bose y Albert Einstein. El primero describe ciertas reglas para determinar si dos fotones deberían considerarse idénticos o diferentes (Estadísticas de Bose) y Einstein aplica dichas reglas a los átomos intentando averiguar como se comportarían. Así, halla los efectos de que a muy bajas temperaturas los átomos están al mismo nivel cuántico produciendo fenómenos como la superfluidez o la superconductividad.

Distribución de momentos que confirma la existencia de un nuevo estado de agregación de la materia, el condensado de Bose-Einstein. Datos obtenidos en un gas de átomos de rubidio, la coloración indica la cantidad de átomos a cada velocidad, con el rojo indicando la menor y el blanco indicando la mayor. Las áreas blancas y celestes indican las menores velocidades. A la izquierda se observa el diagrama inmediato anterior al condensado de Bose-Einstein y al centro el inmediato posterior. A la derecha se observa el diagrama luego de cierta evaporación, con la sustancia cercana a un condensado de Bose-Einstein puro. El pico no es infinitamente angosto debido al Principio de indeterminación de Heisenberg: dado que los átomos están confinados en una región del espacio, su distribución de velocidades posee necesariamente un cierto ancho mínimo. La distribución de la izquierda es para T > Tc (sobre 400 nanokelvins (nK)), la central para T < Tc (sobre 200 nK) y la de la derecha para T << Tc (sobre 50 nK).

         Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.  Si nos fijamos en todo lo que estamos hablando aquí, nos daremos cuenta de que la mecánica cu´çantica es extraña y siendo fácil comprender como forma un campo magnético la partícula cargada que gira, no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado.

        Lo cierto es que ocurre así. La prueba directa más evidente de ello es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma forma que lo haría si el hierro no estuviese magnetizado.  El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalentes a cero, aunque por alguna razón desconocida, lograr crear un campo magnético cuando gira la partícula.

emilio silver

¡El Universo! ¿Sería eso lo que pasó?

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Se cree que cuando el universo se expandió y se enfrió a unos 3000 ºK, se volvió transparente a la radiación, que es la que observamos en la actualidad, mucho más fría y diluida, como radiación térmica de microondas. El descubrimiento del fondo de microondas en 1.956 puso fin a una larga batalla entre el Big Bang y su rival, la teoría del universo estacionario de Fred Hoyle y otros, que no podía explicar la forma de cuerpo negro del fondo de microondas. Es irónico que el término Big Bang tuviera inicialmente un sentido burlesco y fue acuñado por Hoyle, contrario a la teoría del universo inflacionario que se inventó el término “¡La Gran Explosión!” para burlarse de la teoría.

Según los datos con los que podemos contar se ha elaborado un trayecto que nos cuenta la historia del Universo ¿Será cierta?

Cronología del Big Bang

Era

Duración de

Temperatura

Era de Planck

 0 a 10-43 seg.

a 10-34 K

Era de radiación

 10-43  a 30.000 años

desde 10-34  a 104 K

Era de la materia  30.000 años al presente (13.500.000.000 años).

desde 104 a 3 K actual

Los expertos han diseñado un proceso para fijar más claramente los hechos se queriendo extender la explicación evolutiva del universo en las fases principales que son:  Eras en la Historia del Big Bang

De la Materia

Es la era que comenzó cuando el efecto gravitacional de la materia comenzó a dominar sobre el efecto de presión de radiación. Aunque la radiación es no masiva, tiene un efecto gravitacional que aumenta con la intensidad de la radiación. Es más, a altas energías, la propia materia se comporta como la radiación electromagnética, ya que se mueve a velocidades próximas a la de la luz. En las etapas muy antíguas del universo, el ritmo de expansión se encontraba dominado por el efecto gravitacional de la presión de radiación, pero a medida que el universo se enfrió, este efecto se hizo menos importante que el efecto gravitacional de la materia. Se piensa que la materia se volvió predominante a una temperatura de unos 104 K, aproximadamente 30.000 años a partir del Big Bang. Este hecho marcó el comienzo de la era de la materia.

De la Radiación

Periodo entre 10-43 s (la era de Planck) y 300.000 años después del Big Bang. Durante este periodo, la expansión del universo estaba dominada por los efectos de la radiación o de las partículas rápidas (a altas energías todas las partículas se comportan como la radiación). De hecho, la era leptónica y la era hadrónica son ambas subdivisiones de la era de radiación. La era de radiación fue seguida por la era de la materia que antes he reseñado, durante la cual los partículas lentas dominaron la expansión del universo.

Con nuestro conocimiento actual de física de partículas de altas energías, podemos hacer avanzar el reloj hacia atrás a través de la teoría leptónica y la era hadrónica hasta una millonésima de segundo después del Big Bang, cuando la temperatura era de 1013 K. Utilizando una teoría más especulativa, los cosmólogos han intentado llevar el modelo hasta 1035 s después de la singularidad, cuando la temperatura era de 1028 K. Esa infinitesimal escala de longitud es conocida como límite de Planck,  = 10-35 m, que en la ley de radiación de Planck, es distribuida la energía radiada por un cuerpo negro mediante pequeños paquetes deiscretos llamados cuantos, en vez de una emisión continua. A estas distancias, la Graverdad está ausente para dejar actuar a la mecánica cuántica.

La teoría del Big Bang es capaz de explicar la expansión del universo, la existencia de una radiación de fondo cósmica y la abundancia de núcleos ligeros como el helio, el helio-3, el deuterio y el litio-7, cuya formación se predice que ocurrió alrededor de un segundo después del Big Bang, cuando la temperatura reinante era de 1010 K.

                                       Abundancia de núcleos ligeros en el universo temprano

Era Hadrónica

Corto periodo de tiempo entre 10-6 s y 10-5 s después del Big Bang en el que se formaron las partículas atómicas pesadas, como protones, neutrones, piones y kaones entre otras. Antes del comienzo de la era hadrónica, los quarks se comportaban como partículas libres. El proceso por el que se formaron los quarks se denomina transición de fase quark-hadrón. Al final de la era hadrónica, todas las demás especies hadrónicas habían decaído o se habían desintegrado, dejando sólo protones o neutrones. Inmediatamente después de esto el universo entró en la era leptónica.

Era Leptónica

Intervalo que comenzó unos 10-5 s después del Big Bang, en el que diversos tipos de leptones eran la principal contribución a la densidad del universo. Se crearon pares de leptones y antileptones en gran número en el universo primitivo, pero a medida que el universo se enfrió, la mayor parte de las especies leptónicas fueron aniquiladas. La era leptónica se entremezcla con la hadrónica y ambas, como ya dije antes, son subdivisiones de la era de la radiación. El final de la era leptónica se considera normalmente que ocurrió cuando se aniquilaron la mayor parte de los pares electrón-positrón, a una temperatura de 5×109 K, más o menos un segundo después del Big Bang. Después, los leptones se unieron a los hadrónes para formar átomos.

 

Así creemos que se formó nuestro universo, a partir de una “singularidad” que explotó expandiendo toda la densidad y energía a unas temperaturas terroríficas, y a partir de ese mismo instante conocido como Big Bang, nacieron, como hermanos gemelos, el tiempo y el espacio junto con la materia que finalmente desembocó en lo que ahora conocemos como universo.

El universo es el conjunto de todo lo que existe, incluyendo el espacio, el tiempo y la materia.  El estudio del universo se conoce como cosmología. Los cosmólogos distinguen al Universo con “U” mayúscula, significando el cosmos y su contenido, y el universo con “u” minúscula, que es normalmente un modelo matemático deducido de alguna teoría física como por ejemplo, el universo de Friedmann o el universo de Einstein–de Sitter. El universo real está constituido en su mayoría de espacios que aparentemente están vacíos, existiendo materia concentrada en galaxias formadas por estrellas, planetas, gases y otros objetos cosmológicos.

De los estudios y observaciones realizadas ahora sabemos que, el universo se está expandiendo, de manera que el espacio entre las galaxias está aumentando gradualmente, provocando un desplazamiento al rojo cosmológico en la luz procedente de los objetos distantes.

Un Universo cada vez más grande y más frío, dado que la expansión sigue y la materia se dispersa

Los astrónomos opinan que el 90 por 100 de los átomos de universo son hidrógeno, el 9 por 100 helio y el 1 por 100 elementos más complejos.  Una muestra de 100 gramos, o mejor 100 átomos, consistiría entonces en 90 átomos de hidrógeno, 9 de helio y 1 de oxígeno (por ejemplo). Los núcleos de los átomos de hidrógeno contendrían 1 nucleón cada uno: 1 protón. Los núcleos de los átomos de helio contendrían 4 nucleones cada uno: 2 protones y 2 neutrones. El núcleo del átomo de oxígeno contendría 16 nucleones: 8 protones y 8 neutrones. Los 100 átomos juntos contendrían, por tanto, 145 nucleones: 116 protones y 26 neutrones.

Existe una diferencia entre estos dos tipos de nucleones. El neutrón no tiene carga eléctrica y no es preciso considerar ninguna partícula que lo acompañe. Pero el protón tiene una carga eléctrica positiva, y como el universo es, según creemos, eléctricamente neutro en su conjunto, tiene que existir un electrón (con carga eléctrica negativa) por cada protón, creando así el equilibrio existente.

El Universo, en su conjunto, resulta neutro al estar las fuerzas compensadas y anularse las unas a las otras, es decir, en el núcleo de un átomo están los protones con carga positiva y para que el átomo alcance su estabilidad, el núcleo está orbitado por tantos electrones como protones allí existen y, de esa manera, nuestro mundo, el Universo en su conjunto es como lo podemos ver y, también, es posible nuestra presencia aquí gracias a ese equilibrio de dos fuerzas contrapuestas que se igualan para que todo eso ocurra.

De las demás partículas, las únicas que existen en cantidades importantes en el universo son los fotones, los neutrinos y posiblemente los gravitones, pero son partículas sin masa. Lo cierto es que nadie sabe dar una explicación consistente del origen de la materia y a partir de qué semilla pudo surgir. Sí, sabemos de esas partículas que la forman pero… ¿No habrá algo más que desconocemos?

Isaac Asimov decía que por su parte,

La respuesta podía estar en la existencia de “energía negativa” que igualara la “energía positiva” ordinaria, pero con la particularidad de que cantidades iguales de ambos se unirían para dar nada como resultado” (es decir, que +1 y -1 sumados dan 0).”

Claro que también,  lo que antes era nada podría cambiar de pronto y convertirse en una pompa de “energía positiva” y otra pompa igual de “energía negativa”. De ser así, la pompa de energía positiva se convirtió en el universo que conocemos, mientras que en alguna otra parte, existiría el universo contrario, paralelo negativo.

El universo, en sus comienzos, produjo enormes cantidades de partículas de materia y de antimateria, y el número de una y otra no era igual sino que, no se sabe por qué razón, las partículas positivas eran más que las negativas. Todos sabemos que un protón, cuando se encuentra con un antiprotón (materia con antimateria) ambos se destruyen. Una vez destruidos todos los pares materia antimateria, quedó el sobrante de partículas positivas que es la materia de nuestro universo.

De esa manera se formaron, con esas partículas positivas y los electrones negativos (hadrones y leptones), grandes conglomerados de gas y polvo que giraban lentamente, fragmentándose en vórtices turbulentos que se condensaban finalmente en estrellas. Estos conglomerados de gas y polvo podían tener extensiones de años luz de diámetro y, en algunas regiones donde la formación de estrellas fue muy activa, casi todo el polvo y el gas fue a parar a una estrella u otra. Poco o nada fue lo que quedo en los espacios intermedios. Esto es cierto para los cúmulos globulares, las galaxias elípticas y el núcleo central de las galaxias espirales.

Camile Flammarion.jpg

En ese inmenso cúmulo de estrellas está presente una, la estrella π, de la que nos hablaba Camilo Flammarion que imaginó como una gran flota de naves se dirigía hacia aquella lejana estrella, y, se hacía la pregunta: ¿Llegaremos allí algún día? Los que hemos tenido la suerte de leer algunas de sus obras, recordamos algunas como:

La pluralidad de los mundos habitados.
Mundos imaginarios y reales los mundos.
Historias del infinito.

Está claro que hemos podido acceder a muchos conocimientos que no hace mucho tiempo eran impensables pero, las teorías de Einstein y Planck, deben ser sobrepasadas y debemos ir mucho más lejos, allí donde residen esas respuestas que hasta el momento nadie ha sabido dar y que responderán a preguntas que fueron posibles formular, gracias a Einstein y Planck, ya que, sin los conocimientos que ellos nos hicieron llegar, no podríamos intuir que hay muchas cosas que están más allá de sus postulados.

Como a otros muchos antes que yo, me gusta imaginar otros mundos que podrían ser y, si somos capaces de imaginarlos… ¡En alguna parte estarán! De la misma manera, los científicos deben dar rienda suelta a su imaginación y, apoyados en la ciencia que ya nos es familiar, dar un paso más hacia adelante y llegar, a esos otros postulados, a esas nuevas teorías que, haciendo viejas las anteriores, nos lleven hacia el futuro conociendo, ahora sí, un universo real y sin fantasías que, como la del Big Bang, nos tenga inmersos en una gran mentira.

emilio silvera