Feb
8
Semilleros de estrellas: Las Nebulosas.
por Emilio Silvera ~
Clasificado en Nebulosas y estrellas ~
Comments (0)

Esta bonita imagen de arriba es de NGSC 7129
Aunque ya en épocas en que se confundían con las galaxias los astrónomos griegos anotaron en sus catálogos la existencia de algunas nebulosas, las primeras ordenaciones exhaustivas se realizaron a finales del siglo XVIII, de la mano del francés Charles Messier y del británico William F. Herschel.
En el siglo XX, el perfeccionamiento de las técnicas de observación y la utilización de dispositivos de detección e ondas de radio y rayos X de procedencia no terrestre completaron un detallado cuadro de Nebulosas, claramente diferenciadas en origen y características de las galaxias y los cúmulos de estrellas, lo que hizo posible estudiar sus propiedades de forma sistemática.
En la Tabla de Objetos Messier, existen clasificadas muchas de ellas, y, entre las más conocidas podríamos citar a las siguientes:
-Nebulosa del Cangrejo en Tauro
-Nebulosa de la Laguna en Sagitario
-Nebulosa Trífida en Sagitario
-Nebulosa de Dumbell en Vulpécula
-La Gran Nebulosa de Orión en Orión
-Nebulosa Brillante en Orión
-Nebulosa brillante “del anillo” en Lira
-Nebulosa planetaria “del Búho” en Osa Mayor
-Nebulosa de Orión, M42
-Nebulosa de la Cabeza de Caballo
-Nebulosa Norteamericana en la Constelación del Cisne. Enclavada justo en el centro de la constelación del Cisne, muy cerca de la brillante estrella Deneb, se encuentra la Nebulosa de Norteamérica (NGC 7000).
Las Nebulosas Moleculares Gigantes se encuentran mayoritariamente en los Brazos Espirales de las galaxias de disco, y son el lugar de mayor nacimioento de estrellas… sistemas planetarios y… ¿Por qué no decirlo? posibles mundos con las condiciones necesarias para el surgir de la vida.
Existen casi 4 000 nubes de este tipo sólo en nuestra Galaxia, y cada una tiene una masa que oscila entre 100 000 y 200 000 masas solares. El Hidrógeno y el Helio presentes en las Nebulosas existen desde el principio del Universo. Los elementos más pesados, como el Carbono, Oxígeno, Nitrógeno y Azufre, de más reciente formación, proceden de transmutaciones estelares que tienen lugar en el interior de las estrellas (lo explicamos en los primeros trabajos presentados con motivo de esta conmemoración del Año Internacional de la Astronomía 2009).
Y, como sería interminable el reseñar aquí todas la Nebulosas existentes en el cielo, sólo nos limitamos a dejar una reseña de varias de ellas de entre un inmenso número de variadas Nebulosas que pueblan el Universo.
Lo que es ineludible por ser el objetivo principal de divulgar el conocimiento de la Astronomía, al tratar sobre Nebulosas, es explicar lo que una Nebulosa es, y, las clases o variedades más importantes que de ellas existen, así que, sin más preámbulo pasamos a exponer lo que son estos objetos del cielo.
NEBULOSAS
Se llama Nebulosa a una nube de gas y polvo situada en el espacio. El término se aplicaba originalmente a cualquier objeto con apariencia telescópica borrosa, pero con en advenimiento de instrumentos más potentes Tecnológicamente hablando, se descubrió que muchas nebulosas estaban en realidad formadas por estrellas débiles. En 1864, W. Huggins descubrió que las verdaderas nebulosas podían distinguirse de aquellas compuestas de estrellas analizando sus espectros.
En la actualidad, en término Nebulosa significa nebulosa gaseosa. El término nebulosa extragaláctica, utilizado originalmente para describir galaxias es ahora obsoleto. Existen tres tipos principales de nebulosas gaseosas:
- Las Nebulosas de emisión, que brillan con luz propia.
- Las Nebulosas de reflexión, que reflejan la luz de fuentes brillantes próximas como estrellas.
- Las nebulosas oscuras (o nebulosas de absorción), que aparecen oscuras frente a un fondo más brillante.
Este amplio esquema de clasificación ha sido extendido sobre todas las longitudes de onda, dando lugar a términos como nebulosas de reflexión infrarroja. Las nebulosas de emisión incluyen a las nebulosas difusas o regiones H II situadas alrededor de las estrellas jóvenes, las nebulosas planetarias que se hallan alrededor de las estrellas viejas y los remanentes de supernovas.
NEBULOSA BIPOLAR
Nube de gas con dos lóbulos principales que están situados simétricamente a cada lado de una estrella central. Esta forma bipolar se debe a la eyección de material por la estrella en direcciones opuestas. En algunos casos el material que fluye escapa a lo largo del eje de rotación de un denso disco de material que rodea a la estrella, y que la puede oscurecer completamente en longitudes de onda óptica.
Las Nebulosas bipolares pueden ser producidas por el flujo de materia procedente de estrellas muy jóvenes o muy viejas.
NEBULOSA BRILLANTE
Nube luminosa de gas y polvo interestelar. El término incluye a las nebulosas de emisión, en las que el gas brilla con luz propia; y las nebulosas de reflexión en las que el gas y el polvo reflejan la luz de las estrellas cercanas.
NEBULOSAS DE ABSORCIÓN – NEBULOSA OSCURA
Ahí, en el centro, podemos contemplar la oscuridad de la Nebulosa “Saco de Carbón”
Nube de gas y polvo interestelar que absorbe la luz que incide sobre ella desde detrás, de manera que parece negra frente a un fondo más brillante. La luz absorbida calienta las partículas de polvo, las cuales rerradian parte de esa energía en forma de radiación infrarroja. Parte de la luz del fondo no es absorbida, sino que es difundida o redirigida. La Nebulosa de la Cabeza del Caballo en Orión es una famosa nebulosa oscura; otro ejemplo es el Saco de Carbón, cerca de Cruz que oculta parte de la Vía Láctea.
NEBULOSA DE EMISIÓN
Nube luminosa de Gas y polvo en el espacio que brilla con luz propia. La luz puede ser generada de varias maneras. Usualmente el gas brilla porque está expuesto a una fuente de radiación ultravioleta; algunos ejemplos son las regiones H II y las Nebulosas planetarias, que son ionizadas por estrellas centrales.
El gas también puede brillar porque se ionizó en una colisión violenta con otra nube de gas, como en los objetos Herbig-Haro. Finalmente, parte de la luz de los remanentes de supernovas como la Nebulosa del Cangrejo está producida por el proceso de radiación sincrotón, en el que las partículas cargadas se mueven en espiral alrededor de un campo magnético Interestelar.
NEBULOSA NORTEAMÉRICA
Nebulosa difusa en Cygnus, también conocida como NGC 7000, con forma parecida al continente norteamericano. Sus dimensiones son de 2º x ½º y se encuentra a 1 500 a.l., similar a la distancia de la brillante estrella Deneb. Sin embargo, la estrella que lo ilumina se cree que no es Deneb, sino una caliente estrella azul de magnitud 6 situada dentro de la nebulosa HR 8023. Cerca de la Nebulosa Norteamericana se encuentra la Nebulosa del Pelícano, tratándose en realidad de parte de la misma enorme nube que se extiende 100 años-luz.
NEBULOSA DE REFLEXIÓN
La Nebulosa de reflexión Merope
Al igual que las otras, es una nube de gas y polvo interestelar que brilla porque refleja o difunde la luz estelar. La luz procedente de una nebulosa de reflexión tiene las mismas líneas espectrales que la luz estelar que refleja, aunque es normalmente más azul y puede estar polarizada. Las nebulosas de reflexión aparecen a menudo junto a las nebulosas de emisión en las regiones de formación estelar reciente. El Cúmulo de las Pléyades está rodeado por una nebulosa de reflexión.
NEBULOSA DIFUSA
Otra nube de gas y polo interestelar que brilla debido al efecto sobre ella de la radiación ultravioleta procedentes de las estrellas cercanas. En la actualidad se recomienda el uso del término Región H II para referirse a este tipo de nebulosas.
El calificativo de “difuso” data de la época en la que las nebulosas eran clasificadas de acuerdo a su apariencia en el óptico. Una nebulosa difusa era una que mantenía su aspecto borroso incluso cuando se observaba aumentada a través de un gran telescopio, en contraposición a aquellas que podían ser resueltas en estrellas.
NEBULOSA FILAMENTARIA
Grupo de nubes de gas y polvo alargadas con una estructura en forma de finos hilos vista desde la Tierra. Muchas estructuras filamentarias pueden realmente ser hojas vistas de perfil, en vez de hilos. Las nebulosas filamentarias más conocidas como la Nebulosa del Velo, son remanentes de supernova. Aunque estos remanentes tienen temperaturas de 10 000 K, son en realidad las partes más frías del remanente, pudiendo alcanzar otras partes de ella temperaturas superiores a 1.000.000 K.
NEBULOSAS PLANETARIAS
Brillante nube de gas y polvo luminoso que rodea a una estrella altamente evolucionada. Una nebulosa planetaria se forma cuando una gigante roja eyecta sus capas exteriores a velocidades de unos 10 km/s. El gas eyectado es entonces ionizado por la luz ultravioleta procedente del núcleo caliente de la estrella.
A medida que pierde materia este núcleo queda progresivamente expuesto, convirtiéndose finalmente en una enana blanca (lo que pasará con nuestro Sol). Las nebulosas planetarias tienen típicamente 0,5 a.l. de diámetro, y la cantidad de material eyectado es de 0,1 masas solares o algo más.
Debido a la altísima temperatura del núcleo, el gas de la nebulosa está muy ionizado. La Nebulosa Planetaria dura unos 100.000 años, tiempo durante el cual una fracción apreciable de la masa de la estrella es devuelta al espacio interestelar.
Las nebulosas planetarias se llaman así porque a los antiguos observadores les recordaba un disco planetario. De hecho, las formas detalladas de las nebulosas planetarias reveladas por los modernos telescopios cubren muchos tipos diferentes, incluyendo las que tienen forma de anillos (como la Nebulosa Anular), forma de pesas, o irregular.
Algunas nebulosas planetarias presentan ansae, unas pequeñas extensiones a cada lado de la estrella central, que se piensa que son producidas por eyección a alta velocidad de material de un flujo bipolar.
NEBULOSA PROTOPLANETARIA
Descripcion: Una nebulosa planetaria en proceso de hacer una proto-planetaria: una estrella moribunda (oculta entre el polvo y el gas, al centro de la …
- Etapa temprana en la formación de una nebulosa planetaria. En esta fase la estrella central ha expulsado sus capas exteriores, dejando al caliente núcleo estelar expuesto. La luz ultravioleta del núcleo comienza a ionizar la nube de gas y polvo circundante, y durante una breve fase la envoltura circunestelar contiene a la vez material ionizado y material molecular frío lejos de la misma.
- Nube a partir de la cual se formaron los planetas alrededor de una estrella recién nacida, como ocurrió en la nebulosa solar.
NEBULOSA SOLAR
NGC 604, una nebulosa de emisión en la constelación del triángulo captada por el Hubble en 1995. Llamada Nebulosa solar porque de una como ellla surgió nuestro Sistema solar.
Nube de gas y polvo a partir de la cual se formó el Sistema Solar hace unos 5 000 millones de años. Se piensa que la nube tenía forma de disco achatado y que fue dispersada por el viento T. Tauri del joven Sol.
Los cometas, asteroides y meteoritos aportan importantes pistas para conocer la composición de la nebulosa solar. Discos similares de gas y polvo han sido detectados alrededor de estrellas jóvenes cercanas, notablemente Beta Pictoris.
Estimamos debidamente cumplido el objetivo de enseñar aquí de manera sencilla, lo que son las Nebulosas y, si algunos de los lectores (aunque sean pocos), han aprendido algo sobre ellas, el objetivo está cumplido y nos damos por pagados, ya que, el Año Internacional de la Astronomía 2009, tiene ese sólo objetivo. Acercar la Astronomía a todos.
emilio silvera
Feb
8
La maravilla de… ¡los cuantos!
por Emilio Silvera ~
Clasificado en Física Cuántica ~
Comments (3)
La Física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menos intensidad, por los objetos más fríos. Planck escribió un artículo de ocho páginas y el resultado fue que cambió el mundo de la física y aquella páginas fueron la semilla de la futura ¡mecánica cuántica! que, algunos años más tardes, desarrollarían físicos como Einstein (Efecto fotoeléctrico), Heisenberg (Principio de Incertidumbre), Feynman, Bhor, Schrödinger, Dirac…
Figura animada que representa un rayo de luz incidiendo sobre un cuerpo negro hasta su total absorción. l nombre cuerpo negro fue introducido por Gustav Kirchhoff en 1862 y su idea deriva de la siguiente observación: toda la materia emite radiación electromagnética cuando se encuentra a una temperatura por encima del cero absoluto. La radiación electromagnética emitida por un cuerpo a una temperatura dada es un proceso espontáneo y procede de una conversión de su energía térmica en energía electromagnética. También sucede a la inversa, toda la materia absorbe radiación electromagnética de su entorno en función de su temperatura.
La expresión radiación se refiere a la emisión continua de energía de la superficie de todos los cuerpos. Los portadores de esta energía son las ondas electromagnéticas producidas por las vibraciones de las partículas cargadas que forman parte de los átomos y moléculas de la materia. La radiación electromagnética que se produce a causa del movimiento térmico de los átomos y moléculas de la sustancia se denomina radiación térmica o de temperatura.
Ley de Planck para cuerpos a diferentes temperaturas.
Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía.
Pero si usamos las leyes de la termodinámica para calcular la intensidad de la radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano, y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico o una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para longitudes menores. Esta longitud característica es inversamente proporcional a la temperatura absoluta del objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273 ºC bajo cero). Cuando a 1.000 ºC un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de la luz visible.
Acero al “rojo vivo”, el objeto está radiando en la zona de la luz visible.
Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda y, por lo tanto, proporcional a la frecuencia de la radiación emitida. La sencilla fórmula es:
E = hv
Donde E es la energía del paquete, v es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.
Ni que decir tiene que, desde entonces, la fórmula ha sido mejorada y, como siempre pasa, los avances que son imparables van modificando las teorías originales para perfeccionarlas y que se ajusten mucho más a la realidad que la Naturaleza nos muestra cuando somos capaces de descubrir sus secretos.
Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: el sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck.
El príncipe francés Louis Victor de Broglie, dándole otra vuelta a la teoría, que no sólo cualquier cosa que oscila tiene una energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta dirección del espacio, y que la frecuencia, v, de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilatorias de campos de fuerza.
En mecánica cuántica, el comportamiento de un electrón en un átomo se describe por un orbital, que es una distribución de probabilidad más que una órbita. El electrón (e−), es una partícula subatómica con una carga eléctrica elemental negativa.Un electrón no tiene componentes o subestructura conocidos, en otras palabras, generalmente se define como una partícula elemetal.
En la Teoría de cuerdas se dice que un electrón se encuentra formado por una subestructura (cuerdas). Tiene una masa que es aproximadamente 1836 veces menor con respecto a la del protón. El miomento angular (espín) intrínseco del electrón es un valor semientero en unidades de ħ, lo que significa que es un fermión. Su antipartícula es denominada positrón: es idéntica excepto por el hecho de que tiene cargas —entre ellas, la eléctrica— de signo opuesto. Cuando un electrón colisiona con un positrón, las dos partículas pueden resultar totalmente aniquiladas y producir fotones y rayos gamma.
los leptones
Los electrones, que pertenecen a la primera generación de la familia de partículas de los leptones y participan en las interacciones fundamentales, tales como la Gravedad, el electromagnetismo y la fuerza nuclear débil. Como toda la materia, posee propiedades mecánico cuánticas tanto de partículas como de onmdas, de tal manera que pueden colisionar con otras partículas y pueden ser difractadas como la luz. Esta dualidad se demuestra de una mejor manera en experimentos con electrones a causa de su ínfima masa. Como los electrones son fermiones, dos de ellos no pueden ocupar el mismo estado cuántico, según el Principio de exclusión de Pauli. Por este motivo se forman las estrellas enanas blancas y de neutrones al final de la vida de las estrellas de poca masa.
Es curioso el comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de De Broglie. Poco después, en 1926, Edwin Schrödinger descubrió como escribir la teoría ondulatoria de De Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar los cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de onda cuántica”.
No hay duda de que la Mecánica Cuántica funciona maravillosamente bien. Sin embargo, surge una pregunta muy formal: ¿qué significan realmente esas ecuaciones?, ¿qué es lo que están describiendo? Cuando Isaac Newton, allá por el año 1687, formuló cómo debían moverse los planetas alrededor del Sol, estaba claro para todo el mundo lo que significaban sus ecuaciones: que los planetas están siempre en una posición bien definida en el espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades con el tiempo.
Pero para los electrones todo esto es muy diferente. Su comportamiento parece estar envuelto en la bruma. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?
Niels Bohr consiguió responder a esta pregunta de forma tal que con su explicación se pudo seguir trabajando y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la “interpretación de Copenhague” de la Mecánica Cuántica. En vez de decir que el electrón se encuentra en el punto x o en el punto y, nosotros hablamos del estado del electrón. Ahora no tenemos el estado “x” o el estado “y”, sino estados “parcialmente x” o “parcialmente y. Un único electrón puede encontrarse, por lo tanto, en varios lugares simultáneamente. Precisamente lo que nos dice la Mecánica Cuántica es como cambia el estado del electrón según transcurre el tiempo.
Un “detector” es un aparato con el cual se puede determinar si una partícula está o no presente en algún lugar pero, si una partícula se encuentra con el detector su estado se verá perturbado, de manera que sólo podemos utilizarlo si no queremos estudiar la evolución posterior del estado de la partícula. Si conocemos cuál es el estado, podemos calcular la probabilidad de que el detector registre la partícula en el punto x.
Las leyes de la Mecánica Cuántica se han formulado con mucha precisión. Sabemos exactamente como calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas simultáneamente. Por ejemplo, podemos determinar la velocidad de una partícula con mucha exactitud, pero entonces no sabremos exactamente dónde se encuentra; o, a la inversa. Si una partícula tiene “espín” (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.
No es fácil explicar con sencillez de dónde viene esta incertidumbre, pero hay ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar.
¿Onda o partícula? ¡Ambas a la vez! ¿Cómo es eso?
Para que las reglas de la Mecánica Cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuanto más grande y más pesado es un objeto más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica.
Me gustaría referirme a esta exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por “holismo”, y que se podría definir como “el todo es más que la suma de las partes”.
Bien, si la Física nos ha enseñado algo, es justamente lo contrario: un objeto compuesto de un gran número de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (las partículas): basta que uno sepa sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que yo entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes.
Por ejemplo, la constante de Planck, h = 6,626075…x 10 exp. -34 julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal. Así, los extraterrestres del cuarto planeta a partir de la estrella SIL, cuando descubran esa constante, el resultado sería exactamente el mismo que le dio a Plancl, es decir, el Universo, funciona igual en todas partes.
Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los trucos ingeniosos descubiertos por Werner Heisenberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros tales como Edwin Schrödinger, siempre presentaron serias objeciones a esta interpretación.
Quizá funcione bien, pero ¿dónde está exactamente el electrón, en el punto x o en el punto y? Em pocas palabras, ¿dónde está en realidad?, ¿cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.
Hasta hoy, muchos investigadores coinciden con la actitud pragmática de Bohr. Los libros de historia dicen que Bohr demostró que Einstein estaba equivocado. Pero no son pocos, incluyéndome a mí, los que sospechamos que a largo plazo el punto de vista de Einstein volverá: que falta algo en la interpretación de Copenhague. Las objeciones originales de Einstein pueden superarse, pero aún surgen problemas cuando uno trata de formular la mecánica cuántica para todo el Universo (donde las medidas no se pueden repetir) y cuando se trata de reconciliar las leyes de la mecánica cuántica con las de la Gravitación… ¡Infinitos!
La mecánica cuántica y sus secretos han dado lugar a grandes controversias, y la cantidad de disparates que ha sugerido es tan grande que los físicos serios ni siquiera sabrían por donde empezar a refutarlos. Algunos dicen que “la vida sobre la Tierra comenzó con un salto cuántico”, que el “libre albedrío” y la “conciencia” se deben a la mecánica cuántica: incluso fenómenos paranormales han sido descritos como efectos mecanocuánticos.
Yo sospecho que todo esto es un intento de atribuir fenómenos “ininteligibles” a causas también “ininteligibles” (como la mecánica cuántica) dónde el resultado de cualquier cálculo es siempre una probabilidad, nunca una certeza.
Claro que, ahí están esas teorías más avanzadas y modernas que vienen abriendo los nuevos caminos de la Física y que, a mi no me cabe la menor duda, más tarde o más temprano, podrá explicar con claridad esas zonas de oscuridad que ahora tienen algunas teorías y que Einstein señalaba con acierto.
¿No es curioso que, cuando se formula la moderna Teoría M, surjan, como por encanto, las ecuaciones de Einstein de la Relatividad General? ¿Por qué están ahí? ¿Quiere eso decir que la Teoría de Einstein y la Mecánica Cuántica podrán al fin unirse en pacifico matrimonio sin que aparezcan los dichosos infinitos?
Bueno, eso será el origen de otro comentario que también, cualquier día de estos, dejaré aquí para todos ustedes.
emilio silvera
Feb
7
¿Los Derechos Humanos?¿Qué es eso?
por Emilio Silvera ~
Clasificado en malos tiempos ~
Comments (0)
Lo que hace entretenida la existencia es que todos los seres humanos somos diferentes. Cada uno es un producto único en el Universo. Sin embargo, hay algo que no acaba de tranquilizarme y tampoco, puedo vivir con ello: El peso que supone el saber que, siendo todos humanos, respirando todos el mismo oxígeno de la atmósfera terrestre, naciendo y muriendo de la misma manera… ¿Por qué esas diferencias? Cuando a un ser humano se le priva de la posibilidad de poder desarrollar un trabajo con el que mantenerse y mantener a su familia… ¡Lo estamos humillando y le quitamos su dignidad!
La marginación debe ser prohibida y, desde niños, todos deben tener esa posibilidad de ser educados en una enseñanza que le haga conocer el mundo en el que vive, el Universo que le acoge y, sobre todo, prepararse para el futuro escogiendo la profesión que mejor le venga a sus capacidades.
¡Abolida la marginación!
En la Declaración Universal de los Derechos Humanos, en su preámbulo, podemos leer:
Considerando que la libertad, la justicia y la paz en el mundo tienen por base el reconocimiento de la dignidad intrínseca y de los derechos iguales e inalienables de todos los miembros de la familia humana;
Considerando que el desconocimiento y el menosprecio de los derechos humanos han originado actos de barbarie ultrajantes para la conciencia de la humanidad, y que se ha proclamado, como la aspiración más elevada del hombre, el advenimiento de un mundo en que los seres humanos, liberados del temor y de la miseria, disfruten de la libertad de palabra y de la libertad de creencias;
Considerando esencial que los derechos humanos sean protegidos por un régimen de Derecho, a fin de que el hombre no se vea compelido al supremo recurso de la rebelión contra la tiranía y la opresión;
Considerando también esencial promover el desarrollo de relaciones amistosas entre las naciones;
Considerando que los pueblos de las Naciones Unidas han reafirmado en la Carta su fe en los derechos fundamentales del hombre, en la dignidad y el valor de la persona humana y en la igualdad de derechos de hombres y mujeres, y se han declarado resueltos a promover el progreso social y a elevar el nivel de vida dentro de un concepto más amplio de la libertad;
Considerando que los Estados Miembros se han comprometido a asegurar, en cooperación con la Organización de las Naciones Unidas, el respeto universal y efectivo a los derechos y libertades fundamentales del hombre, y
Considerando que una concepción común de estos derechos y libertades es de la mayor importancia para el pleno cumplimiento de dicho compromiso;
La Declaración Universal de los Derechos Humanos fue aprobada y proclamada por la Asamblea General de las Naciones Unidas el 10 de diciembre de 1948.
La Asamblea General proclama la presente Declaración Universal de Derechos Humanos como ideal común por el que todos los pueblos y naciones deben esforzarse, a fin de que tanto los individuos como las instituciones, inspirándose constantemente en ella, promuevan, mediante la enseñanza y la educación, el respeto a estos derechos y libertades, y aseguren, por medidas progresivas de carácter nacional e internacional, su reconocimiento y aplicación universales y efectivos, tanto entre los pueblos de los Estados Miembros como entre los de los territorios colocados bajo su jurisdicción.
Los pueblos indígenas deMichoacán: Olvidados por la leyes, relegados por los Gobiernos y la Sociedad.
Las altas tasas de analfabetismo que sufren los pueblos indígenas de Michoacán significan una barrera para que estos se integren al resto de la sociedad, y los condena al desempleo, al rechazo y a la falta de oportunidades en todos los sentidos. Son incapaces de crear proyectos comunitarios que desarrollen su modo actual de vida y son ignorados desde los gobiernos.
Entre las localidades escondidas de la sierra de Michoacán se encuentran seres humanos que piensan y sienten, así como tú y como yo, sin embargo la modernidad y los cambios culturales ni respetan sus costumbres ni atienden sus necesidades y ponen el remedio necesario para que, de manera autónoma puedan desarrollar sus culturas y vivir de manera digna.
Artículo Primero de los Derechos Humanos:
Todos los seres humanos nacen libres e iguales en dignidad y derechos y, dotados como están de razón y conciencia, deben comportarse fraternalmente los unos con los otros.
Sin embargo, esos bonitos deseos se quedan en papel mojado, no se cumplen los buenos deseos que ahí se pregonan y, desde luego, estamos muy lejos de sentir el dolor ajeno como propio. No hemos sido capaces de llegar a ser conscientes de que todos… ¡Somos uno! Y, mientras eso no suceda, no habremos ganado el derecho de llamarnos HUMANOS.
No podemos escudarnos tras la falsa muralla de… ¡Es que son así, sus costumbres… No quieren integrarse! Cuando lo cierto es que, son marginmados del mundo que, olvidados de las regiones más ricas, pasan la vida de manera miserable, con tantas carencias que relacionarlas aquí sería un arduo trabajo. La insensibilidad que mostramos hacia ciertos escenarios… ¡Nos debería avergonzar!
La pobreza y la desprotección social, en elagunas regiones del mundo, llegan a ser verdaderamente insoportables para la mayor parte de la población que, sin recurso, van pasando la vida a base de la mísera limosna que le quieran conceder los Gobiernos de turno, mientras sus dirigentes, amasan grandes fortunas en el extranjero para su retiro, sin sentir el menor remordimiento por el gran daño causado a tantas personas.
Escenas como esta me parten el corazón, y siento mucha verguenza, ninguna explñicación se puede encontrar para permitir tales escenas en Pleno Siglo XXI. Si todos los Gobiernos del mundo dejaran sólo un 5% de sus presupuestos para paliar la miseria en el mundo… ¡Otra cosa muy distinta sería! Sin embargo, esos tantos por cientos se aprueban para fabricas de armas y otros menesteres que, bien poco contribuyen a la Paz Social.
En este mundo que nada tiene que ver con el que hemos reflejado antes, los grandes Bancos pregonan, a biombo y platillo, sus grandes ganancias de miles de millones, mientras que, los usuarios se ven bombardeados a cargos inexplicables, tienen hipotecas con cláusulas suelo que rozan la linea roja que marca la Ley, o hacen negocios de miles de millones en una compra-venta para poder repartir beneficios a los que ya tienen mucho, y, todo eso, a costa de los que nada tienen. Y, me pregunto Yo, ¿no podrían destinar una parte de esos beneficios a paliar el hambre y la enfermedad en algunas partes del mundo?
La “Santa” Iglesia de Roma, tiene buenas palabras para todos pero, lo que se dice hacer… ¡Hace más bien poco por los pobres del mundo! Los Obispos están bastante rechonchos y, desde sus seguros y cómodos sillones, reparten bendiciones que, de ninguna manera, pueden paliar el hambre ni quitan la enfermedad, mientras que sus cuantiosos tesoros están bien a resguardo por todo el mundo.
No podemos negar la gran labor que hacen los verdaderos creyentes cristianos que, no pocas veces, han dado y siguen dando sus vidas por atender al desvalido. También algunas Organizaciones cristianas, hacen una gran labor por el desamparado. Claro que, la cabeza visible de la Iglesia, lo que ofrece son palabras y pocas obras.
Unos tienen mucho (demasiado), mientras que otros, nada tienen. ¿Dónde está la Justicia en eso?
Artículo 2 de los Derechos Humanpos:
- Toda persona tiene todos los derechos y libertades proclamados en esta Declaración, sin distinción alguna de raza, color, sexo, idioma, religión, opinión política o de cualquier otra índole, origen nacional o social, posición económica, nacimiento o cualquier otra condición.
.- Además, no se hará distinción alguna fundada en la condición política, jurídica o internacional del país o territorio de cuya jurisdicción dependa una persona, tanto si se trata de un país independiente, como de un territorio bajo administración fiduciaria, no autónomo o sometido a cualquier otra limitación de soberanía.
¡Si todo eso pudiera ser verdad!
En España, en 1812 se aprobó una Constitución, y, años más tarde, con la llegada de la Democracia, se aprobó la de 1978. Aquello fue una alegría y todo era jolgorio y buenas caras en el Pueblo llano, por fín, las cosas serían de otra manera. Todos tendríamos una parte en el reparto general y todos, sin excepción, serían excluidos de situaciones indignas y humillantes.
Prometía la Constitución, que todos seríamos iguales ante la Ley, que teníamos derecho a un trabajo y una vivienda digna, nos hablaba de Seguridad Jurídica y también, de que todos contribuirían a los gastos generales del Estado en razón de su poder. Esto sería una Nación sin regiones separatistas, los Jueces tendrían autonomía, y, los políticos, se dedicarían a dar al Pueblo un Servicio honrado y exento de corrupción.
¿En qué quedó todo aquello?
Lo peor del caso es que, al rebujo de todos estos acontecimientos, han aparecido unos nuevos personajes que vienen a aprovecharse del disgusto general y prometen (con palabras vacías de contenido) todo aquello que los necesitados y desesperados quieren oir. Seguramente, conseguirán parte de lo que andan buscando y, la ignorancia y la desesperación, les encumbraran para que ellos también, puedan, como los demás, recibir privilegios que, de ninguna manera merecen. A estas alturas, y no han hecho más que llegar, han llenado de mierda (perdonen la expresión), la vida pública que, sin ellos, ya estaba muy bien servida.
Habría que disolver las cortes y nombrar una gran Asamblea del Pueblo para que, nombren a los políticos que dirijan nuestros destinos pero, la única condición sería que éstos, sólo tuvieran un sueldo que les permitiera vivir de manera digna. Los gastos serían de cuenta del Estado pero, no tendrían ninguna prebenda más y, desde luego, —¡De aforados nada! ¿Qué puñetas es eso del aforamiento para librarlos de la cárcel?
Siento verguenza al ver lo que está pasando y como algunos se sienten al margen de la Ley e inmunes por muchos delitos que nhayan podido realizar y siguen haciendo. Con Menteiras que nadie se cree, inventando fortunas heredadas que nunca existieron y con una cara dura imponente, siguen teniendo miles de millones de euros repartidos por todos los bancos del mundo tras haber estado recibiendo dinero ilícito de una generalizada corrupción a cambiuo de favores políticos. ¿Cómo puede ser posible una cosa así?
Otros muchos ejemplos, tanto aquí en España con en otros paises, nos hablan de lo que no puede ser pero que, sin embargo, es el crudo presente. Mientras tanto, los que tendrían que poner coto a todos estos desmanes, miran para otro lado y silban, sin querer enterarse de nada, mientras aque a otros verdaderos trabajadores empresarios, lo acechan y acorralan para sacarle hasta el último céntimo y, en algunos casos, arruinarlos.
Si no despertamos… ¡Todo esto se irá al garete!
emilio silvera
Feb
7
Las escalas del Universo no son Humanas
por Emilio Silvera ~
Clasificado en General ~
Comments (0)

A nuestro alrededor pasan muchas cosas a las que no prestamos atención
Inmersos en los problemas cotidianos prestamos poca atención a lo que pasa a nuestro alrededor, en la Naturaleza y, sólo cuando son fenómenos muy llamativos, inusuales, o, que nos ponen en peligro, ponemos nuestros cinco sentidos en el acontecimiento. Muchas más cosas habríamos evitado y habríamos descubierto si por una sola vez hubiésemos estado más atentos, en lugar de estar pendientes de nosotros mismos, lo hubiéramos hecho con respecto a la Naturaleza que, en definitiva, es la que nos enseña el camino a seguir.
La edad actual del universo visible ≈ 1060 tiempos de Planck
Tamaño actual del Universo visible ≈ 1060 longitudes de Planck
La masa actual del Universo visible ≈ 1060 masas de Planck
Vemos así que la bajísima densidad de materia en el universo es un reflejo del hecho de que:
Densidad actual del universo visible ≈10-120 de la densidad de Planck
Y la temperatura del espacio, a 3 grados sobre el cero absoluto es, por tanto
Temperatura actual del Universo visible ≈ 10-30 de la T. de Planck
Estos números extraordinariamente grandes y estas fracciones extraordinariamente pequeñas nos muestran inmediatamente que el universo está estructurado en una escala sobrehumana de proporciones asombrosas cuando la sopesamos en los balances de su propia construcción.
Con respecto a sus propios patrones, el universo es viejo. El tiempo de vida natural de un mundo gobernado por la gravedad, la relatividad y la mecánica cuántica es el fugaz breve tiempo de Planck. Parece que es mucho más viejo de lo que debería ser.
Pero, pese a la enorme edad del universo en “tics” de Tiempo de Planck, hemos aprendido que casi todo este tiempo es necesario para producir estrellas y los elementos químicos que traen la vida.
¿Por qué nuestro universo no es mucho más viejo de lo que parece ser? Es fácil entender por qué el universo no es mucho más joven. Las estrellas tardan mucho tiempo en formarse y producir elementos más pesados que son las que requiere la complejidad biológica. Pero los universos viejos también tienen sus problemas. Conforme para el tiempo en el universo el proceso de formación de estrellas se frena. Todo el gas y el polvo cósmico que constituyen las materias primas de las estrellas habrían sido procesados por las estrellas y lanzados al espacio intergaláctico donde no pueden enfriarse y fundirse en nuevas estrellas.
Pocas estrellas hacen que, a su vez, también sean pocos los sistemas solares y los planetas. Los planetas que se forman son menos activos que los que se formaron antes, la entropía va debilitando la energía del sistema para realizar trabajo. La producción de elementos radiactivos en las estrellas disminuirá, y los que se formen tendrán semividas más largas. Los nuevos planetas serán menos activos geológicamente y carecerán de muchos de los movimientos internos que impulsan el vulcanismo, la deriva continental y la elevación de las montañas en el planeta. Si esto también hace menos probable la presencia de un campo magnético en un planeta, entonces será muy poco probable que la vida evolucione hasta formas complejas.
Las estrellas típicas como el Sol, emiten desde su superficie un viento de partículas cargadas eléctricamente que barre las atmósferas de los planetas en órbitas a su alrededor y, a menos que el viento pueda ser desviado por un campo magnético, los posibles habitantes de ese planeta lo podrían tener complicado soportando tal lluvia de radiactividad. En nuestro sistema solar el campo magnético de la Tierra ha protegido su atmósfera del viento solar, pero Marte, que no está protegido por ningún campo magnético, perdió su atmósfera hace tiempo.
La vida (creo), estará presente en muchos mundos que, al igual que la Tierra, ofrece las condiciones adecuadas
Probablemente no es fácil mantener una larga vida en un planeta del Sistema solar. Poco a poco hemos llegado a apreciar cuán precaria es. Dejando a un lado los intentos que siguen realizando los seres vivos de extinguirse a sí mismos, agotar los recursos naturales, propagar infecciones letales y venenos mortales y emponzoñar la atmósfera, también existen serias amenazas exteriores.
Los movimientos de cometas y asteroides, a pesar de tener la defensa de Júpiter, son una seria y cierta amenaza para el desarrollo y persistencia de vida inteligente en las primeras etapas. Los impactos no han sido infrecuentes en el pasado lejano de la Tierra, habiendo tenido efectos catastróficos. Somos afortunados al tener la protección de la Luna y de la enorme masa de Júpiter que atrae hacia sí los cuerpos que llegan desde el exterior desviándolos de su probable trayectoria hacia nuestro planeta.
La caída en el planeta de uno de estos enormes pedruscos podría producir extinciones globales y retrasar en millones de años la evolución que tantos miles de millones de años le costó al Universo para poder plasmarla en una realidad que llamamos vida.
El secreto reside en el tiempo biológico necesario para desarrollar la vida y el tiempo necesario para desarrollar estrellas de segunda generación y siguientes que en novas y supernovas cristalicen los materiales complejos necesarios para la vida, tales como el hidrógeno, nitrógeno, oxígeno, carbono, etc.
Parece que la similitud en los “tiempos” no es una simple coincidencia. El argumento, en su forma más simple, lo introdujo Brandon Carter y lo desarrolló John D. Barrow por un lado y por Frank Tipler por otro. Al menos, en el primer sistema solar habitado observado, ¡el nuestro!, parece que sí hay alguna relación entre t(bio) y t(estrella) que son aproximadamente iguales; el t(bio) – tiempo biológico para la aparición de la vida – algo más extenso.
Una atmósfera planetaria adecuada dará la opción de que evolucione la vida y se creen sociedades
La evolución de una atmósfera planetaria que sustente la vida requiere una fase inicial durante la cual el oxígeno es liberado por la fotodisociación de vapor de agua. En la Tierra esto necesitó 2.400 millones de años y llevó el oxígeno atmosférico a aproximadamente una milésima de su valor actual. Cabría esperar que la longitud de esta fase fuera inversamente proporcional a la intensidad de la radiación en el intervalo de longitudes de onda del orden de 1000-2000 ángstroms, donde están los niveles moleculares clave para la absorción de agua.
Este simple modelo indica la ruta que vincula las escalas del tiempo bioquímico de evolución de la vida y la del tiempo astrofísico que determina el tiempo requerido para crear un ambiente sustentado por una estrella estable que consume hidrógeno en la secuencia principal y envía luz y calor a los planetas del Sistema Solar que ella misma forma como objeto principal.
A muchos les cuesta trabajo admitir la presencia de vida en el universo como algo natural y corriente, ellos abogan por la inevitabilidad de un universo grande y frío en el que es difícil la aparición de la vida, y en el supuesto de que ésta aparezca, será muy parecida a la nuestra.
“Las historias de ciencia ficción en las cuales se sugiere la existencia de seres vivos construidos de silicio en vez del carbono han proliferado desde hace varias décadas, por ejemplo, en los argumentos de muchas películas y series de TV. La idea no es nueva, pues esta se originó en 1891 (¡!), cuando Julio Sheiner escribió sobre la posibilidad de vida extraterrestre fundada en el Silicio.” Biól. Nasif Nahle
Los biólogos, sin embargo, parecen admitir sin problemas la posibilidad de otras formas de vida, pero no están tan seguros de que sea probable que se desarrollen espontáneamente, sin un empujón de formas de vida basadas en el carbono. La mayoría de las estimaciones de la probabilidad de que haya inteligencias extraterrestres en el universo se centran en formas de vida similares a nosotros que habiten en planetas parecidos a la Tierra y que necesiten agua y oxígeno o similar con una atmósfera gaseosa y las demás condiciones de la distancia entre el planeta y su estrella, la radiación recibida, etc. En este punto, parece lógico recordar que antes de 1.957 se descubrió la coincidencia entre los valores de las constantes de la Naturaleza que tienen importantes consecuencias para la posible existencia de carbono y oxígeno, y con ello para la vida en el universo.
emilio silvera
Feb
6
La verdadera Historia de la Teoría del Caos
por Emilio Silvera ~
Clasificado en Caos y Complejidad ~
Comments (3)
Quizás sea la mejor muestra de complejidad que existe en el Universo
“Es la peor noticia posible para aquellos que esperan avances importantes en la cumbre climática que se celebró en Copenhague. Uno de los científicos más destacados de la teoría del cambio climático, Phil Jones, se veía obligado a presentar su dimisión temporal como director de la Unidad de Investigación Climática de la Universidad de East Anglia, en Norwich, Inglaterra, tras ser acusado de manipular datos sobre los efectos del cambio climático para exagerar su impacto.”
¿Qué iría buscando con tal comportamiento? Cuando se hacen cosas así, dichos comportamientos están aconsejados por intereses particulares que no siempre se pueden confesar. No está bien manipular datos para que el gran público tenga una idea iquivocada de la verdadera situación de las cosas.
¿Os acordáis de aquella vez que Mark Twain tuvo que decir:
“Las noticias sobre mi muerte han sido exageradas”.
Bueno, pues hasta ahí llegan para vender.
Los Medios de Comunicación, no siempre son fieles “comunicadores” y, para realzar las noticias, las expresan con un grado extra de exaltación, o, licencia poética que, distorsiona la realidad de lo que realmente deberían comunicar, y, no pocas veces, tal hecho se debe a que (sobre todo en noticias relativas a cuestiones científicas) no se elige a la persona debidamente preparada y adecuada a la noticia que se quiere ofrecer al público. Si la noticia se ha dado de manera equívoca, el científico redactor debe enmendar lo que se dijo con miras a llamar la atención o conseguir alguna subvención.
“Desde la década de los 80 el Síndrome de Inmunodeficiencia Humana (SIDA) se ha considerado una de las peores enfermedades de nuestra época, para la que, según se creía hasta hace poco, parecía no existir cura.
Desde hace bien poco tiempo, sin embargo, se han dado a conocer ciertos hallazgos que podrían acabar por fin con este mal. Primero fue el caso de un niño en Estados Unidos a quien por el tratamiento médico recibido fue posible erradicar todo rastro posiblemente peligroso de VIH con el que había nacido. Después el Instituto Pasteur de París anunció que 14 adultos habían logrado controlar la acción del virus.”
Así, de manera comedida y reflejando la realidad es como deben darse siempre las noticias sin levantar espectativas falsas en uno u otro sentido.
Betelgeuse que es una supergigante roja, sólo tiene 20 veces la masa del Sol y su tamaño 600 veces mayor
Escribo esto a partir de un artículo leído en la prensa diaria que, tratando de hablar de exóticos objetos que existen en el Universo, llegan a hablarnos de estrellas masivas con 600 veces la masa del Sol, y, tal barbaridad, nos lleva a pensar que, para hacer un reportaje o comentario de estos temas, los diferentes medios, deberían acudir a personas versadas en lo que están tratando, y, de esa manera, además de quedar mucho mejor, evitarían el ridículo de publicar las cosas alejadas de la realidad. La masa máxima que se considera para una estrella viene a ser de 120 masas solares, ya que, cuando su masa es mayor, la propia radiación la destruye. Pueden existir algunas estrellas que sobrepasen ese límite de las 120 masas solares pero, están continuamente eyectando material al espacio para descongestionarse y no explotar.
Eta Carinae es una estrella que posiblemente pueda tener más de 120 masas solares pero, como podéis contemplar en la imagen, está envuelta en una Nebulosa que ella misma ha generado al estar, continuamente eyectando material al espacio y evitar así su propia muerte.
Buscando en mi documentación, un buen ejemplo de lo que digo, por suerte, me encuentro con un artículo escrito por Don Carlos Miguel Madrid Casado del Departamento de Lógica y Filosofía de la Ciencia en la Facultad de Filosofía de la Universidad Complutense de Madrid, dónde nos deja un claro ejemplo de lo que no debiera ser. Aquí os lo dejo.
“Edward Lorenz (1917-2008): ¿Padre de la Teoría del Caos?
El miércoles de 16 de abril de 2008, a los 90 años de edad, moría Edward Norton Lorenz. Los periódicos de medio mundo pronto se hicieron eco de la noticia. Todos los obituarios recogieron que había muerto “el Padre de la Teoría del Caos”. Lorenz, escribían, fue el primero en reconocer el comportamiento caótico de ciertos sistemas dinámicos, como el atmosférico. El estudio de este comportamiento altamente inestable y errático le condujo, continuaban, a formular una de las principales características de lo que hoy se llama “caos determinista”: la dependencia sensible a las condiciones iniciales, popularmente conocida como “efecto mariposa”. Lorenz, concluían, fue el artífice de la tercera revolución científica del siglo XX, después de la Teoría de la Relatividad y la Mecánica Cuántica.
Una de la mayores carácterísticas de un Sistema inestable es que tiene una gran dependencia de las condiciones iniciales. De un sistema del que se conocen sus ecuaciones características, y con unas condiciones iniciales fijas, se puede conocer exactamente su evolución en el tiempo. Pero en el caso de los sistemas caóticos, una mínima diferencia en esas condiciones hace que el sistema evolucione de manera totalmente distinta e impredecible.
Las condiciones iniciales de un sistema implican que las condiciones finales sean tal como, de manera inevitable serán. Es decir, su condición inicial nos dice cuál será su condición final. Desde su nacimiento nos está diciendo como será su “muerte”.
De todo sistema del que se conocen sus ecuaciones características, y con unas condiciones iniciales fijas, se puede conocer exactamente su evolución en el tiempo. Pero en el caso de los sistemas caóticos, una mínima diferencia en esas condiciones hace que el sistema evolucione de manera totalmente distint
Pero, veamos, ¿ha sido realmente Edward Lorenz el “creador” de la Teoría del Caos? ¿O acaso su papel de estrella protagonista se debe más bien a una inusitada alianza entre mérito y fortuna? El propósito de esta nota es ofrecer una panorámica de la Historia de la Teoría del Caos que complique su nacimiento y enriquezca su evolución, sacando a la luz la figura de ciertos científicos que el gran talento de Lorenz ha ensombrecido y ocultado.Comenzamos nuestra panorámica retrocediendo hasta los tiempos de la Revolución Científica. El intento por comprender las trayectorias planetarias observadas por Kepler condujo a Newton a modelarlas matemáticamente, siguiendo la estela de Galileo. Newton formuló sus leyes de una forma matemática que relacionaba entre sí las magnitudes físicas y sus ritmos de cambio. Las leyes físicas quedaron expresadas como ecuaciones diferenciales. Estudiar un fenómeno físico y hallar las ecuaciones diferenciales que las gobernaban eran las dos caras de la misma moneda.
Desde el siglo XVII, toda la naturaleza –sólidos, fluidos, sonido, calor, luz, electricidad- fue modelada mediante ecuaciones diferenciales. Ahora bien, una cosa era dar con las ecuaciones del fenómeno en cuestión y otra, bien distinta, resolverlas. La teoría de las ecuaciones diferenciales lineales fue desarrollada por completo en poco tiempo. No así la teoría gemela, la teoría de las ecuaciones diferenciales no lineales.
Uno de los problemas no lineales que trajo de cabeza a físicos y matemáticos fue el problema de los n cuerpos de la Mecánica Celeste: dados n cuerpos de distintas masas bajo atracción gravitacional mutua, se trataba de determinar el movimiento de cada uno de ellos en el espacio. Newton resolvió geométricamente el problema de los dos cuerpos en los Principia. Posteriormente, Bernoulli y Euler lo resolvieron analíticamente con todo detalle. Sin embargo, no ocurrió así con el problema de los tres cuerpos. Newton sabia que, cuando un tercer cuerpo entraba en escena, el problema no era fácilmente resoluble, y que esto traía serias consecuencias para la cuestión de la estabilidad del Sistema Solar (que, a fin de cuentas, en la época, pasaba por ser un sistema de siete cuerpos). Aunque débiles en comparación con la fuerza de atracción del Sol, las fuerzas gravitatorias entre los planetas no eran ni mucho menos despreciables, por cuanto a la larga podían desviar algún planeta de su órbita e incluso, en el límite, expulsarlo fuera del Sistema Solar.
El matemático suizo Leonhard Euler
Las fuerzas interplanetarias podían estropear las bellas elipses keplerianas, sin que fuera posible predecir el comportamiento del Sistema Solar en un futuro lejano. En Motu corporum in gyrum, Newton afirmaba que los planetas no se mueven exactamente en elipses ni recorren dos veces la misma órbita, y reconocía que definir estos movimientos para todo futuro excedía con mucho la fuerza entera del intelecto humano. Si el Sistema Solar se iba desajustando, era necesaria una solución drástica: la Mano de Dios tenía que reconducir cada planeta a su elipse, reestableciendo la armonía. Este Deus ex machina newtoniano provocó, como es bien sabido, la ira de Leibniz, para quien Dios no podía ser un relojero tan torpe.
Tiempo después, Laplace creyó explicar las anomalías orbitales que preocuparon a Newton como meras perturbaciones que sólo dependían de la Ley de Gravitación y tendían a compensarse en el transcurso del tiempo. Así, al presentar su Mecánica Celeste a Napoleón, exclamó que Dios no era una hipótesis necesaria en su sistema del mundo. Sin embargo, en sus ecuaciones del sistema Sol-Júpiter-Saturno (problema de los tres cuerpos), Laplace despreció un término matemático que creía muy pequeño pero que, en contra de lo por él supuesto, podía crecer rápidamente y sin límite, hasta desestabilizar el Sistema Solar.
Muchos físicos y matemáticos decimonónicos dedicaron sus esfuerzos a dar una respuesta completa al problema de los tres cuerpos y a la cuestión de la estabilidad del Sistema Solar. Entre ellos, uno de los personajes clave en la configuración de la Teoría del Caos: Henri Poincaré.
Henri Poincaré
En 1855, los matemáticos europeos tuvieron noticia de que un importante concurso internacional iba a ser convocado bajo el auspicio de Oscar II, rey de Suecia y Noruega, para celebrar su sesenta aniversario en el trono. Se ofrecía un sustancioso premio al matemático capaz de resolver el problema de los tres cuerpos y, de este modo, avanzar en el estudio de la estabilidad del Sistema Solar. Alentado por la competencia, Poincaré procedió a sintetizar muchas de sus ideas acerca del estudio cualitativo o topológico de las ecuaciones diferenciales no lineales. El Jurado declaró ganador a Poincaré por una compleja resolución del problema restringido de los tres cuerpos, en que un planeta ligero se mueve bajo la atracción gravitatoria de dos estrellas iguales que giran una alrededor de la otra describiendo dos elipses confinadas en un mismo plano. Sin embargo, el artículo de Poincaré contenía un error y una tirada completa de la prestigiosa revista Acta Mathemática hubo de ser destruida.
A toda prisa, Poincaré revisó su trabajo y descubrió que, en verdad, no podía probarse la estabilidad del sistema, porque su dinámica no seguía pauta regular alguna. Su revisión del problema contiene una de las primeras descripciones del comportamiento caótico en un sistema dinámico. Poincaré fue, desde luego, el abuelo de la Teoría del Caos. Además, a partir de entonces, Poincaré contribuyó como pocos, a popularizar la idea de que existen sistemas deterministas cuya predicción a largo plazo resulta imposible. En Ciencia y Método, escribía: “Puede suceder que pequeñas diferencias en las condiciones iniciales produzcan algunas muy grandes en los estados finales. Un pequeño error al inicio engendrará un enorme error al final. La predicción se vuelve imposible”.
Otros también trataron el tema y profundizaron en los secretos de la Naturaleza
¡Caramba! Medio siglo antes que Lorenz, Poincaré se había topado con… ¡el efecto mariposa! Aún más: el genial matemático francés señaló que el tiempo meteorológico hacía gala de esta clase de inestabilidad y apuntó qué dificultades se derivarían para la predicción meteorológica. En su labor divulgadora no estuvo solo: su compatriota Pierre Duhem difundió las investigaciones de Poincaré y, también, de Jacques Hadamard, quien fue pionero en demostrar matemáticamente que, para cierto sistema dinámico hoy conocido como el Billar de Hadamard, un pequeño cambio en las condiciones iniciales provoca un notable cambio en la posterior evolución del sistema.
Durante el primer cuarto del siglo XX, la influencia de Poincaré no desapareció y se dejó notar en los trabajos de George David Birkhoff a propósito de las características cualitativas y topológicas de los sistemas dinámicos. Tampoco puede olvidarse el papel de Stephen Smale, que ganaría la Medalla Fields –el Premio Nobel de los matemáticos- en 1966 por sus contribuciones a la Teoría de los Sistemas Dinámicos. Mediado el siglo XX, este topólogo continuó la senda trazada por Poincaré t Birkhoff, y descubrió la Herradura de Smale, que pasa por ser el mecanismo topológico que da lugar al caos (efecto mezcla).
George David Birkhoff
Simultáneamente, cruzando el telón de acero, existía otra fértil tradición: la Escuela Rusa. En la U. R. S. S., los físicos y matemáticos habían heredado de Alexander Liapunov sus influyentes nociones acerca de la estabilidad del movimiento de los sistemas dinámicos. Si Poincaré se había ocupado de la teoría de la estabilidad desde una perspectiva cualitativa, Liapunov lo hizo cuantitativamente (exponentes de Liapunov). Recogiendo el testigo de ambos, Kolmogorov y Arnold se concentraron en el estudio de la estabilidad de los sistemas dinámicos de la Dinámica Celeste. Durante la guerra fría, los principales resultados de los matemáticos soviéticos fueron traducidos al inglés y dados a conocer al resto de matemáticos, europeos y norteamericanos, gracias al providencial trabajo de Solomon Lefschetz.
Y en éstas, apareció Lorenz… En 1963, este matemático y meteorólogo, antiguo alumno de Birkhoff en Harvard, estaba trabajando en el pronóstico del tiempo en el MIT. Estudiando la convección en la atmósfera, Lorenz planteó un modelo matemático formado por tres ecuaciones diferenciales ordinarias para describir el movimiento de un fluido bajo la acción de un gradiente térmico. Mientras buscaba soluciones numéricas con la ayuda de una computadora, se encontró –al volver de tomar una taza de café- con que se producía un dramático comportamiento inestable, caótico. Lorenz se había topado por casualidad con el fenómeno de la sensibilidad a las condiciones iniciales, que hacía de su sistema algo en la práctica impredecible. En efecto, tras establecer las propiedades básicas del flujo, Lorenz reparó en que una pequeña variación en las condiciones iniciales ocasionaba estados finales completamente diferentes. Lorenz había descubierto, tomando prestada la indeleble metáfora que forjaría más tarde, el efecto mariposa: el aleteo de una mariposa en Brasil puede ocasionar un tornado en Texas. Ahora bien, sería el matemático norteamericano Guckenheimer el que, allá por los años 70, acuñara la expresión “dependencia sensible a las condiciones iniciales”.
Lorenz publicó su hallazgo en una revista de meteorología, en un artículo titulado Deterministic Nonperiodic Flow, en que citaba expresamente a Poincaré y Birkhoff (aunque desconocía las ideas del primero sobre predicciones meteorológicas), pero que pasó prácticamente desapercibido. Sólo Stephen Smale y James Jorke –el introductor del término caos en la literatura científica- reconocieron las repercusiones filosóficas de la investigación de Lorenz y la dieron a conocer. Si Edward Lorenz ofreció a la comunidad científica el paradigma de sistema dinámico caótico continuo, el zoólogo Robert May dio a conocer en su artículo Simple Mathematical Models with Complicated Dynamics el paradigma del sistema dinámico caótico discreto: la aplicación logística.
A finales de los 70 y principios de los 80, la exploración de aplicaciones de la Teoría del Caos comenzó a dar sus frutos más allá de las simulaciones en las pantallas de ordenador. Entre los fenómenos físicos estudiados destaca, sin duda, la transición a la turbulencia en los fluidos, cuyo estudio contaba con el precedente que suponía el artículo On the nature of turbulence de David Ruelle y Floris Takens, quiénes introdujeron la noción de atractor extraño. Paralelamente, el físico Mitchell Feigenbaum descubrió heurísticamente ciertas constantes universales que caracterizan la transición del movimiento periódico al movimiento caótico, dando inicio a una de las ramas más prometedoras de la Teoría del Caos a día de hoy: la Teoría de la Bifurcación.
En resumidas cuentas, a comienzos del siglo XXI, la Teoría del Caos se nos aparece como la ciencia fisicomatemática que estudia el comportamiento aperiódico e inestable en sistemas deterministas no lineales. Mientras que la revolución relativista fue, prácticamente, fruto de un único hombre (Albert Einstein), y la revolución cuántica lo fue de apenas un puñado (Planck, Bhor, Heisenberg, Schrödinger, Dirac), la revolución del caos determinista es, en cambio, obra de múltiples. La Teoría del Caos es hija tanto de matemáticos (Poincaré, Hadamard, Birkhoff, Smale, Yorke…) como de físicos, biólogos y otros tantos científicos de campos dispares (Lorenz, May, Feigenbaum…). Atribuir su paternidad únicamente a un hombre, aun cuando sea Lorenz, es una simplificación excesiva. Lorenz fue, por así decirlo uno de los muchos padres.”
Hasta aquí el artículo que el Señor Madrid Casado escribió y fue publicado en el número 3 del volumen 22 de la Revista Española de Física en 2008. (salvo algunas imágenes y apuntes propios, en esencia, el artículo es del Señor Madrid Casado).
El trabajo está bien y nos introduce en la historia de la Teoría del Caos desde sus raíces, y, lo único en lo que podemos disentir del autor es, en el hecho cierto de que, Einstein, autor de la relatividad, también se apoyó en muchos (Mach, Maxwell, Lorentz, -en la primera parte, y, sobre todo en Riemann, en la segunda), aunque eso no le quita ni una pizca del mérito que tiene como científico que supo aunar muchos conocimientos dispersos, unirlos en una sola entidad y hacer ver al mundo lo que allí había. Y, por otra parte, al hablar de la Mecánica Cuántica, excluye a Einstein que, en verdad (aunque la combatió) fue uno de sus padres en aquellos primeros momentos, su trabajo sobre el Efecto Fotoeléctrico (que le dio el Nobel de Física) así lo demuestra. Por otra parte, no habría estado de más y de pasada, comentar que Poincaré fue el autor de la “Conjetura” que lleva su nombre y que ha estado ahí 100 años sin que nadie la resolviera hasta que llegó, un matemático extraño, llamado Perelman (ruso) que sin tener el premio que ofrecían al ganador, puso en Internet la solución. Este personaje, no acudió a la cita en Madrid, donde se celebraba el Año Internacional de las Matemáticas y el rey le entregaría la Medalla Field. Todos se quedaron esperando y él, que vicía con su madre en un apartamento de 65 m2, estaba con su cestita al brazo cogiendo setas en el campo.
De todo esto podemos obtener la consecuencia de que, todo tiene otra historia detrás, y, si profundizamos, la podemos descubrir para conocer de manera completa y precisa, el transcurso de los hechos y los personajes que en ellos tomaron parte.
emilio silvera