Dic
22
Nuevas ideas, ideas viejas
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
¿Empezó todo con una singularidad? ¿Salió el Universo del interior de un A.N.?
El Tiempo, el Universo, el Inicio de todo.
Se han llevado a cabo muchos modelos y las distintas teorías que circulan por ahí nos hablan de muchas cuestiones. Sin embargo, la relatividad general predice que tiene que haber una singularidad en el pasado, y cerca de esa singularidad la curvatura (del espacio) debe de ser muy alta; la relatividad clásica se anula, y habrá que tomar en cuenta los efectos cuánticos. A fin de comprender las condiciones iniciales del universo, debemos dirigirnos a la mecánica cuántica, y el estado cuántico del universo determinará las condiciones del universo clásico.
– Una de las principales finalidades de la Geoquímica es establecer las leyes que rigen el comportamiento, distribución, proporciones relativas y relaciones entre los distintos elementos químicos.
– Los datos de abundancias de elementos e isótopos en los distintos tipos de estrellas nos van a servir para establecer hipótesis del origen de los elementos.
– Los datos de composición del Sol y las estrellas nos permiten establecer hipótesis sobre el origen y evolución de las estrellas. Cualquier hipótesis que explique el origen del Sistema Solar debe explicar también el origen de la Tierra, como planeta de dicho Sistema Solar.
Cuando Einstein irrumpió en la Física, nadie le conocía y sólo era un oscuro empleado de la Oficina de Patentes de Berna en Suiza. Él, sin embargo, no había dejado de estar al día y seguí todo aquello que se pudiera mover en relñación a su pasión: La Física. Los escritos de Mach, de Lorentz, de Maxwell, de Planck… Todo ello le llevó a elaborar su famosa teoría relativista que convulsionó el mundo de la ciencia y, si me apuras mucho, hasta el ámbito filosófico cambió a partir de la relatividad. Una teoría que venía a decir cosas increibles como que la masa era energía congelada, que la luz marcaba el límite de la velocidad del universo, o, que el tiempo se ralentizaba si se marcha a velocidades cercanas a c. Esos extraños postulados no fueron, en un principio, bien entendidos por la física del momento.
Manuscrito de Einstein con la fórmula de la Teoría de la Relatividad. Cuando esto se dio a conocer al mundo, muchos miraron escépticos la fórmula y las implicaciones que de ella se podrían derivar, aquello podría cambiar lo firmemente establecido: ¡sacrilegio! ¿qué será de la Física si hacemos caso a lo que diga cualquiera?
Siempre ha sido así, el Status Institucional establecido, bien acomodado en los sillones de las academias y corporaciones, hacen la señal de la cruz, como para espantar al diablo, cada vez que aparecen nuevas ideas que, en realidad, les aterra, toda vez que les puede remover de sus asientos y prebendas, ya que, generalmente, dejan al descubierto que todo lo que predomina, está asentado en una falsa base de criterios y teorías que no siempre, son las correctas ni pueden ser demostradas y, mientras tanto eso ocurre, ellos, ¡a vivir que son dos días!
En el trabajo “No siempre la física se puede explicar con palabras”, el amigo Tom Vood nos deja el siguiente comentario que, siendo de interés aquí os lo inserto para que todos, podáis pensar en lo que aquí expone: Creo que sus ideas deben ser divulgadas.
!”Te dejo una entre muchas “revelaciones” reciente, calentitas solo para ti; que no quisiera que se divulgaran. Pero le dejo a su responsabilidad, si borrarlas, si usted cree que debo seguir como guerrillero de la ciencia o debe ser conocidas estas ideas por toda la comunidad científica. Disculpa, pero no logro discernir eso. Pero como admiras tanto a Einstein y yo soy tan tonto, te la insinúo por arribita: (Según el modelo de la interacción Luz-Luz).
¿Sabes por que las energíasmasas (partículas, o electromagnéticos confinados) no pueden superar la velocidad de la luz?
Bueno Einstein se moriría por explicárselo; a pesar de que para los modernos físicos esas preguntas ilegales no se le hacen a la física; recuerda el famoso: ¡no preguntes y calcula! Como diciendo, no eres físico, sino físico-matemático. O lo que no se, o no me puedo explicar, no lo puedes preguntar, es de mal gusto hacerlo, o de ignorantes. ¡Que daño Dios!
Bueno, pues una partícula según mi modelo es energíacampo confinada o electromagnético confinado en forma de energíamasa y por lo tanto cuando alcanza la velocidad de la luz, ocurre la ruptura de simetría que lo regresa a ser de nuevo energíacampo.
Más riguroso: Si una energíamasa alcanza la velocidad de la luz, se convierte en energíacampo.
De aquí se extraen miles de corolarios:
-Las energíasmasas (partículas) si alcanzan la velocidad de la luz, solo que una vez que la alcanzan, se rompe su topología de confinación, de energíasmasas y se liberan de nuevo como energíascampos. Algo que nunca dejaron de ser. Es que eso nunca las cinco física anteriores lo prohibían; por algo era. Mi modelo no mutila, incorpora,… Son los físicos, los que al no tener un buen modelo, medio que lo veían implícito así en la teoría; que eso no podía suceder. Pero si sucede, solo que nunca pueden sostenerse así.
Tom parece tener en sus manos las respuestas pero… se les escapa entre los dedos
-Nunca una energíamasa (partícula con masa) podrá superar la velocidad de la luz. La conclusión Eisteniana que nadie se ha podido explicar. Vez que fácil es todo, una vez que se va ha la física.
-La velocidad de la luz no es una barrera, la barrera es la ley que confina la energíacampo, en forma de energíamasa. Esa topología, geometría; o relaciona geometrías/energía.
-Toda aniquilación, desintegración y explosión tipo Big Bang (odio, o no creo lo del Big Bang) de los cuerpos del macrocosmo, es por la misma causa.
-De esto se extrae (del modelo también) la ley universal permitibilidad máxima de energía por unidad de espaciotiempo… El VICEVERSA; porque si no todo fuera energíascampos y la naturaleza no ocurre así: Toda energíacampo (luz,…) se confina como energíamasa, cuando su velocidad se hace cero.
-O lo que es lo mismo, ninguna partícula sin masa puede llegar a alcanzar el estado de reposo. Otra cosa que ningún modelo ha explicado, aunque es evidente que es un principio natural. Como todo lo que les explico. ¡Total, si eso es ilegal para el establishment!
De aquí se infieren muchas preguntas, conclusiones, paradojas, o explicaciones más racionales, a muchas cosas que decimos explicadas o que no hemos explicado todavía.
También nosotros estamos inmersos en un campo de energía-masa
La energíascampos (ustedes siempre piensen en la luz como yo al principio, para que no se pierdan) nunca puede estar en reposo (que la energía no puede estar en reposo es conocido, por eso es energía), pero como si existen circunstancias físicas muy especiales, donde esta puede ir disminuyendo su velocidad hasta que sea cero; la naturaleza resuelve esta paradoja, confinando las energíascampos, en diferentes topologías que donde se conserva como energíascampos (mas fácil verlo si piensan en luz); pero exteriormente se manifiesta como un ente, que puede estar en reposo o moverse como un todo; como lo que llamamos partículas con masa ( para mi energíasmasas).
Otra idea que puede ayudarlos a digerir esto: la energíacampo oscila, están acotadas entre la velocidad cero y la velocidad “c”. Esa oscilación, tipo superficie de agua hirviente, es lo que ocurre en la superficie de un agujero negro. Otra revelación de la riqueza física que despliega el modelo.
Te explico mejor: Cuando una energíacampo (luz) cae en un campo tan intenso como el de un agujero negro, su velocidad comienza a disminuir, llegado al “horizonte” (concepto que hay que ampliar) donde su velocidad seria cero; según mi modelo se confina como una energíamasa y trataría de moverse como un todo. Y aquí pueden ocurrir varias cosas que no te he explicado. Según la geometría que adopte la confinación, podrá ser un fermión izquierdo o derecho (una partícula o una antipartícula); así que puede ocurrir aniquilación…
También podría ocurrir que esa partícula (o energíamasa) alcance la velocidad de la luz; es decir regrese ha ser energíacampo, ya te explique por que. Ahora, la gravitación es energíacampo también, y aquí ocurre que ella penetra a la partícula (el mismo proceso de la aniquilación, todo es lo mismo, hay una regularidad natural entre el micromundo y el macromundo, que nadie ve), satura la estabilidad de su topología, y esta se desintegra (aquí tienes la explicación de todos los procesos de desintegración y con el, los tiempos de vida). Pero desintegración en mi razonamientos, en el modelo; es decaer en otra topología de menor energía y cuando esas topologías estables, quedan agotadas por las leyes naturales, que los físicos llamamos de conservación (carga, spin, Isoespin, CP, CPT,…); no le queda otro remedio a la energíamasa; que volver ha ser una energíacampo.
Estaría bien que Tom pudiera, por fín, atrapar con los dedos de la Mente, su teoría Luz-Luz (débil-fuerte) para asombrar al mundo.
Bueno espero haberte complacido en algo, “tuvisteis la exclusividad”, lo dejo ahí porque para que lo digieran y porque tengo muchos problemas que resolver. Tampoco tengo tiempo de leer lo que escribí (como ya es costumbre); pero ustedes son inteligentes como para no crucificarme, así que corrígeme ha tus Dones. Pueden divulgar a su antojo, como siempre les digo, “mi física de café con leche”. Tómense su tiempo para digerirlo, para acostumbrarse a estas nuevas concepciones físicas, esto párese merecerlo, parece novedoso.
Gracias amigo, te agradecemos las revelaciones que, si al fin se abren camino, nos podrían llevar a terrenos más cercanos a la realidad física del mundo. Daríamos un paso adelante en la comprensión del Universo y, como pasa siempre que obtenemos alguna nueva respuesta…¡Podríamos seguir planteando nuevas preguntas! que por cierto, ahora no podemos hacer por no tener ese conocimiento que tú tratas de entregar al mundo.
Sigamos con la Gravedad Cuántica
La física será incompleta y conceptualmente insatisfactoria en tanto no se disponga de una teoría adecuada de la gravedad cuántica. Todos hemos oido hablar de la incompatibilidad de las dos teorías que sustentan hoy por hoy toda la Física y que, todosm también sabemos que, son teorías incompletas que necesitan de una reunificación en un todo poderoso que todo lo puesda explicar.
Durante el siglo XX, la física se fundamentó, en general, sobre dos grandes pilares: la mecánica cuántica y la teoría de relatividad. Sin embargo, a pesar de los enormes éxitos logrados por cada una de ellas, las dos aparecen ser incompatibles. Esta embarazosa contradicción, en el corazón mismo de física teórica, se ha transformado en uno de los grandes desafíos permanentes en la ciencia.
La teoría de la relatividad general da cuenta a la perfección de la gravitación. Por su parte, la aplicación a la gravedad de la mecánica cuántica requiere de un modelo específico de gravedad cuántica. A primera vista, parecería que la construcción de una teoría de gravedad cuántica no sería más problemático que lo que resultó la teoría de la electrodinámica cuántica (EDC), que ya lleva más de medio siglo con aplicaciones más que satisfactorias.
En lo medular, la EDC describe la fuerza electromagnética en términos de los cambios que experimentan las llamadas partículas virtuales, que son emitidas y rápidamente absorbidas de nuevo; el principio de incertidumbre de Heisenberg nos dice que ellas no tienen que conservar la energía y el movimiento. Así la repulsión electrostática entre dos electrones puede ser considerada como la emisión, por parte de un electrón, de fotones virtuales y que luego son absorbidos por el otro.
La misma mecánica, pero a través de los cambios de la partícula virtual de la gravedad el «gravitón» (el quantum del campo gravitacional), podría considerarse para estimar la atracción gravitacional entre dos cuerpos. Pero gravitones nunca se han visto. La gravedad es tan débil que puede obviarse a escala molecular, donde los efectos cuánticos son importantes. Ahora, si los cambios que podrían realizarse en los gravitones sólo se producen en la interacción entre dos puntos de masa, es posible, entonces, que en los cuerpos masivos se ignore los efectos cuánticos. El principio de incertidumbre de Heisenberg nos señala que no podemos medir simultáneamente la posición y la velocidad de una partícula subatómica, pero esta indeterminación es imperceptible para los planetas, las estrellas o las galaxias.
Sí, pero, ¿qué me dices del gravitón?
Pero el principal obstáculo, sin embargo, es la cantidad de complicados procesos que implica examinar un gran número de gravitones. La gravedad se diferencia crucialmente del electromagnetismo al no ser lineal. Esta inlinealidad surge porque la gravedad posee la energía, y ésta tiene la masa, que gravita. En el lenguaje cuántico, esto implica que gravitones interactúan recíprocamente con otro gravitones, a diferencia de los fotones, que interactúan sólo con cargas y corrientes eléctricas y no con otros fotones. Ahora, como los gravitones interactúan el uno con el otro, las partículas de materia son rodeadas por complejas redes de gravitones virtuales que forman «lazos cerrados», muy semejante a «árboles bifurcados».
En la teoría de campo cuántica, los lazos cerrados son un signo de problema; ellos normalmente producen respuestas infinitas en los cálculos de procesos físicos. En EDC, tales lazos ocurren cuando un electrón emite y absorbe de nuevo su propio fotón. En ese caso, los infinitos son soslayados a través de un procedimiento matemático conocido como renormalización. Si éste es hecho correctamente, se obtienen razonables respuestas. La QED es lo que se llama una teoría renormalizable porque todos los infinitos pueden ser soslayados sistemáticamente; en efecto, solo un conjunto de operaciones matemáticas es suficiente para eliminar los infinitos.
Parece que aquí puede estar la solución
Lamentablemente, tal procedimiento sistemático no es operativo cuando la mecánica cuántica es aplicada a la relatividad general; la teoría es, por lo tanto, «no-renormalizable». Cada proceso que implique progresivamente más lazos cerrados de gravitones introduce nuevas variantes de términos infinitos. Lo anterior, coarta la investigación para muchísimos fenómenos de interés, y sugiere que puede que haya básicamente algo que esté errado en la relatividad general, en la mecánica cuántica, o en ambas.
Pero miremos más allá del problema de renormalización, ¿qué pasaría si nos remontáramos a un momento en que todo lo que podemos ver, y hasta lo que hay más allá de nuestro «horizonte» de 13.000 millones de años luz, estaba comprimido hasta un volumen menor que el de un núcleo atómico? A estas densidades descomunales, que se dieron durante los primeros 10-43 segundos del universo (lo que se conoce como «tiempo de Planck»), tanto los efectos cuánticos como la gravedad habrían sido importantes. ¿Qué pasa cuando los efectos cuánticos convulsionan todo un universo?
Por ello, la física será incompleta y conceptualmente insatisfactoria en tanto no se disponga de una teoría adecuada de la gravedad cuántica. Algunos teóricos creen que ya es tiempo de explorar las leyes físicas que prevalecían en el tiempo de Planck, y han propuesto algunas hipótesis interesantes. Sin embargo, no hay consenso sobre qué ideas hay que descartar. Lo que es seguro es que debemos rechazar nuestras queridas concepciones del espacio y el tiempo basadas en el sentido común: el espaciotiempo a muy pequeña escala podría tener una estructura caótica, espumosa, sin ninguna flecha temporal bien definida; puede que haya una generación y fusión continua de agujeros negros primores y minúsculos. La actividad podría ser lo bastante violenta para generar nuevos dominios espaciotemporales que evolucionarían como universos independientes. Eventos más tardíos (en particular la fase inflacionaria que se describe en el capítulo XVI) podrían haber borrado cualquier rastro de la era cuántica inicial. El único lugar donde podrían observarse efectos cuántico-gravitatorios sería cerca de las singularidades centrales de los agujeros negros (de donde ninguna señal puede escapar). Una teoría sin consecuencias evidentes fuera de estos dominios tan exóticos e inaccesibles no es verificable. Para que se la tome en serio debe estar íntimamente insertada o, en su efecto, articulada en alguna teoría con fundamento empírico, o bien debe percibirse como una conclusión inevitable y convincente.
Durante las últimas décadas, varias tentativas han sido hechas para buscarle una solución al problema de la no-renormalización de la gravedad cuántica y caminar hacia la unificación de todas las fuerzas. La aproximación más esperanzadora para alcanzar ese viejo anhelo de los físicos es la teoría de las «supercuerdas», que ya anteriormente vimos.
Sin embargo, recordemos aquí que en la teoría de las supercuerdas se presume una escala natural energética determinada por la energía de Planck, alrededor de unos 1019 GeV. Esto es 1017 veces más alto que los tipos de energías que pueden ser producidos en los aceleradores de partículas más grandes, lo que imposibilita contrastar con la teoría la existencia misma de las supercuerdas. No obstante, los teóricos esperan que a escala de energía accesible tanto la física, la relatividad general, el electromagnetismo, las fuerzas nucleares débiles y fuertes, las partículas subatómicas surjan de la teoría de las supercuerdas como una aproximación. Así, se espera conseguir con ese modelo de cuerdas no sólo una ajustada descripción de la gravedad cuántica, sino que también intentar con ella la anhelada unificación de las fuerzas.
La teoría defiende la existencia de diez dimensiones espaciales y una temporal. Esas dimensiones estarían en las propias cuerdas, y por eso no las vemos. Con esto de las dimensiones me pasa lo mismo que con la “materia oscura”, son buenos artilugios para pasar página y dar por bueno lo que aún no se ha podido verificar.
Lamentablemente, no hay un único límite de baja energía para la teoría de las supercuerdas como tampoco un sólo modelo de la teoría. Por un tiempo, lo anterior pareció como una barrera infranqueable, pero en años recientes, y a través de una mayor abstractación matemática, se ha construido un nuevo modelo de supercuerdas conocido como «la teoría M» que amalgama dentro de ella otras teorías de supercuerdas.
Por ahora, es demasiado pronto para pronunciarse si la teoría M es finalmente el medio que reconciliará la gravitación y la mecánica cuántica, pero sí debería poder cumplir con algunas expectativas, como ser las de explicar algunos hechos básicos sobre el mundo físico. Por ejemplo, el espaciotiempo de cuatro dimensional tendría que surgir de la teoría, más bien que ser insertado en ella. Las fuerzas y las partículas de naturaleza también deberían ser descritas, preferentemente incluyendo sus propiedades claves, como fuerzas de interacción y masas. Sin embargo, a no ser que la teoría M, o una variante futura, pueda ser proyectada a la baja energía de los laboratorio de física para poder ser contrastada, corre el riesgo de empezar a ser olvidada y finalmente archivada como uno más de los muchos y elegantes ejercicios matemáticos que se han elaborado para la física en los últimos tiempos.
Cuerdas o filamentos vibrantes en el corazón de la materia
Si la teoría de supercuerda es una pérdida de tiempo o no, ello está por verse. Por ahora, el desafío más duro a superar por la teoría es entender por qué el espacio de 9 dimensiones más el tiempo se «comprime» bajo el aspecto de nuestro espacio habitual tetradimensional (el tiempo más las tres dimensiones espaciales), en vez de hacerlo en tres o cinco dimensiones, y ver cómo sucede esto. Aún hay un espacio infranqueable entre la teoría de supercuerdas y los fenómenos observables. La teoría de supercuerdas plantea problemas demasiado difíciles ahora mismo para los matemáticos. En este aspecto, es muy diferente de la mayor parte de teorías físicas: normalmente, el aparato matemático de las teorías se desarrolla antes que éstas. Por ejemplo, Einstein utilizó conceptos geométricos desarrollados en el siglo XIX, no tuvo que partir de cero para construir las matemáticas que necesitaba.
Por su parte, los físicos cuerdistas se acorralan en lo que es fácil de comprobar, es difícil de calcular y lo que es fácil de calcular, es difícil comprobar. En consecuencia, pareciera que el camino que se está siguiendo es pretender desarrollar la teoría más y más, y hacer cálculos cada vez más difíciles de manera de poder predecir cosas que sean fáciles de observar. ¿El camino tendrá tiempo y final? Nadie tiene por ahora la respuesta.
Aquella charla … 23-28 Julio, MPI, Múnich, Alemania, a cargo de John H. Schwarz (Caltech), uno de los padres de la teoría de cuerdas, no tuvo desperdicio.
El físico Eugene Wigner escribió un célebre artículo sobre este particular que llevaba por título «La irrazonable efectividad de la matemática en las ciencias físicas». También es un hecho notable que el mundo exterior muestre tantas estructuras susceptibles de descripción en «lenguaje» matemático (sobre todo cuando tales estructuras se alejan mucho de las experiencias cotidianas que moldearon la evolución de nuestros cerebros). Edward Witten, el principal experto en supercuerdas, describe dicha teoría como «una física del siglo XXI que cayó en el siglo XX». Sin embargo, sería más extraordinario que seres humanos de cualquier siglo llegaran a desarrollar una teoría tan «final» y general como pretenden ser las supercuerdas.
Salvo mejor parecer.
Emilio Silvera
Dic
22
Mundo de Agua
por Emilio Silvera ~ Clasificado en Biologia ~ Comments (0)
La vida echó raíces hace más de cuatro mil millones años en nuestra naciente Tierra, un lugar más húmedo y más duro que ahora, bañado por chisporroteantes rayos ultravioleta. Lo que comenzó como simples células finalmente se transformó en mohos del fango, ranas, elefantes, seres humanos y el resto de los reinos vivos de nuestro planeta. ¿Cómo empezó todo?
Un nuevo estudio de investigadores del Laboratorio de Propulsión a Chorro y el Instituto de Astrobiología de la NASA describe cómo la energía eléctrica producida de forma natural en el fondo del mar pudo haber dado origen a la vida en la Tierra hace 4.000 millones de años. Aunque los científicos ya habían propuesto esta hipótesis -llamada “aparición de vida hidrotermal alcalina submarina”- el nuevo estudio reúne décadas de trabajo de campo, de laboratorio e investigación teórica en un gran imagen unificada.
Según los resultados, sustentados en la teoría del “mundo de agua”, la vida pudo haber comenzado en el interior de fondos marinos cálidos, en un tiempo remoto cuando los océanos se extendían por todo el planeta. Esta idea de las fuentes hidrotermales como posibles lugares para el origen de la vida fue propuesta por primera vez en 1980 tras estudiarse en el fondo del mar cerca de Cabo San Lucas, México. Llamadas “fumarolas negras” son respiraderos de burbujas con agua hirviendo y fluidos ácidos calientes. Por el contrario, los respiraderos de ventilación en el nuevo estudio -la hipótesis del científico Michael Russell del JPL en 1989- son más suaves y se filtran con líquidos alcalinos. Uno de estos complejos de estos respiraderos alcalinos se encontró casualmente en el Océano Atlántico Norte en 2000, y fue apodado la Ciudad Perdida.
“La vida se aprovecha de los estados de desequilibrio en el planeta, como puede haber sido el caso hace miles de millones de años en los respiraderos hidrotermales alcalinos”, dijo Russell. “La vida es el proceso que resuelve estos desequilibrios”.
Imagen del fondo del océano Atlántico que muestra una colección de torres calcáreas conocidas como la “Ciudad Perdida”. Se ha sugerido que las chimeneas alcalinas hidrotermales de este tipo son el lugar de nacimiento de los primeros organismos vivos de la Tierra antigua. Crédito: NASA/JLP-Caltech.
La teoría del mundo de agua de Russell y su equipo dice que las cálidas fuentes hidrotermales alcalinas mantienen un estado de desequilibrio con respecto al antiguo entorno ácido de los alrededores en el océano, que podría haber proporcionado la llamada energía libre para impulsar el surgimiento de la vida. De hecho, los respiraderos de ventilación podrían haber creado dos desequilibrios químicos. El primero fue un gradiente de protones, donde los protones -los iones de hidrógeno- se concentraron más en el exterior de las chimeneas de ventilación. El gradiente de protones podría haber sido aprovechado para la energía -algo que nuestros propios cuerpos hacen todo el tiempo en las estructuras celulares llamadas mitocondrias.
El segundo desequilibrio podría haber implicado un gradiente eléctrico entre los fluidos hidrotermales y el océano. Hace miles de millones de años, cuando la Tierra era joven, sus océanos eran ricos en dióxido de carbono. Cuando el dióxido de carbono del océano y de los combustibles de la ventilación -hidrógeno y metano- surgió a través de la pared de los respiradedor, los electrones pudieron haber sido transferidos. Estas reacciones podrían haber producido los compuestos de carbono -u otros orgánicos más complejos- que contienen ingredientes esenciales de la vida tal como la conocemos. Al igual que los gradientes de protones, los procesos de transferencia de electrones se producen regularmente en las mitocondrias.
Como pasa con todas las formas de vida avanzadas, las enzimas son la clave para que las reacciones químicas ocurran. En nuestros antiguos océanos, los minerales pueden haber actuado como enzimas, interactuando con los productos químicos alrededor y conducir reacciones. En la teoría del mundo de agua, dos tipos diferentes de “motores” de minerales podrían haber delineado las paredes de las estructuras del respiradero.
Uno de los pequeños motores se cree que ha utilizado un mineral conocido como óxido verde, lo que le permite aprovechar las ventajas del gradiente de protones para producir una molécula que contiene fosfato que almacena energía. El otro motor se cree que ha dependido de un metal raro llamado molibdeno.
“La teoría de Michael Russell se originó hace 25 años y, desde ese momento, las misiones espaciales de JPL han encontrado una fuerte evidencia de océanos de agua líquida y fondos rocosos en Europa y Encelado”, dijo Laurie Barge, investigadora del JPL. “Hemos aprendido mucho sobre la historia del agua en Marte, y pronto podemos encontrar planetas similares a la Tierra alrededor de estrellas lejanas. Al probar esta hipótesis del origen de la vida en el laboratorio de JPL, podemos explicar cómo la vida podría haber surgido en otros lugares de nuestro Sistema Solar o más allá, y también tener una idea de cómo buscarla”.
LA NASA
Emilio Silvera
Dic
21
¿Cómo será el futuro? Me gustaría conocerlo
por Emilio Silvera ~ Clasificado en el futuro ~ Comments (6)
Lo cierto es que, cada vez que ha salido alguien, que como el precursor de la ciencia ficción, el entrañable Julio Verne, nos hablaba de viajes imposibles y de mundos insólitos, nadie pudo creer, en aquellos momentos, que todas aquellas “fantasías” serían una realidad en el futuro más o menos lejano. Todo lo que él imagino hace tiempo que se hizo realidad y, en algunos casos, aquellas realidades fantásticas, han sido sobrepasadas como podemos contemplar, en nuestras vidas cotidianas. Ingenios espaciales surcan los espacios siderales y, otros, lo hacen por el misterioso fondo oceánico como fue predicho hace ahora más de un siglo.
En un estudio por un equipo de físicos con avanzados aparatos, han hallado un resultado del que nos dicen:
“La materia se construye sobre frágiles objetos. Los físicos acaban de confirmar que la materia, aparentemente sustancial, es en realidad nada más que fluctuaciones en el vació cuántico. Los investigadores simularon la frenética actividad que sucede en el interios de los protones y neutrones, que como sabéis son las partículas que aportan casi la totalidad de la masa a la materia común.”
Las consecuencias de la existencia del cuanto mínimo de acción fueron revolucionarios para la comprensión del vacío. Mientras la continuidad de la acción clásica suponía un vacío plano, estable y “realmente” vacío, la discontinuidad que supone el cuanto nos dibuja un vacío inestable, en continuo cambio y muy lejos de poder ser considerado plano en las distancias atómicas y menores. El vacío cuántico es de todo menos vacío, en él la energía nunca puede quedar estabilizada en valor cero, está fluctuando sobre ese valor, continuamente se están creando y aniquilando todo tipo de partículas, llamadas por eso virtuales, en las que el de su energía por el tiempo de su existencia efímera es menor que el cuanto de acción. Se llaman fluctuaciones cuánticas del vacío y son las responsables de que exista un que lo inunda todo llamado de punto cero.
Ahora, los profetas modernos resultan ser Físicos que nos hablan de sucesos cuánticos que no llegamos a comprender y que, son ¡tan extraños! que nos resultan poco familiares y como venidos de “otro mundo”, aunque en realidad, son fenómenos que ocurren en las profundidades del mundo de la materia.
Cada vez van siendo menor los visionarios y más los estudiosos científicos, tanto teóricos como experimentadores que, en todos los campos, nos llevan, sin que nos demós cuenta, hacia el futuro que, ¡puede ser de tántas maneras! Precisamente por eso, será bueno que nuestras mentes, no se resignen a que estémos confinados aquí, en esta nave espacial que llamamos Tierra y que surca el espacio interestelar a muy buena velocidad aunque no todos sean conscientes de ello.
Ascensor Espacial Erkki Halkka
Los avances que veremos en este mismo siglo, en todos los ámbitos del saber humano, serán sorprendentes y cambiaran nuestras vidas, nuestra Sociedad para el próximo siglo, será ya muy diferentes a ésta que conocemos. Nuestras propias vidas darán un salto cuantitativo y cualitativo en su período de duración y en su calidad de bienestar, podremos vivir un siglo y medio y tendremos menos enfermedades que ahora. las posibles innovaciones tecnológicas en campos tan dispares como la salud, la economía, la demografía, la energía, la robótica, el espacio, las telecomunicaciones y los transportes, darán un vuelco a nuestra forma de vida y entraremos en otra fase del futuro que viene y del pasado que dejamos atrás.
Estos serán los materiales con los que se construirá ese ascensor “imposible” que nos llevará 500 Km lejos de la Tierra, hacia las Estaciones Espaciales con las que se podrá acoplar, sin ninguno de los riesgos que conllevan los transbordadores actuales impulsados por Hidrógeno líquido de fácil combustión, es decir, los pasajeros van montados sobre una bomba volante y, al mejor fallo…
Los ascensores espaciales eran hasta hace muy poco materia de ficción pura, pues ningún material conocido podía soportar la enorme tensión producida por su propio peso. Actualmente ciertos materiales comienzan a parecer viables como materia prima: los expertos en nuevos materiales consideran que teóricamente los nanotubos de carbono pueden soportar la tensión presente en un ascensor espacial.3 Debido a este avance en la resistencia de los nuevos materiales, varias agencias están estudiando la viabilidad de un futuro ascensor espacial:
En Estados Unidos, un antiguo ingeniero de la NASA llamado Bradley C. Edwards ha elaborado un proyecto preliminar que también están estudiando científicos de la NASA.Edwards afirma que ya existe la tecnología necesaria, que se necesitarían 20 años para construirlo y que su costo sería 10 veces menor que el de la Estación Espacial Internacional. El ascensor espacial de Edwards no se parece a los presentes en las obras de ficción, al ser mucho más modesto y a la vez innovador en lo que concierne a su eventual método de construcción.
Este sería el final del recorrido y estaría preparado para conectar con bases espaciales. Ahora nos parece un suelo pero hace tiempo ya que se está trabajando, de manera muy seria, en su construcción en un futuro próximo y, desde luego, conseguirlo será un buen logro.
Existen algunos tratamientos con células madre, pero la mayoría todavía se encuentran en una etapa experimental. Investigaciones médicas, anticipan que un día con el uso de la tecnología, derivada de investigaciones para las células madre adultas y embrionarias, se podrá tratar el cáncer, diabetes, heridas en la espina dorsal y daño en los músculos, como también se podrán tratar otras enfermedades. Se les presupone un destino lleno de aplicaciones, que van desde patologías neurodegenerativas, como la enfermedad de Alzheimer o de Parkinson, hasta la fabricación de tejidos y órganos destinados al trasplante, pasando por la diabetes y los trastornos cardíacos.
En un futuro se espera utilizar células madre de cordón umbilical en terapia génica: podemos así tratar enfermedades causadas por la deficiencia o defecto de un determinado gen, introduciendo un determinado gen en la proliferación de las células madre In Vitro y trasplantar tales células en el paciente receptor. El uso de otros tipos de células como portadores de genes buenos en pacientes con enfermedades causadas por deficiencias o déficits genéticos, está siendo testeado a nivel clínico. El primer trasplante de órgano bioartificial en humanos, por su parte, confían en que pueda ver la luz dentro de “unos cinco o diez años”.
La bioinformática o la biotecnología consiste en la aplicación de tecnología informática en el análisis de datos biológicos . Los principales esfuerzos de investigación en estos campos incluyen el alineamiento de secuencias , la predicción de genes , predicción de la expresión génica y modelado de la evolución . Algunos ejemplos son el diseño de organismos para producir antibióticos , el desarrollo de vacunas más seguras y nuevos fármacos, los diagnósticos moleculares, las terapias regenerativas y el desarrollo de la ingeniería genética para curar enfermedades a través de la manipulación génica . Veamos algunas de ellas…
Formas nuevas de comunicarse y de adquirir datos
La fusión, energía limpia y barata y, sobre todo, inagotable
Y mientras el mundo está pendiente de la crisis económica internacional, científicos e ingenieros trabajan intensamente en lo que podría ser la solución a los problemas energéticos del futuro. La palabra clave es “fusión”. Al contrario que la tradicional energía nuclear, la energía de fusión es limpia y no contamina y, sus residuos, es el Helio fácilmente aprovechable. El Proyecto ITER sigue adelante.
La ciencia de la medicina está avanzando a pasos agigantados. Los últimos avances en medicina que se dieron en estos diez o quince años pasados han sido sorprendentes, y podemos esperar un salto muy grande en la medicina dentro de los próximos años.
Algunos descubrimientos todavía no están al alcance de los pacientes, a pesar de que ya se han revelado como grandes avances científicos son necesarios muchos estudios y pruebas antes de que se puedan aplicar. No perdamos de vista en este ámbito del saber humano, ni la genética ni las nuevas nanotecnologías, lo que llaman el ojo biónico, la sangre artificial…
Cambiaran nuestras ciudades y nuestras Sociedades serán diferentes, los nuevos conocimientos llegarán también, a la vida cotidiana del habitat humano y a su forma de trabajo, de viajar, e, incluso los alimentos del futuro no muy lejano, nos harán recordar con cierta nostalgia, estos que ahora criticamos.
Los modernos celulares irán insertados en el brazo
Cualquier vivienda será controlada por mecanismos informáticos
Este programa va más allá de los avances actuales para revelar la tecnología e inventos que nos permitirán ver a través de las paredes, viajar en el tiempo y en el espacio y colonizar planetas distantes. La tecnología inteligente que llevará ayudantes robóticos a los hogares, ciudades enteras a la Internet, y sistemas de entretenimiento que harán los sueños realidad en forma virtual. Sí, virtual hoy pero… ¿Y mañana?
¡Tantas galaxias y estrellas, tantos mundos, tantas maravillas! Si no podemos en un futuro más o menos lejano, visitarlas, ¿Para qué tanta diversidad y tanta belleza? Si están ahí, por algo será y, nosotros, aunque parezca que somos una ínfima cuestión en tan vasto Universo, seguramente serémos, unos privilegiados llamados a realizar grandes cosas. A pesar de nuestras muchas faltas y carencias…¡Lo estamos logrando!
Ya hemos dado los primeros pasos y, nuestros ingenios espaciales tecnológicos robotizados, han realizado para nosotros las tareas que, de momento nos están vedadas pero, demslé tiempo al tiempo y, sin duda alguna, en ese futuro soñado, estaremos en las estrellas y en esos otros mundos que presentimos hermanos de la Tierra y que podrán acoger a la Humanidad que, dentro de otros cincuenta años, llegará a la cifra de 8.000 millones de seres y, nuestro planeta, no puede con todo.
El futuro convive ya con nosotros y, al tenerlo tan cercano, no le prestamos atención a esos muchos cambios que con nosotros conviven. Lo cierto es que debe ser así, de otra manera, los cambios tan bruscos que se están produciendo, nos traumatizaría y, sin embargo, lo tomamos -unas veces por comprenderlos y otras por ignorarlos- con toda la normalidad. Esa es la manera en la que se desenvuelve el mundo de nuestra especie.
Sueños convertidos en realidad.
¿Cómo no podemos predecir que le puede pasar a la Tierra en el futuro?, mejor será ir “preparando las maletas” que, como decía mi padre, un viejo marinero curtido en mil tempestades: ¡”Más vale un por si acaso, que un yo creí”!
Emilio Silvera
Dic
21
La Naturaleza misteriosa
por Emilio Silvera ~ Clasificado en La Naturaleza...El Universo ~ Comments (0)
En unas minas de uranio en Oklo, Gabón, hace 1.700.000.000 años, se produjeron reacciones en cadena moderadas por agua, y de forma natural se formaron pequeños reactores nucleares. Estudiando este fenómeno podemos aprender algo sobre cómo almacenar residuos nucleares a larguísimo plazo. En relación a este hecho histórico se me ha ocurrido buscar más información y ponerla aquí para ustedes con el título de:
Un Reactor Nuclear de la prehistoria
Habiendo leído uno de los libros de John D. Barrow, recordé que en él, por alguna parte, venía recogido un suceso muy interesante que paso a relatar corroborando así que, nunca llegamos a conocerlo todo y, en este caso, es la Tierra la que nos ha dado la sorpresa.
“El 12 de Junio de 1972 el doctor Bouzigues, hizo un descubrimiento preocupante, el tipo de descubrimiento que podía tener incalculables explicaciones políticas, científicas e incluso delictivas. Bouzigues trabaja en la planta de procesamiento de combustible nuclear de Pierrelatte, en Francia. Una de sus tantas rutinas consistía en medir la composición de menas procedentes de minas de Uranio próximas al río Oklo, en la antigua Colonia francesa ahora conocida como la República Africana Occidental de Gabón, a unos 440 km de la costa Atlántica.
Una y otra vez comprobaba la fracción de mineral natural que estaba en forma de isótopo de uranio-235 comparada con la fracción en forma de isótopo de Uranio-238, para lo que realizaba análisis de muestras de hexafluoruro de uranio gaseoso. La diferencia entre los dos isótopos es crucial. El Uranio que se da en forma natural y que extraemos del interior de la Tierra está casi todo en forma de Isótopo 238. Esta forma de Uranio no producirá una cadena de reacciones nucleares autosostenidas. Si lo hiciera, nuestro planeta habría explotado hace mucho tiempo.
Para hacer una bomba o una reacción en cadena productiva es necesario tener trazas del isótopo activo 235 de Uranio. En el Uranio Natural no más de una fracción de un 1 por 100 está en forma 235, mientras que se requiere aproximadamente un 20 por 100 para iniciar una cadena de reacciones nucleares. El Uranio “enriquecido” contiene realmente un 90 por 100 del isótopo 235. Estos números nos dejan conciliar un sueño profundo por la noche con la seguridad de que por debajo de nosotros no se va a iniciar espontáneamente una interminable cadena de reacciones nucleares que convierta la Tierra en una bomba gigantesca. Pero ¿quién sabe si en algún lugar habrá más 235 que la media?
¿Sabías que, escondido en una montaña en Gabón, África se encuentra el reactor nuclear más potente y antiguo del planeta, con más de 1.8 billones de años de antigüedad?
Boziguez midió con gran precisión la razón de isótopo 235 frente a 238. Eran comprobaciones importantes de la calidad de los materiales que en última instancia se utilizarían en la industria nuclear francesa. El suyo era un trabajo rutinario, pero ese día de Junio de 1972 su atención a los detalles se vio recompensada. Advirtió que algunas muestras presentaban una razón 235 a 238 de 0,717 por 100 en lugar del valor normal de 0,720 por 100 que se encuentra normalmente en todas las muestras terrestres, en incluso en meteoritos y rocas lunares. Tan exactamente se conocía el valor “normal” a partir del experimento, y tan exactamente estaba reflejado en todas las muestras tomadas, que esta pequeña discrepancia hizo sonar los timbres de alarma. ¿Dónde estaba el 0,003 por 100 que faltaba de Uranio 235? Era como si el Uranio ya hubiese sido utilizado para alimentar un reactor nuclear de modo que la abundancia de 235 se había reducido antes de haber sido extraído de las minas.
La Comisión de Energía Atómica de Francia consideró todo tipo de posibilidades. ¿Quizá las muestras habían sido contaminadas por algún combustible ya utilizado procedente de la planta de procesamiento? Pero no había ninguna prueba de la intensa radiactividad que habría acompañado al combustible usado, y ningún hexafluoruro de Uranio reducido faltaba en el inventario de la Planta.
Pero a poco las investigaciones descubrieron que la fuente de la discrepancia estaba en los propios depósitos naturales del Uranio. Había una baja razón 235 a 238 en las vetas de la mina. Se estudio todo el proceso y recorrido del Uranio desde su extracción hasta su transporte al lugar de destino, y, todo era correcto, nada extraño podía influir en la discrepancia descubierta. El Uranio procedente de la Mina de Oklo era simplemente distinto del que se encontraba en cualquier otro lugar.
Cuando se investigó con detalle el emplazamiento de la Mina pronto quedó claro que el Uranio 235 que faltaba había sido destruido dentro de las vetas de la Mina. Una posibilidad era que algunas reacciones químicas lo hubiesen eliminado mientras dejaban intacto el 238. Por desgracia, las abundancias relativas de Uranio 235 y 238 no se ven afectadas de forma diferente por procesos químicos que hayan ocurrido en el interior de la Tierra. Tales procesos pueden hacer que algunas partes de la Tierra sean ricas en mineral de Uranio a expensas de otras partes al disolverlo y transportarlo, pero no alteran el balance de los dos isótopos que constituyen el mineral disuelto o en suspensión. Sólo las reacciones y desintegraciones nucleares pueden hacerlo.
Los subproductos de Oklo han sido usados para realizar varios experimentos científicos. Quizás el más famoso sea uno en que se intentó comprobar si las velocidades de desintegración de los isótopos hace 1.700 millones de años eran diferentes a las de ahora (parece que no, pero los resultados no fueron concluyentes).
Poco a poco, la insospechada verdad salió a la luz ante los investigadores. Las vetas bajas en Uranio-235 contenían las pautas características de otros 30 o más elementos atómicos que se forman como subproducto de las reacciones de fisión nuclear. Sus abundancias eran completamente diferentes de las que se dan en forma natural en rocas donde no hubieran ocurrido reacciones de fisión. La reveladora firma de los productos de fisión nuclear se conoce a partir de los experimentos en reactores construidos por el hombre. Seis de estas vetas características de la actividad de un Reactor Nuclear Natural fueron finalmente identificadas en Oklo. Algunos de los elementos presentes, como el neodimio, tienen muchos isótopos pero no todos son productos de la fisión. Los que no son productos de fisión proporcionan por consiguiente una calibración de la abundancia de todos los isótopos antes de que empezaran las reacciones naturales y de este modo nos permite determinar los efectos y tiempos característicos de dichas reacciones.
Sorprendentemente, parecía que la Naturaleza había conspirado para producir un Reactor Nuclear Natural que había generado reacciones nucleares espontáneas bajo la superficie de la Tierra hace dos mil millones de años. Fue este episodio de la historia geológica de Gabón lo que había llevado a la acumulación de productos de fisión en el emplazamiento actual de la misma.
Las primeras reacciones nucleares producidas por el hombre se produjeron el 2 de diciembre de 1942 como parte del famoso Proyecto Manhattan que culminó con la fabricación de las primeras bombas atómicas.
Después de leer el relato histórico del suceso que, sin ninguna duda, nos revela la certeza y posibilidad de que, en cualquier momento, se pueda producir otro suceso similar de cuyas consecuencias nadie puede garantizar nada, uno se queda preocupado y puede pensar que, aquel suceso, no llegó a más debido a una serie de circunstancias que concurrieron y, desde luego “el ambiente oxidante necesario que aportase el agua requerida para concentrar el uranio fue originado por un importante cambio de la biosfera de la Tierra. Hace dos mil millones de años ocurrió un cambio en la atmósfera, producido por el crecimiento de algas azul-verdosas, los primeros organismos de producir fotosíntesis.
Claro que eso, sería entrar en otras historias. Sin embargo, no debemos olvidar que, en nuestro planeta, todo está relacionado y por lo tanto, los cambios y mutaciones que se puedan producir en la Naturaleza de la misma, influyen, de manera irreversible, en todo lo demás.
Esperemos que ningún Reactor Nuclear Natural se vuelva a poner en marcha, ya que, de ser así, no sabemos si se darán las precisas condiciones necesarias para que no continúe indefinidamente su actividad y nos mande a todos al garete.
¡La Naturaleza! que no nos avisa con el tiempo suficiente de lo que piensa hacer mañana y, el ejemplo más cercano lo tenemos con el terrible terremoto acaecido en el territorio de los antiguos mayas.
Emilio Silvera
Dic
20
Más lejos… ¡Objetos más jóvenes!
por Emilio Silvera ~ Clasificado en El Universo asombroso ~ Comments (0)
A la izquierda, una imagen en falso color obtenida combinando exposiciones en tres filtros con el telescopio Hubble, en la derecha se observa la misma zona del cielo vista con GTC utilizando un único filtro más sensible a la emisión de estrellas muy jóvenes. / UCM.
La lente gravitacional permite amplificar los objetos lejanos
En el futuro próximo se podrán detectar muchas galaxias como A370-L57 con GTC y Hubble, y otras aún más distantes que estén formando su primera población de estrellas y estudiarlas en gran detalle gracias al telescopio espacial James Webb, que han desarrollado conjuntamente la NASA y la Agencia Espacial Europea, y que iba a ser puesto en órbita en 2019.
Finalmente se puso en órbita en 2021-2022
El James Webb va a permitir contestar algunas de las cuestiones fundamentales sobre cómo y cuándo se formaron las primeras galaxias y estrellas, pero sin duda habrá sorpresas y surgirán también muchas preguntas nuevas. Los próximos años van a ser apasionantes.
Aquí se captó como se formaba un jóven cúmulo de galaxias en el Universo temprano
Lograr identificar galaxias tan lejanas en sus primeras etapas de formación es un gran reto para los astrofísicos, puesto que la luz que llega es muy débil. Por eso, solo se suele detectar a las más grandes y luminosas, que tienden a ser también las más evolucionadas.
En el Universo encontramos objetos que no dejan de sorprendernos. Ahí aparece la imagen de lo que parece una serpiente cósmica dentro de las estructura de lejanas galaxias.
A la distancia de A370-L57, incluso el Hubble sólo puede detectar galaxias que ya tienen cientos o miles de millones de estrellas, formadas a lo largo de decenas o cientos de millones de años. En comparación, esta tiene sólo unos cuatro millones de años de edad y una masa de apenas tres millones de veces la del Sol.
Emilio Silvera