Abr
20
El Universo y…, ¿la vida?
por Emilio Silvera ~ Clasificado en El Universo y la Vida ~ Comments (0)
Recreación de cómo debió de verse el gran cometa Donati.
“Los Cometas lo dieron y los cometas se lo llevaron”
Carl Sagan
A diferencia de los asteroides que viajan alrededor del Sol en órbitas circulares confinadas al cinturón de asteroides y al plano de la eclíptica, los cometas lo hacen en órbitas elípticas inclinadas al azar con respecto al plano de la eclíptica. En la historia pasada, algunos de esos cometas, nos visitaron… ¡demasiado de cerca! Por otra , algunos dicen que puede ser que, precisamente, sea eso lo que trajo la vida a nuestro planeta.
un cometa se acerca al Sol, el calor solar vaporiza el hielo. Los gases liberados comienzan a brillar, formando una luminosa bola llamada coma. Empujados por el viento solar, estos gases luminosos forman una larga y brillante cola, en uno de los espectáculos más impresionantes que pueden contemplarse en el cielo nocturno.
Como antes digo, más de uno apuesta por el hecho de que, la Vida en el planeta Tierra, fue traída por algún Cometa que impactó con ella en el pasado. Si nos paramos a pensar un poco, caeremos en la de que, el hecho de que la Biblia sea tan buena lectura reside en que está llena de drama y espectáculo: fuego y azufre, señales en los cielos, diluvios, aguas que se separan, plagas y pestilencias. Si el mundo fue creado hace seis mil años, como muchos cristianos creían en un tiempo (y algunos aparentemente todavía lo creen). Dios habría estado verdaderamente ocupado en dar la forma actual a nuestro mundo, construyendo montañas y océanos, excavando valles, moviendo glaciares… ¡En tan poco tiempo!
Cuando los geólogos del siglo XVIII trataron de explicar las montañas y los valles fluviales, los océanos salados y la glaciación, los estratos rocosos y los fósiles en términos de procesos físicos antes que de acción divina, se dieron de que serían necesarios muchos más de aquellos seis mil años para formar estos accidentes. Está claro que todos los accidentes de la Tierra han sido moldeados poco a poco por cambios sucesivos que se extendieron a lo largo de enormes períodos de tiempo. Son necesariosmuchos millones de años para asentar los sedimentos rocosos y levantar y erosionar las montañas.
Así que, el Diluvio de Noé, la vorágine volcánica y los rayos celestiales deben ser atribuídos a otros ámbitos más naturales que fueron bien explicados por Charles Lyell, en su libro publicado en 1830 con el título de Principios de Geología (el que se llevó Darwin compañero de viaje en su viaje alrededor del mundo en el Beagle).
La Falla de Azores-Gibraltar o Falla transformante de Azores-Gibraltar, llamada también Zona de falla de Azores-Gibraltar, es una gran falla geológica que se extiende hacia el este desde el final del “rift” de Terceira en las Azores, prolongándose hacia el estrecho de Gibraltar hacia el Mar Mediterráneo. Esta parte del límite de placas entre la Placa Euroasiática y la Placa Africana. El tramo situado al este del Estrecho de Gibraltar está pobremente estudiado y es habitual considerarlo un límite “difuso”. En algunos puntos cerca de la Península Itálica algunos geólogos creen que la falla conecta con una zona de subducción donde la placa Africana está subduciendo lentamente por debajo de la placa Euroasiática.
Si miramos en retrospectiva, podemos ver que el uniformismo de James Hutton tenía un impulso ideológico: era una reacción contra contra las interpretaciones religiosas de la naturaleza. Al final, ha resultado ser una doctrina notablemente tozuda. La evidencia de catástrófes geológicas y biológicas repentinas fue obvia durante mucho tiempo, y pese a todo fue generalmente ignorada. Quienes llamaban la atención sobre esto tendían a ser llamados charlatanes. Cuando el respetado astrónomo Edmon Halley conjeturó en 1694 que un cometa podría chocar ocasionalmente con un planeta, su sugerencia no mereció ninguna atención. El astrónomo H.A. Proctor fue lo bastante temerario para proponer que los cráteres de la Luna podrían ser el resultado de impactos de meteoritos.
Sería raro que encontráramos un objeto espacial sin señales en su superficie
Si contemplamos la fotografía de planetas y lunas, todos, sin ecepción, nos muestran una imagen muy similar a la de la Luna con intensa formación de cráteres debidos a los impactos recibidos de cuerpos provenientes del espacio exterior: Mercurio y Marte proporcionan ejemplos excelentes. Estos cuerpos han conservado el de colisiones porque carecen de una atmósfera espesa y tienen poca actividad geológica. Por el contrario, la mayoría de los impactos en la Tierra…
Temible situación. El de Yucatan a los Dinosaurios les vino mal , a nosotros, se nos abrió una puerta
podréis observar si mirais imágenes de aquellos cráteres que se formaron en la Tierra en el pasado lejano, han sido borrados por la erosión. Pero no todos. Al menos veinticinco lugares de impactos han sido positivamente identificados tan sólo en Australia. Estados Unidos tiene una de los cráteres más famosos, próximo a la ciudad de Winslow, en Arizona. Conocido como el Cráter del Meteoro o Cráter Berringer, tiene 1,2 Kilómetros de diámetro, cien metros de profundidad y treinta mil años de antigüedad. Se conocen cráteres mucho más grandes y más viejos. Se sabe que, fue hace entre 4.000 y 3.800 milllones de años, cuando se paso una fase de intensa violencia que creó los cráteres lunares.
El periodo medio de la órbita del cometa Halley es de 76 años, pero no se pueden calcular las fechas con exactitud ya que la garvedad de los planetas mayores altera el periodo del cometa en cada vuelta. La órbita del Halley es retrógrada e inclinada 18 grados respecto de la eclíptica. Y, la de todos los cometas, altamente excéntrica.El núcleo del cometa Halley mide aproximadamente 16 x 8 x 8 kilómetros. El núcleo del Halley es muy oscuro: su albedo es de sólo 0.03, por lo que es más negro que el carbón y uno de los objetos más oscuros del sistema solar. La densidad del núcleo del Halley es muy baja: unos 0.1 gramos/cm3, indicando que probablemente es poroso, quizá debido a la gran cantidad de polvo que queda después de que los hielos se sublimen.
El Halley es casi único entre los cometas, ya que es a la vez grande y activo, y tiene una órbita regular y bien definida. Ésto lo convierte en un objetivo relativamente fácil los astrónomos, aunque no es el más representativo de los cometas. El cometa Halley volverá a acercarse al Sol en el año 2061.
Se especula con la idea de que el Sistema Solar entero pasó por una intensa fase de bombardeo de grandes meteoritos y que fue debido a la destrucción de una luna o de algún cometa monstruoso. el punto de vista de la vida, después de esta intensa andanada, la Tierra pudo quedar “sembrada” de sustancias orgánicas. Cuando la nave espacial Giotto pasó cerca del Cometa Halley en 1986, mostró un núcleo negro-alquitrán que contenía Carbono, Hidrógeno, Nitrógeno y Azufre. Los análisis de los granos de polvo que manaban de su frontal probaron que hasta una tercerqa parte era material orgánico
El impacto de un asteroide hace 65 millones de años en la península de Yucatán, donde formó el cráter de Chicxulub. Esta colisión cósmica causó la extinción masiva que hizo desaparecer a los dinosaurios. Fred Hoyle pensaba que, además de destrucción, este de impactos pudieron traer la vida a la Tierra y, Arrenius propuso antes la misma idea y la llamó Panspermia.
El origen de la vida en la Tierra aún esconde secretos para la ciencia. Uno de los puntos de debate es si los bloques de la química de la vida se formaron in situ o si llegaron a bordo de meteoritos o cometas. De ser cierta esta segunda hipótesis, sería más fácil explicar cómo surgieron las enormes y complejas moléculas bioquímicas, ya que nuestro planeta se habría encontrado con parte del hecho, incluyendo componentes posiblemente escasos en la Tierra primitiva. Pero, además, esta siembra de semillas químicas pudo disparar la evolución de la vida no sólo aquí, sino en lugares como Marte, cuya primera infancia fue muy similar a la de la Tierra.
El descubrimiento de que la Tierra sufrió agotadoras andanadas cósmicas hace 3.800 millones de años nos pone delante de un auténtico rompecabezas. Si hay que creer en el fósil, la vida estaba floreciendo ciertamente hace 3.500 millones de años, y posiblemente ya hace 3.850 millones de años. Dadas las funestas consecuencias de un impacto importante, ¿podría la vida haber sobrevivido durante el último bombardeo intenso?
Muchas son las cosas que no sabemos explicar y, cuando eso ocurre, imaginamos teorías
Por desgracia, el rastro de evidencia se acaba precisamente cuando este problema se hace más interesante. Aunque los geólogos han encontrado cristales de zirconio aislados de 4.200 millones de años de antigüedad, y han inferido que algún tipo de corteza sólida debía haber existido en dicha época, las más antiguas rocas intactas encontradas datan de hace 4.030 millones de años. Los procesos geológicos han eliminado casi toda la evidencia de lo que pudio haber sido nuestro planeta antes de hace aproximadamente unos 3.800 millones de años. La Tierra se muestra reacia a ofrecernos secretos de su juventud. Sin embargo, las evidencias indirectas de las que había antes de hace 3.800 millones de años puede estar justo debajo (¡incluso dentro!) de nuestras narices.
El ADN humano contiene a 6 mil millones de pares de bases de nucleótidos. Esto hace por lo menos dos metros de cadenas de ADN. Aquellas cadenas tienen que ser almacenadas dentro de ± 6 µ el núcleo clasificado de m de cada célula.: Claramente demasiado grande caber en el núcleo. Hace falta pues un mecanismo que permita almacenar todo. Este mecanismo debería permitir a ciertas proteínas para tener acceso a las partes específicas del ADN y el puesto en otras partes. Los eucariotas utilizan los nucleosomas. Un nucleosoma está constituido de:± 200 pb de DNA
2 moléculas de histona H2a
2 moléculas de histona H2b
2 moléculas de histona H3
2 moléculas de histona H4
1 molécula de histona H1
El ADN de nuestros cuerpos contienen un del pasado, porque nuestros genes han sido moldeados por circunstancias ambientales. Aunque el registro genético, como el registro geológico, ha quedado envuelto y oscurecido por los estragos del tiempo, no está completamente borrado. Sonsacando información de los genes, los microbiólogos pueden decir mucho sobre el ancestro universal que pudo haber vivido hace unos 4.000 millones de años, y con esta infromación podemos conjeturar algo sobre las condiciones que imperaban en aquella época. El mensaje que se extrae es una auténtica sorpresa.
La primera forma de vida en la Tierra, flotando en la proverbial espuma de los mares primordiales que finalmente dio lugar a los árboles, abejas y humanos, no es sólo un popular concepto darwiniano, sino también una premisa biológica esencial de la que dependen muchos investigadores como parte de las bases de su .
En el siglo XIX, Charles Darwin yendo más allá que otros, que proponían que podría haber un ancestro común mamíferos u otros animales, y sugirió que había un ancestro común probablemente para toda la vida del planeta – plantas, animales y bacterias.
Un análisis estadístico lleva esta suposición al banco de pruebas y ha encontrado que no sólo se mantiene a flote, sino que es extremadamente sólida.
¿No era algo obvio, desde el descubrimiento y descifrado del ADN, que todas las formas de vida son descendientes de un único organismo común — o al menos una especie basal? No, dice Douglas Theobald, profesor ayudante de bioquímica en la Universidad de Brandeis y autor del estudio, detallado en el ejemplar del 13 de mayo de la revista Nature. De hecho, dice: “Cuando me propuse esto, realmente no sabía cuál sería la respuesta”.
Imaginémos que pasaba durante la época de intenso bombaredeo cósmico. Todo gran impacto provocaba una gran convulsión global. La magnitud del desbarajuste era mucho peor incluso que el golpe que destruyó a los dinosaurios. En una época tan tadía como 3.800 millones de años, la Luna fue golpeada por un objeto de noventa kilómetros de diámetro, lo que produjo una colosal cuenca del tamaño de las Islas Británicas. Varios cataclismos similares han dejado señales en de cercos de montañas. Al ser mucho más grande, la Tierra debe haber sufrido docenas de colisiones de esta magnitud, ademásd de algunas otras que eran incluso mayores.
Si alguno se nos viene encima…, ¿qué podríamos hacer? ¡NADA! Estamos a merced de la Naturaleza y, lo demás es ficción
Podríamos continuar analizando más a fondo las consecuencias de lo que, un impacto de esta índole podría producir en la Tierra. Un cuerpo impactante de 500 kilómetros de diámetro escavaría un agujero de 1.500 kilómetros de diámetro y de unos 50 kilómetros de profundidad. Un enorme volumen de rocas quedaría vaporizado en una gigantesca bola de fuego que se extendería rápidamente por todo el planeta, desalojando la atmósfera y creando un global. La temperatura superficial ascendería a más de mil grados Celsius, lo que provocaría la ebullición de todos los océanos del mundo y fundiría las rocas hasta una profundidad de casi un kilómetro.
A medida que la atmósfera, aplastantemente densa de vapor de roca y vapor supercalentado se enfriaba lentamente durante un período de algunos meses, empezaría a llover gotas de roca fundida. Pasaría todo un milenio antes de que pudiera haber lluvia normal, preludio de un gran aguacero de dos mil años (Un Diluvio) que finalmente rellenaria los océanos y haría volver el planeta a algún tipo de normalidad.
Lo que un desastre de esta magnitud supondría para la vida tal como la conocemos… ¡Es impredicible! Y, nadie sabe si después de un suceso de este calibre, volveríamos a estar presentes en éste mundo que hoy es nuestra casa. Ya sabeis, amigos míos, que la Naturaleza cuando actúa, no tiene en cuenta que nosotros estemos aquí. Cuando dejemos de existir, ninguna estrella “llorará” nuestra desaparición, ninguna galaxia parará su ritmo y, el Universo seguirá expandiéndose y enfriándose hasta que todo, llegue a su fin.
emilio silvera
Abr
19
¡La misteriosa Mecánica cuántica! y, “sus alrededores”
por Emilio Silvera ~ Clasificado en El Universo y los pensamientos ~ Comments (3)
Se que una vez Albert Einstein alagó al actor Charles Chaplin diciéndole: “Lo que siempre he admirado de usted es que su arte es universal, todo el mundo le comprende y admira”. A esto Chaplin respondió a Einstein: “Lo suyo es mucho más digno de respeto, todo el mundo le admira y prácticamente nadie le comprende”.
Es cierto lo que Chaplin decía, todos admiraban a Einstein y pocos comprendían sus postulados. De hecho, cuando estaba buscando la teoría de Todo, la gente se amontonaban, literalmente, ante los escaparates de la Quinta Avenida ver las Ecuaciones que pocos entendían…¡Así somos los Humanos! Lo que no comprendemos nos produce temor o admiración, o, las dos cosas a la vez.
Gerad ´t Hooft
Hace algún tiempo, me desplace a Madrid invitado asistir a una Conferencia que sobre el LHC y el Bosón de Higgs impartía el físico y premio Nobel de Física Gerad ´t Hooft. La charla de ‘t Hooft se inscribía en el ciclo La ciencia y el cosmos, y, entre otras cosas nos decía a los presentes que, La física, en concreto la física de partículas, ha sido siempre su gran pasión. “cuando era joven, la física estaba cambiando el mundo radicalmente: la energía nuclear, la televisión, los ordenadores, las primeras misiones espaciales….yo quería formar parte de todo eso”. Y las partículas elementales “eran el mayor misterio de todos”, añade. “En cierto modo aún lo son, aunque sabemos de ellas muchísimo más que entonces. Hoy los ordenadores siguen siendo emocionantes, la biología y el código del ADN, la astronomía y los vuelos espaciales… Sigue habiendo muchas cosas capaces de estimular la imaginación de jóvenes deseosos de aprender cosas nuevas impulsados por el deseo de estar ahí, en el momento en que se están haciendo los descubrimientos que cambian el mundo”.
Gerard ‘t Hooft explicó lo que significa, en los modelos teóricos, el famoso bosón: “El campo de la partícula de Higgs actúa como una especie de árbitro; proyectado contra otras partículas, este campo determina su comportamiento, si tienen carga o masa y hasta qué punto se diferencian de otras partículas. Si no encontramos el Higgs, si realmente no está, necesitaremos algo más que haga ese papel de árbitro”. Eso significaría, continuaba el Nobel, que “nuestras teorías ya no funcionan, y han funcionado tan bien hasta que eso es difícil de imaginar”.
Sí al LHC se le resiste el Bosón de Higgs…, bueno, si es que anda por ahí
Fue en 199 cuando ‘t Hooft recibió el premio Nobel de Física 1999 (junto con su colega y director de tesis Martinus Veltman), por “dilucidar la estructura cuántica de las interacciones electrodébiles” -según palabras de la Academia sueca- de la física de las partículas elementales.
Acera del Gran Colisionador de Hadrones (el acelerador LHC situado en el Laboratorio Europeo de Física de partículas, CERN, junto a Ginebra), el científico holandés explica que se trata “de una máquina única en el mundo” y continúa: “Esperamos descubrir nuevas cosas con él y poner a prueba teorías que, hasta donde hemos podido comprobar hasta , funcionan muy bien, pero necesitamos ir más allá”.
El descubrimiento de la partícula de Higgs, o bosón de Higgs, era el objetivo número uno del LHC, y tras un largo período de funcionamiento del acelerador, los miles de físicos que trabajan en los detectores, han logrado acotar el terreno de búsqueda, aunque, insisten, seguramente necesitarán tomar muchos más para descubrirlo. O tal vez descubrir que no existe, lo que supondría una revolución en la física de partículas, al obligar a replantear el llamado Modelo Estándar, que describe todas las partículas elementales y sus interacciones, y que hasta ahora funciona con altísima precisión aunque, dicen los expertos, está incompleto.
Al fin, tras largo búsqueda y trabajo, nos hicieron partícipe del esperado descubrimiento que viene a refrendar el Modelo Estándar que, incompleto aún, con el dichoso Bosón queda mejor conformado al desaparecer uno de los casi veinte parámetros aleatorios que en él están presentes.
Gerard ‘t Hooft, uno de los grandes físicos teóricos de partículas elementales, considera que será muy difícil desarrollar una teoría del todo, un cuerpo teórico capaz de explicar todas las fuerzas que actúan en la naturaleza aunando la Relatividad General de Einstein y la Mecánica Cuántica, tan eficaces por separado en la descripción del macrocosmos y el microcosmos, respectivamente. “Mi impresión es que esta teoría unificadora, una teoría del todo, aún requerirá el trabajo de muchas nuevas generaciones de investigadores jóvenes y listos”, afirma. “No llegaremos a ella de un momento a otro por la simple razón de que el universo es demasiado complejo para que una única teoría lo abarque todo. Vale, no digo que sea imposible, pero me parece muy improbable. Y mientras llega, queda mucho por , incluso hallazgos espectaculares”.
Por otra parte, el científico holandés ha señalado que el LHC realiza más actividades que intentar encontrar el bosón de Higgs. En este sentido, ha destacado que se buscan también partículas que podrían construir la materia oscura, un de materia de la que los físicos tienen la certeza de que es cinco veces más abundante que el universo que la materia ‘normal’, pero que no absorbe, refleja ni emite luz, lo que hace muy difícil su detección y, por tanto, estudiar su naturaleza. Del mismo modo, también se está desarrollando una teoría capaz de unificar la teoría de la relatividad general de Einstein y la mecánica cuántica que, según ha explicado Hooft, “permitiría lo que ocurre dentro de los átomos”.
Recuerdo un pasaje escrito por él al principio de su interesante e instructivo libro “Partículas Elemetales”, que decía:
“Mi intención es narrar los últimos 25 años de investigación sobre las partículas más pequeñas que constituyen la materia. Durante esos 25 años, yo empecé a ver la Naturaleza como un test de inteligencia para toda la humanidad en su conjunto, como un gigantesco con el que podemos jugar. Una y otra vez, nos tropezamos con nuevas piezas, grandes i pequeñas, que encajan maravillosamente con las que ya tenemos. Yo quiero compartir con ustedes la sensación de triunfo que sentimos en esos momentos.”
Tenía la intención (si se presentaba la oportunidad), de preguntarle sobre “su Principio Holográfico” pero, no pudo ser. Sólo pude saludarlo e intercambiar unas breves palabras junto con Ignacio Cirac presente en el evento.
Publicó el principio holográfico, el cual explica que la información de una dimensión extra es visible una curvatura del espacio tiempo con una menos dimensiones. Por ejemplo, los hologramas son imágenes de 3 dimensiones colocadas en una superficie de 2 dimensiones, el cual da a la imagen una curvatura cuando el observador se mueve. Similarmente, en relatividad general, la cuarta dimensión manifestada en 3 dimensiones observables como la curvatura de un sendero de un movimiento de partícula (criterio) infinitesimal. Hooft ha especulado que la quinta dimensión es realmente la fábrica del espacio-tiempo.
Acordaos de que, a mediados del año 2,003 apareció la noticia de que la “información sería el componente fundamental de la naturaleza” postulada por un grupo de físicos entre los que se incluyen el Premio Nóbel danés Gerard t´Hooft y el físico de la Universidad de California Raphael Bousso, basadas en el “Principio Holográfico”. teoría, por singular y chocante que pareciese en su momento ha tenido a lo largo de estos siete años una influencia notable tanto en la sociedad científica como en los círculos alternativos.
Personajes tan influyentes Deepak Chopra sin ir más lejos habla del ámbito cuántico como el campo de información de donde todo lo conocido, materia, emociones, pensamientos. El controvertido joven físico Nassam Haramein defiende un universo basado en el holograma. Científicos japoneses -al igual que del resto del mundo- investigan con hologramas creando imágenes 3D o explican el funcionamiento del mundo físico basado en los campos de energía e información. Hay hasta “farmacología holográfica” a cargo de empresas farmaceúticas. El año pasado el físico Craig Hogan tras la detección de un extraño ruido en el detector de ondas gravitacionalesel GEO 600, afirma que podría probar que, efectivamente, vivimos en un holograma.
La información sería el componente fundamental de la naturaleza. Es la que especifica el cuándo, dónde, cómo y cuánto del espacio, del tiempo y de la materia. El Big Bang que dio lugar al nacimiento del Universo tendría más que ver con una gigantesca “bajada” de bytes de información por parte de un superordenador, que con una explosión masiva de materia, según una nueva teoría que establece que en su origen la naturaleza está formada únicamente por pequeños paquetes de información pura que son los que especifican el cuándo, dónde, cómo y cuánto del espacio, del tiempo y de la materia.
El ser humano continúa con su carrera particular para lo que siempre ha querido saber: quiénes somos y de dónde venimos. Esas dos preguntas esenciales son, en realidad, el motor gracias al cual se mueve gran parte de la investigación científica de todos los tiempos.
En carrera por buscar certezas, cosas tan inquebrantables para explicar el origen del mundo como son los átomos o los quarks están quedando relegados a segundo término para dar paso a nuevas teorías.
Una de las más interesantes, postulada por un grupo de físicos entre los que se incluyen el Premio Nóbel danés Gerard t´Hooft y el físico de la Universidad de California Raphael Bousso, afirma que en el origen de la naturaleza podría haber únicamente ultrapequeños paquetes de información pura.
Aunque parezca raro la información no viaja en un bloque como lo haría una carta, sino que se divide en pequeños paquetes de información, viajando a través de los diferentes canales de la red y llegando todos al mismo punto. Para esto es preciso que todos los ordenadores hablen el mismo idioma, o lo que es decir el Protocolo TCP/IP, (que es el idioma) que en un principio empezó a usarse en 1983 para dirigir el tráfico de los paquetes de información por Arpanet, garantizando así que todos lleguen a su destino.
La @ que parece que nació a partir de internet se utilizaba en la antigüedad, como unidad de peso o incluso para decir a cuanto costaba algo en libros de contabilidad. Sin embargo se puso de moda gracias al ingeniero estadounidense Ray Tomilson, que diseñaba un sistema de correo electrónico para Arpanet, simplemente bajo los ojos al teclado y eligió un signo que no se utilizara en los nombres de usuario.
Según explica al respecto Newsfactor, teoría, basada en el “Principio holográfico”, establece que la información (“información” en este caso significa bits fundamentales de materia y las leyes físicas que los gobiernan) especifica el cuándo, dónde, cómo y cuánto del espacio, del tiempo y de la materia. La información sería pues, una variable para llegar a una “teoría del todo”.
Y, más allá de las cuerdas…
Según la teoría cuerdas, el espacio está descrito por la vibración, en miles de maneras, de diminutas cuerdas de una dimensión. Una cuerda vibrando arriba y abajo a cierta frecuencia podría crear un átomo de helio o una ola gravitacional, tal y las cuerdas de una guitarra crean diferentes sonidos a diferentes frecuencias.
Los teóricos de teoría han mantenido hace mucho tiempo que estas cuerdas son el componente fundamental de la naturaleza. El “Principio Holográfico”, sin embargo, cambia esta noción y mantiene que, mirando más de cerca una cuerda, se ven bits cuánticos, llamados “baldosas de Planck”, que, engarzados, dicen a las cuerdas como tienen que vibrar.
Una de las más interesentes, postulada por un grupo de físicos entre los que se incluyen el Premio Nóbel danés Gerard t´Hooft y el físico de la Universidad de California Raphael Bousso, afirma que en el origen de la naturaleza podría haber únicamente ultrapequeños paquetes de información pura.
Estas “baldosas de Planck” son bits cuadrados que delimitan un “área de Planck”, o lo que es lo mismo, un trillón de un trillón, de un trillón de un trillón de un trillón de un trillón de un centímetro cuadrado. Una cuerda de baldosas de Plank sería la versión natural de un byte.
El “Principio Holográfico”, descrito por Gerard t´Hooft y Leonard Susskind y refinado por Bousso, nos permite saber cuántos (bits y bytes) son necesarios para decirnos en detalle cada cosa que ocurre en cualquier región del espacio.
¡Por imaginación que no quede!
emilio silvera
Abr
19
¿Podría ser el valor de G decreciente?
por Emilio Silvera ~ Clasificado en Las constantes de la Naturaleza ~ Comments (13)
La fuerza gravitatoria que se produce en presencia de masas… ¡No parece variar!
Nadie ha sabido responder a la pregunta de si las constantes de la naturaleza son realmente constantes o llegará un momento en que comience su transformación. Hay que tener en que para nosotros, la escala del tiempo que podríamos considerar muy grande, en la escala de tiempo del universo podría ser ínfima. El universo, por lo que sabemos, tiene 13.700 millones de años. Antes que nosotros, el reinado sobre el planeta correspondía a los dinosaurios, amos y señores durante 150 millones de años, hace ahora de ello 65 millones de años. Mucho después, hace apenas 2 millones de años, aparecieron nuestros antepasados directos que, después de una serie de cambios evolutivos desembocó en lo que somos hoy.
Mucho tiempo ha pasado que esta imagen era el presente, y, sin embargo, para el Universo supone una ínfima fracción marcada por el Tic Tac cósmico de las estrellas y galaxias que conforman la materia de la que provenimos. Es un gran misterio para nosotros que sean las estrellas las que fabrican los materiales que, más tarde, llegan a conformar a seres vivos que, en algunos caso, tienen consciencia.
“La ciencia no puede resolver el misterio final de la Naturaleza. Y esto se debe a que, en el último análisis, nosotros somos del misterio que estamos tratando de resolver”.
Max Planck
De acuerdo con su perspectiva universal, en 1.899 Planck propuso que se construyeran unidades naturales de masa, longitud y tiempo a partir de las constantes más fundamentales de la naturaleza: la constante de gravitación G, la velocidad de la luz c y la constante de acción h, que ahora lleva el de Planck. La constante de Planck determina la mínima unidad de cambio posible en que pueda alterarse la energía, y que llamó “cuanto”. Las unidades de Planck son las únicas combinaciones de dichas constantes que pueden formarse en dimensiones de masa, longitud, tiempo y temperatura. Se conocen las Unidades de Planck.
Planck con sus unidades nos llevo al extremo de lo pequeño
Mp = | (hc/G)½ = | 5’56 × 10-5 gramos |
Lp = | (Gh/c3) ½ = | 4’13 × 10-33 centímetros |
Tp = | (Gh/c5) ½ = | 1’38 × 10-43 segundos |
Temp.p = | K-1 (hc5/G) ½ = | 3’5 × 1032 ºKelvin |
Estas formulaciones con la masa, la longitud, el tiempo y la temperatura de Planck incorporan la G (constante de gravitación), la h (la constante de Planck) y la c, la velocidad de la luz. La de la temperatura incorpora además, la K de los grados Kelvin.
“Estas cantidades conservarán su significado natural mientras la Ley de Gravitación y la de Propagación de la luz en el vacío y los dos principios de la termodinámica sigan siendo válidos; por lo tanto, siempre deben encontrarse iguales sean medidas por las inteligencias más diversas con los métodos más diversos.”
Planck, en sus palabras finales alude a la idea de observadores en otro lugar del universo que definen y entienden estas cantidades de la misma manera que nosotros, ya que, al ser números naturales que no inventaron los hombres, todos los seres inteligentes del Universo tendrían que hallar el mismo resultado. No importa en qué planeta pudieran habitar, si son seres inteligentes, empleando los grafos más extraños que a nosotros nada nos pudiera decir, lo cierto es que hay un lenguaje universal: ¡Las matemáticas! que, independientemente de los guarismos empleados, al final de todo 2 x 5 = 10 y 2 + 2 + 2 + 2 + = 10. Empleen las ecuaciones o fórmulas que puedan con los números que puedan utilizar, no podrán variar los resultados de los números puros y adimensionales creados por la Naturaleza: Esas constantes que persisten en el tiempo y nunca cambian y que hacen de nuestro universo el que podemos observar, además de posible la vida. A esos extraterrestres, también, la constante de estructura fina le daría 1/137.
“La creciente distancia entre la imagen del mundo físico y el mundo de los sentidos no significa otra cosa que una aproximación progresiva al mundo real.” Nos decía Planck. Su intuición le llevaba a comprender que, con el paso del tiempo, nosotros estaríamos adquiriendo por medio de pequeñas mutaciones, más amplitud en nuestros sentidos, de manera tal que, sin que nos diéramos nos estábamos acercando más y más al mundo real.
Una de las paradojas de nuestro estudio del universo circundante es que a medida que las descripciones de su funcionamiento se hacen más precisas y acertadas, también se alejan vez más de toda la experiencia humana.Nuestros sentidos nos traicionan y nos hacen ver, a través de nuestras mentes, un mundo distinto al real, es decir, nosotros configuramos nuestra propia “realidad” de esa otra realidad verdadera que está presente en la Naturaleza y que no siempre podemos contemplar y, cuando llegamos a contemplarla, no llegamos a comprenderla… del todo.
No debemos descartar la posibilidad de que seamos capaces de utilizar las unidades de Planck-Stoney para clasificar todo el abanico de estructuras que vemos en el universo, el mundo de las partículas elementales hasta las más grandes estructuras astronómicas. Este fenómeno se puede representar en un gráfico que recree la escala logarítmica de tamaño desde el átomo a las galaxias. Todas las estructuras del universo existen porque son el equilibrio de fuerzas dispares y competidoras que se detienen o compensan las unas a las otras; la atracción y la repulsión. Ese es el equilibrio de las estrellas donde la repulsión termonuclear tiende a expandirla y la atracción (contracción) de su propia masa tiende a comprimirla; así, el resultado es la estabilidad de la estrella. En el caso del planeta Tierra, hay un equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos. Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e, h, c, G y mprotón.
Grandes cúmulos de galaxias
La identificación de constantes adimensionales de la naturaleza α (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momento en mundos diferentes del nuestro. Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios. Los átomos pueden tener propiedades diferentes. La gravedad tener un papel en el mundo a pequeña escala. La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.
Todos los físicos del mundo, sin excepción, deberían tener en el lugar más prominente de sus casas, un letrero con un número: 137. Así les recorfdaría lo que no sabemos. Dentro de ese número puro adimensional están escondidos los secretos del electromagnetismo (e), del cuanto de acción de Planck (h), es decir, la mecánica cuántica, y, también, la misteriosa y fantástica relatividad (c), la velocidad de la luz. Para los científicos de un mundo remoto, perdido en una galaxia en los confines del universo, sin importar qué signos pudieran emplear para hallar la respuesta, al final de sus estudios, tambhién a ellos, les surgiría el número 137, la constante de estrucutra fina que tantos secretos esconde.
Lo único que en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck). Si se duplica el valor de todas las masas no se llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.
Extraños mundos que pudieran ser
Después llegó Dirac (el que predijo la existencia del positrón) y, por una serie de números y teorías propuestas Eddintong en aquellos tiempos, decidió abandonar la constancia de la constante de gravitación de Newton, G. Sugirió que estaba decreciendo en proporción directa a la edad del universo en escalas de tiempo cósmicas. Es decir, la Gravedad en el pasado era mucho más potente y se debilitaba con el paso del tiempo.
Así pues, en el pasado G era mayor y en el futuro será menor que lo que mide hoy. veremos que la enorme magnitud de los tres grandes números (1040, 1080 y 10120) es una consecuencia de la gran edad del universo: todas aumentan con el paso del tiempo.
La propuesta de Dirac provocó un revuelo entre un grupo de científicos vociferantes que inundaron las páginas de las revistas especializadas de cartas y artículos a y en contra. Dirac, mientras tanto, mantenía su calma y sus tranquilas costumbres, pero escribió sobre su creencia en los grandes números cuya importancia encerraba la comprensión del universo con palabras que podrían haber sido de Eddington, pues reflejan muy estrechamente la filosofía de la fracasada “teoría fundamental”.
“¿No cabría la posibilidad de que todos los grandes sucesos presentes correspondan a propiedades de este Gran [1040] y, generalizando aún más, que la historia entera del universo corresponda a propiedades de la serie entera de los números naturales…? Hay así una posibilidad de que el viejo sueño de los filósofos de conectar la naturaleza con las propiedades de los números enteros se realice algún día”.
La propuesta de Dirac levantó controversias entre los físicos, y Edward Teller en 1.948, demostró que si en el pasado la gravedad hubiera sido como dice Dirac, la emisión de la energía del Sol habría cambiado y la Tierra habría mucho más caliente en el pasado de lo que se suponía normalmente, los océanos habrían estado hirviendo en la era precámbrica, hace doscientos o trescientos millones de años, y la vida tal como la conocemos no habría sobrevivido, pese a que la evidencia geológica entonces disponible demostraba que la vida había existido hace al menos quinientos millones de años.
George Gamow
Edward Teller
El eufórico George Gamow era buen amigo de Teller y respondió al problema del océano hirviente sugiriendo que podía paliarse si se suponía que las coincidencias propuestas por Dirac eran debidas a una variación temporal en e, la carga del electrón, con e2 aumentando con el tiempo requiere la ecuación.
Por desgracia, la propuesta de Gamow de una e variable tenía todo de consecuencias inaceptables para la vida sobre la Tierra. Pronto se advirtió que la sugerencia de Gamow hubiera dado como resultado que el Sol habría agotado hace tiempo todo su combustible nuclear, no estaría brillando hoy si e2 crece en proporción a la edad del universo. Su valor en el pasado demasiado pequeño habría impedido que se formaran estrellas como el Sol. Las consecuencias de haber comprimido antes su combustible nuclear, el hidrógeno, hubiera sido la de convertirse primero en gigante roja y después en enana blanca y, por el camino, en el proceso, los mares y océanos de la Tierra se habrían evaporado y la vida habría desaparecido de la faz del planeta.
Gamow tuvo varias discusiones con Dirac sobre estas variantes de su hipótesis de G variable. Dirac dio una interesante respuesta a Gamow con respecto a su idea de la carga del electrón, y con ello la constante de estructura fina, pudiera estar variando.
Recordando sin duda la creencia inicial de Eddington en que la constante de estructura fina era un racional, escribe a Gamow en 1.961 hablándole de las consecuencias cosmológicas de su variación con el logaritmo de la edad del universo.
“Es difícil formular cualquier teoría firme sobre las etapas primitivas del universo porque no sabemos si hc/e2 es constante o varía proporcionalmente a log(t). Si hc/e2 fuera un entero tendría que ser una constante, pero los experimentadores dicen que no es un entero, de modo que bien podría estar variando. Si realmente varía, la química de las etapas primitivas sería completamente diferente, y la radiactividad también estaría afectada. Cuando empecé a trabajar sobre la gravedad esperaba encontrar alguna conexión ella y los neutrinos, pero esto ha fracasado.”
En mecánica cuántica, el comportamiento de un electrón en un átomo se describe por un orbital, que es una distribución de probabilidad más que una órbita. En la figura, el sombreado indica la probabilidad relativa de «encontrar» el electrón en punto cuando se tiene la energía correspondiente a los números cuánticos dados. Pensemos que si la carga del electrón variara, aunque sólo fuese una diezmillonésima , los átomos no se podrían constituir, las moléculas consecuentemente tampoco y, por ende, ni la materia… ¡Tampoco nosotros estaríamos aquí! ¡Es tan importante el electrón!
Dirac no iba a suscribir una e variable fácilmente, como solución al problema de los grandes números. Precisamente, su científico más importante había hecho comprensible la estructura de los átomos y el comportamiento del electrón, y dijo que existía el positrón. Todo ello basado en la hipótesis, compartida por casi todos, de que e era una verdadera constante, la misma en todo tiempo y todo lugar en el universo, un electrón y su carga negativa eran exactas en la Tierra y en el más alejado planeta de la más alejada estrella de la galaxia Andrómeda. Así que Gamow pronto abandonó la teoría de la e variable y concluyo que:
“El valor de e se mantiene en pie el Peñón de Gibraltar durante los últimos 6×109 años.”
El Peñón de Gibraltar, tan familiar e inamovible decía Dirac
Pero lo que está claro es que, ocurre siempre en ciencia, la propuesta de Dirac levantó una gran controversia que llevó a cientos de físicos a realizar pruebas y buscar más a fondo en el problema, lo que dio lugar a nuevos detalles importantes sobre el tema.
Alain Turing, pionero de la criptografía, estaba fascinado por la idea de la gravedad variable de Dirac, y especuló sobre la posibilidad de probar la idea a partir de la evidencia fósil, preguntando si “un paleontólogo podría decir, a partir de la huella de un animal extinto, si su peso era el que se suponía”.
El gran biólogo J.B.S. Haldane se sintió también atraído por las posibles consecuencias biológicas de las teorías cosmológicas en que las “constantes” tradicionales cambian con el paso del tiempo o donde los procesos gravitatorios se despliegan de acuerdo con un reloj cósmico diferente del de los procesos atómicos (¿será precisamente por eso que la relatividad general – el cosmos –, no se lleva con la mecánica cuántica – el átomo –?).
Tales universos de dos tiempos habían sido propuestos por Milne y fueron las primeras sugerencias de que G podría no ser constante. Unos procesos, la desintegración radiactiva o los ritmos de interacción molecular, podrían ser constantes sobre una escala de tiempo pero significativamente variables con respecto a la otra. Esto daba lugar a un escenario en el que la bioquímica que sustentaba la vida sólo se hacía posible después de una particular época cósmica, Haldane sugiere que:
“Hubo, de hecho, un momento en el que se hizo posible por primera vez vida de cualquier tipo, y las formas superiores de vida sólo pueden haberse hecho posibles en una posterior. Análogamente, un cambio en las propiedades de la materia puede explicar algunas de las peculiaridades de la geología precámbrica.”
Este imaginativo escenario no es diferente del que se conoce como “equilibrio interrumpido”, en el que la evolución ocurre en una sucesión discontinua de brotes acelerados entre los que se intercalan largos periodos de cambio lento. Sin embargo, Haldane ofrece una explicación para los cambios.
Lo que tienen en común todas estas respuestas a las ideas de Eddington y Dirac es una apreciación creciente de que las constantes de la naturaleza desempeñan un papel cosmológico vital:
Existe un lazo entre la estructura del universo en conjunto y las locales internas que se necesitan para que la vida se desarrolle y persista. Si las constantes tradicionales varían, entonces las teorías astronómicas tienen grandes consecuencias para la biología, la geología y la propia vida.
No podemos descartar la idea ni abandonar la posibilidad de que algunas “constantes” tradicionales de la naturaleza pudieran estar variando muy lentamente el transcurso de los miles de millones de años de la historia del universo. Es comprensible por tanto el interés por los grandes números que incluyen las constantes de la naturaleza. Recordemos que Newton nos trajo su teoría de la Gravedad Universal, que más tarde mejora Einstein y que, no sería extraño, en el futuro mejorará algún otro con una nueva teoría más completa y ambiciosa que explique lo grande (el cosmos) y lo pequeño (el átomo), las partículas (la materia) y la energía por interacción de las cuatro fuerzas fundamentales.
¿Será la teoría de Supercuerdas ese futuro?
emilio silvera
Abr
19
!El extraño Universo! ¡El Universo cotidiano!
por Emilio Silvera ~ Clasificado en El Universo y los pensamientos ~ Comments (0)
¿Que serán, estos extraños cuerpos. Lo llaman Objeto de Hanny es una extraña y brillante de gas verde que, en su momento, intrigó a los astrónomos desde que se descubrió en 2007. La nube destaca cerca de una galaxia espiral porque un cuásar (un agujero negro supermasivo) en su núcleo la ha iluminado como si fuera un foco. En su momento, como cada vez que se descubren objetos misteriosos, fue estudiada con mucho más detalle gracias a las tomadas por el telescopio Hubble, que fueron expuestas en Seattle (EE UU).
Considerado uno de los objetos más extraños de los muchísimos observados en el espacio, en Hanny’s Voorwerp (en holandés), que tiene el tamaño de la Vía Láctea, el Hubble pudo descubrir delicados filamentos de gas y un grupo de cúmulos de jóvenes estrellas. El color verde de la se debe al oxígeno ionizado.
Su descubridora, Hanny van Arkel, explicó en su blog que está encantada de asistir a la reunión de la Sociedad Americana de Astronomía , donde se presentaron las nueva imágenes, y en general, de haber entrado en con el mundo de la astronomía. Ella es una profesora que descubrió la estructura celeste en 2007 mediante el proyecto Galaxy Zoo, que estimula la participación de no especialistas para que ayuden a clasificar las más de un millón de galaxias catalogadas en el Sloan Digital Sky Survey y las captadas por el propio Hubble en sus de campo profundo. Lo cierto es que la labor callada de los aficionados a la astronomía, no siempre es bien conocida y, desde luego, tampoco reconocida como se merece.
Un astrónomo persa, al-Sufi (Azophi), ha sido reconocido como el primero en describir el débil fragmento de luz en la constelación Andrómeda que sabemos que es una galaxia compañera de la nuestra. En 1780, el astrónomo francés Charles Messier publicó una lista de objetos no estelares que incluía 32 objetos que son, en realidad, galaxias. Estas galaxias se identifican ahora por sus números Messier (M); la galaxia Andrómeda, por ejemplo, se conoce entre los astrónomos como M31.
En la primera parte del siglo XIX, miles de galaxias fueron identificadas y catalogadas por William y Caroline Herschel, y John Herschel. 1900, se han descubierto en exploraciones fotográficas gran cantidad de galaxias. Éstas, a enormes distancias de la Tierra, aparecen tan diminutas en una fotografía que resulta muy difícil distinguirlas de las estrellas. La mayor galaxia conocida tiene aproximadamente trece veces estrellas que la Vía Láctea.
En 1912 el astrónomo estadounidense Vesto M. Slipher, trabajando en el Observatorio Lowell de Arizona (EEUU), descubrió que las líneas espectrales de todas las galaxias se habían desplazado la región espectral roja. Su compatriota Edwin Hubble interpretó esto como una evidencia de que todas las galaxias se alejaban unas de otras y llegó a la conclusión de que el Universo se expandía. No se sabe si continuará expandiéndose o si contiene materia suficiente para frenar la expansión de las galaxias, de forma que éstas, finalmente, se junten de , parece que ésto último no sucederá nunca. La materia del Universo pararece estar aproximadamente en la tasa de la Densidad Crítica.
Andrómeda se está acercando a la Vía Láctea a unos 300 kilómetros por segundo, y se cree que de aquí a aproximadamente unos tres mil de años podría colisionar con la nuestra y fusionarse ambas una galaxia elíptica gigante. Claro que, no se está de acuerdo con la velocidad a la que Andrómeda, se acerca a nosotros. Según algunos cálculos, podría llegar cuando nuestro Sol, esté en la agonía de su final para convertirse en gigante Roja primero y enana Blanca después, y, si es así, poco nos importará ya a nosotros que no estaremos por aquí.
La semilla desde la que se desarrolló nuestro Universo fue una Bola de fuego de pura energía inmensamente densa e inmensamente caliente. La es, ¿cómo llegó esta bola de fuego hasta el tipo de materia bariónica que podemos ver alrededor de todos nosotros, mientras el Universo se expandía y se enfriaba? O, si se prefiere ¿de donde salieron los quarks y los leptones? Y, puestos a preguntar, esa materia oscura de la que tanto hablamos, ¿estaba ya allí cuando llegó la bariónica? Si no fuese , ¿cómo se puedieron formar las Galaxias?
Creemos que conocemos la , aunque, en realidad, lo que sí tenemos es un modelo de que cómo creemos que sucedió, ya que, como a menudo es el caso de las historias, la explicación es más especulativa cuanto más atrás en el tiempo miremos y, en el caso del Universo, esto también corresponde a las energías más altas que se tienen que considerar.
Nos vamos atrás en el tiempo y ponemos señales y nombres como los del límite y tiempo de Planck, era hadrónica (quarks: protones y neutrones, etc.) y era leptónicas (electrones, muones y partícula tau con sus neutrinos asociados). Ahí amigos, está toda la materia que podemos ver. Sin embargo, ¿qué sabemos en realidad de la materia? No olvidemos que de la materia llamada inerte, provenimos nosotros cuyos materiales fueron fabricados en los nucleares de las estrellas.
Imagen : El análisis de la imagen WMAP de todo el cielo sugiere que el universo es mayor de 13.7 millones de años (con una precisión del 1%). Se compone de 73% de energía oscura, 23% de la materia oscura fría, y sólo el 4% de los átomos. En la actualidad se expande a una velocidad de 71 km/s / Mpc (con una precisión del 5%), se elevó por episodios de rápido crecimiento llamado inflación y crecer para siempre. Crédito: Equipo de WMAP Ciencia, la NASA
Estas sombras serían una especie de eco del big bang en las microondas, lo que pone en duda la validez de la popular teoría sobre el origen del Universo. El se publicó en la edición del 1 de septiembre de 2006 del Astrophysical Journal.
El estudio se basó en observaciones realizadas con el observatorio orbital de la NASA WMAP (Wilkinson Microwave Anisotropy Probe – Wilkinson de la anisotropía en microondas), que tiene como objetivo estudiar la radiación cósmica de fondo. Para ello se estudiaron las sombras dejadas en esta radiación cósmica de fondo por 31 cúmulos de galaxias.
El Dr Lieu expresa que “Estas sombras son algo bien conocido que había sido previsto hace años”, y es “el único método directo para determinar la distancia al origen de la radiación cósmica de fondo”, hasta toda la evidencia apuntaba a que era originada por una gran bola de fuego denominada big bang y ha sido circunstancial.
Lieu menciona también que “si usted ve una sombra, indica que la radiación viene más allá del cúmulo de galaxias, y si no las ve, hay un problema, entre los 31 cúmulos estudiados, algunos mostraron el efecto de sombra y otras no”.
En estudios previos, se han reportado la presencia de este tipo de sombras en la radiación cósmica de fondo, estos estudios sin embargo no usaron los proporcionados por el WMAP el cual está diseñado y construido específicamente para estudiar esta radiación de fondo.
Si la teoría estándar de la creación del Universo o Big Bang es la correcta y la radiación cósmica de fondo viene a la Tierra desde los confines del Universo, los cúmulos masivos de galaxias que emiten rayos X, cercanos a la Vía Láctea, deberían todos, la presencia de estas sombras en la radiación cósmica de fondo.
Los científicos aseguran también que basados en todo el conocimiento, hasta , de las fuentes de radiación y halos alrededor de los cúmulos de galaxias, es imposible que estos cúmulos galácticos puedan emitir microondas a una frecuencia e intensidad idénticos a la radiación cósmica de fondo.
Rashid Sunyaev Yakov Zel’dovich
La de la radiación cósmica de fondo data del año 1948 y fue descubierta en 1965. La predicción del efecto de sombra fue realizada en 1969, por los científicos rusos Rashid Sunyaev y Yakov Zel’dovich. El efecto se crearía de la siguiente forma: los cúmulos de galaxias emiten luz en rayos X por acción de la gravedad de su centro, que atrapa gas y lo calienta enormemente. Este gas es tan que pierde sus electrones, o sea que se ioniza, produciendo, a su vez, enormes espacios llenos de electrones libres. Estos electrones libres interactúan con los fotones individuales de la radiación cósmica de , originando con esto la desviación de sus trayectorias originales y produciendo el efecto de sombra.
Como vereis, siempre habrán motivos más que sobrados para la polémica y, a medida que se avanza la polémica crece, toda vez que, esos avances, dejan al descubierto muchas de las creencias largamanete asentadas que , con las nuevas tecnologías, podemos descubrir que, en realidad, eran distintas de como se habían imaginado.
Si hablamos del Universo no podemos olvidar “El Tiempo” con su inseparablñe compañera, “la Entropía” destructora de todo lo que existe que, a medida que el primero transcurre, la segunda lo transforma todo. Debemos aprovechar ese corto espacio de tiempo que nos otorga el transcurrir entre las tres de arriba, sin no sabemos aprovecharlos…¿para qué estamos aquí? ¿Acaso será cierto que todo comenzó con la explosión de una singularidad que lo que llamamos bis bang?
Sí, es posible que todo comenzara así. Sin embargo, nadie lo puede asegurar. Y, algunosm dicen que somos uno de tantos universos que en el Multiverso están. Si eso fuera así ¿Habrá otros seres en esos otros universos? En las imagenes de abjo os pongo dos bellezas, una bionita Nebulosa y la Tierra que nos acoge, sin embargo, en el ámbito cercano y familiar, podemos encontrar más bellas. Bueno, al, menos yo, tengo varias.
¿Será ésta la última frontera? No, creo que no, el Universo que nosotros conocemos, por muchom que corramos tras él, nunca podremos alcanzar el final. Siendo así, hablar de la última frontera, es…, al menos, arriesgado. No conocemos bien ni los objetos que pueblan nuestro propio solar, esos mundos enormes y gaseosos que, a su vez, están rodeados de otros pequeños mundos en los que, posiblemente, la vida esté presente. Sin embargo, nos permitimos hablar de los confines del Universo situados en lugares inaccesibles para nosotros. Bueno, al menos de momento.
Contemplar una flor, un paisaje, sentir la brisa del Mar, mirar las estrellas… ¡No cuesta y alimenta el espíritu! ¿Os dais cuenta? La Naturaleza, el Corazón, los sentimientos… ¡Todo forma parte de lo mismo!
El poco tiempo que estamos aquí, si podemos disfrutar de como ésta, de nuestra amiga Anadelagua, lo podemos dar por bien empleado. Vistas así consiguen sacar de nosotros lo mejor y, si eso es así (que lo es), mirémosla durante un largo rato.
¡Que sentimiento de paz! ¡De simbiosis con la Naturaleza!
Abr
18
Siempre aprendiendo
por Emilio Silvera ~ Clasificado en El saber: ¡Ese viaje interminable! ~ Comments (0)
¡NO! Así no podemos avanzar, que nos dejen libres para pensar, para poder “ver”. La creatividad del pensamiento tiene que estar sólo supeditada al libre albedrío de cada cual. Así ha estado avanzando el mundo desde que…tenemos noticias de todas aquellas civilizaciones que fueron y que, expresaron sus para que nosotros, muchos años más tarde, las pudiéramos desarrollar. Sin aquellos conocimientos no serían posibles éstos.
Qué verdad es, nunca te acostarás sin algo nuevo. Aquí, en este mismo lugar, ocurre eso con frecuencia y, de vuestros comentarios he obtenido a veces conclusiones en las que, por mí mismo, no habría pensado. Como se suele decir, cuatro ojos ven más que dos.
Por ejemplo, en el trabajo que denominé ¿Qué haríamos sin la Física?, aparte de otras muchas intervenciones, me llamó la atención la de Fandila (14.2.1) en la que se refiere a la fotónica y la cuántica y llega a preguntarse si no debería llamarse “cuantónica”. Kike (14.2.1.1) que entabla el diálogo con él, lleva la conversación al del avance de la Ciencia a la que compara con la evolución de las especies. Ambos llevan su parte de razón.
Muchos de los problemas que surgen en de la Física moderna han sido abordados mediante su modelado e implementación en ordenadores, donde hay aplicaciones que requieren una enorme capacidad de cálculo. Prácticamente en todas las disciplinas de la Física se requiere obtener soluciones a problemas que consisten en la optimización de funciones en un determinado espacio de búsqueda. En otras palabras, muchas aplicaciones en Física consisten en solucionar problemas de optimización, que en numerosas ocasiones no se pueden abordar con herramientas matemáticas clásicas, debido a la complejidad del espacio de búsqueda, o de la función objetivo, o ambas cosas a la vez.
Algoritmos genéticos
para la optimización de funciones no tan sencillas.
Nos dice el Autor del programa: “En este programa incluí algunas mejoras para “optimización de funciones sencillas”, la función que viene implementada está dada por: f(x,y)=x^2+2*y^2-0.3*cos(3*PI*x)-0.4*cos(4*PI*y)+0.7
Este hecho fue constatado prácticamente desde el advenimiento de los ordenadores como herramienta fundamental en la ciencia moderna. Así, ya en los años 60 surgieron diversas herramientas para solucionar problemas de optimización no abordables con técnicas clásicas, entre ellas algoritmos que imitiban comportamientos de la naturaleza. Específicamente, se comprobó que el paradigma de la selección natural y supervivencia del más fuerte (pieza clave de las teorías Darwinianas sobre la evolución de las especies) podía ser fácilmente reproducible en un ordenador, y aplicable a la resolución de estos problemas de optimización difíciles.
Siempre hemos sabido soluciones
Está claro que, ante la adversidad, la mente humana siempre se ha crecido y, en este caso de la computación no podía ser de otra manera, así que, cuando se llegó a un nivel de imposible resolución por los métodos clásicos, surgió la necesidad de un nuevo paradigma de computación, que proddujo la generación de algoritmos capaces de obtener soluciones de buena calidad en estos casos de optimización difíciles. Diversos investigadores se concentraron en la imitación de sistemas naturales para resolver estos problemas, generando los diversos algoritmos que forman parte de la computación evolutiva.
Pongamos un ejemplo:
Hallá por el mes de febrero de 2009, pude asistir a un Seminario que tuvo lugar en la Universidad III donde mi hijo Isat Estudiaba Derecho ADE, y con el Título de Computación Evolutiva y Algoritmos basados en las hormigas para la inteligencia artificial, pude disfrutar de un tiempo mágico que me transportó al futuro. La reseña que salió fue la siguiente:
“La Inteligencia Artificial (IA) vive una segunda juventud, según lo visto en el Seminario Internacional sobre el tema celebrado en la Universisdad Carlos III de Madris, donde han presentado nuevas técnicas de computación evolutiva, algoritmos basados en hormigas para, el manejo de robots, o, posibles de la IA a la economía, los juegos, y la fusión de datos.
El campo de la Inteligencia Artificial ha cambiado mucho desde los años setenta, cuando se aspiraba a encontrar el “solucionador general de problemas”, un algoritmo, programa o sistema que permitiera resolver de formar autónoma cualquier problema. “A día de hoy se piensa que no existe y que lo que tenemos es un conjunto de algoritmos y sistemas que en su conjunto denominamos técnicas de Inteligencia Artificial”, explica el José Manuel Molina, organizador del Segundo Seminario Internacional sobre Nuevas Cuestiones en Inteligencia Artificial promovido por los cuatro grupos de Inteligencia Artificial del departamento de Informática, celebrado del 2 al 6 de febrero en la Universidad Carlos III de Madrid (UC3M).
Entre Darwin y hormigas inteligentes
Son mucho más inteligentes de lo que creemos, juzgar por el tamaño… no sería aconsejable.
Allí han presentado sus trabajos algunos expertos internacionales en la materia, que cada vez encuentra relaciones y aplicaciones más sorprendentes. La Teoría de la Evolución de Charles Darwin, por ejemplo, podría aplicarse a la resolución de problemas con ordenadores. En eso trabaja el investigador del Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional (Méjico), Carlos Coello, un especialista en técnicas de optimización multiobjetivo de procesos complejos en ingeniería mediante técnicas genéticas. Otro invitado al seminario, Silvano Cincotti, de la Universidad de Genova (Italia) explicó cómo se pueden estas técnicas a la economía actual y fundamentalmente cómo modelar la realidad utilizando agentes inteligentes.
¿Computación Evolutiva? Hasta dónde llegaremos?
La presencia de la naturaleza en la Inteligencia Artificial no acaba en la denominada computación evolutiva. Otro científico de la Universidad Libre de Bruselas (Bélgica) que impartió un seminario en esta reunión, Dorigo, presentó el algoritmo de optimización basado en colonias de hormigas que inventó, que consiste en una técnica probabilística para resolver determinados problemas de computación. Este algoritmo, que puede utilizarse para manejar pequeños grupos de robots, forma parte de la ” Swarm Intelligence ” (inteligencia basada en enjambres), famosa a raíz del Presa del recientemente fallecido Michael Crichton. Esta especialidad busca el desarrollo de comportamientos complejos a partir de la interacción de un conjunto de agentes que tienen unas reglas de actuación muy sencillas. La unión hace la fuerza.
La conclusión más importante que se ha podido extraer del seminario celebrado en la UC3M es que la Inteligencia Artificial es un área que no tiene un único objetivo, si no que ha incorporado muchas técnicas diferentes para conseguir dotar de cierta inteligencia algunas soluciones. “La técnica es una función del problema y así hay técnicas para que las máquinas puedan de la experiencia, que identifiquen a las personas, que interpreten el entorno, que razonen las acciones más prometed oras, etc”, explica Molina, que dirige el grupo de investigación de Inteligencia Artificial Aplicada de la UC3M. El mayor reto, explica, es que las máquinas sean capaces de realizar tareas que no estén preprogramadas, para que puedan elaborar una estrategia que va más allá de lo pensado en un principio.
La , aunque no refleje la realidad exacta…, se acerca bastante
Está claro que, pretendemos imitar la naturaleza y , la Inteligencia Artificial evolucione como lo hicimos nosotros mismos, y, si eso se consigue…¿Qué podrá pasar en el futuro?
El mayor problema al que se enfrentan los científicos en este área es la necesidad de sistematizar toda la investigación que se está llevando a cabo en Inteligencia Artificial en todo el mundo para poder unificar las diferentes técnicas que se desarrollan. “La idea es una integración y sinergias que permitan ver ese conjunto de técnicas como un todo”, explica el profesor Molina, aunque aclara que la percepción que se tiene sobre este tema a nivel social es bastante diferente porque se espera mucho de la IA, tal vez por lo que se ve en las películas de ciencia ficción. “La gente ya espera ver a R2D2 por la calle y todavía queda mucho para eso”, concluye.”
Tendremos que esperar un poco
A partir de todo esto quise profundizar un poco en el y, me leí múltiples trabajos de autores especializados que me posibilitaron tener una idea más clara y profunda de hasta donde podemos llegar en el futuro que, de seguir por el camino emprendido, pocos límites tendrá eso que llaman la Inteligencia artificial Evolutiva.
Por otra parte, desde hace algunos años, existe la convicción de que buena parte del desarrollo tecnológico del futuro dependerá de nuestra capacidad para fabricar dispositivos con un tamaño comprendido entre el de los átomos (< 1 nm) y el de los dispositivos actuales (≈ 100 nm). Con estas dimensiones la materia presenta comportamientos peculiares, en muchos casos de origen cuántico, que no resultan de una extrapolación de sus propiedades macroscópicas (mecánicas, electrónicas, magnéticas, químicas y ópticas) y que, por ello, son a menudo sorprendentes.
Modelo de la estructura molecular de un ribosoma
Estas dimensiones corresponden al territorio límite entre la química molecular y supremolecular y la física del estado sólido para unas pocas celdas unidad. El estudio de la materia a escala nanométrica y su utilización para la fabricación de componentes y dispositivos con prestaciones avanzadas y novedosas reciben el nombre respectivamente de nanociencia y nanotecnología.
Nano alude a la nanómetro, una unidad de longitud que equivale a la millonésima parte de un milímetro. Por ende, entonces, este prefijo indica el estudio de las diversas disciplinas a nivel atómico y molecular. Pero… ¿cuántos átomos equivalen a un nanómetro? Tan solo entre tres y cinco.
En este sentido, estamos en de comenzar a distinguir algunos de los conceptos que enumeramos anteriormente. Por un lado, la nanociencia se encarga del estudio de las propiedades y los fenómenos a escala nanométrica. La nanotecnología, por su parte, sería la encargada de la manipulación y producción de materiales, estructuras y sistemas a tal escala. Sin embargo, el límite entre nanociencia y nanotecnología resulta cada vez menos tangible. En simples palabras, se puede decir que la nanotecnología utiliza el conocimiento científico proporcionado por la nanociencia para la manipulación y producción de diversos materiales (por medio de complejas tecnologías). Por esta razón, es posible la utilización de tales conceptos de forma equivalente (aunque no por eso sea correcta).
Es por esto que muchos de los avances que hoy se encuadran bajo el nombre de “nanotecnología” no son más que nanociencia, porque sientan las bases para el futuro desarrollo de una tecnología que permita la manipulación de átomos y moléculas. Sin embargo, sería incorrecto decir que en la actualidad no hay ningún desarrollo nanotecnológico (aunque sí se puede afirmar que sus aplicaciones son reducidas, teniendo en cuenta lo mucho que se espera de las mismas), porque entre ellos se pueden mencionar el térmico (desarrollado en 2004 por Aspen Aeogels), los colchones que repelen sudor y polvo, los cosméticos personales ajustados a edad, raza, sexo, tipo de piel y actividad física, y los vestidos que impiden las infecciones en heridos y quemados, entre algunos otros.
Curiosamente, existe una creencia arraigada en amplios sectores de la comunidad cinetífica de que la Fotónica (conjuntos de tecnologías relacionadas con la Luz) es un campo que cae fuera del universo de la nanotecnología. La creencia se apoya en el clásico criterio de Rayleigh de que la resolución espacial de un óptico está limitada por la olongitud de onda de luz (≈ 500 nm) y por ello es próxima al micrómetro, muy lejos de los requisitos de la nanotecnología. Esta visión es sin duda errónea y hoy en día la fotónica está íntimamente implicada con la nanotecnología e incluso se puede hablar propiamente de nanofotónica, de un modo similar a como se habla de nonoelectrónica o nanomagnetismo.
Como antecedente de esta sinergia recordemos que la espectroscópica óptica constituyó una herramienta fundamental en el descubriomiento de la estructura atómica de la materia y de la física cuántica. Desde una perspectiva más aplicada y espectacular cabe mencionar la utilización de nanopartículas metálicas para colorear el vidrio en tiempos de los romanos (como la famosa vasija de Ligurco del siglo IV) Esta técnica se volvió a recuperar a finales de la Edad Media y se , por ejemplo, para colorear las vidrieras de las Catedrales.
La invisibilidad ya es un hecho del pasado que no pertence unicamente a la ficción con la realización de materiales en tres dimensiones que permiten hacer desaparecer objetos y no precisamente es magia, sino que son capaces de desviar la luz visible. Se han realizado experimentos con nano objetos es decir con 1 millonesima de milímetro, y segun los resultados, nada impide el mismo principio para hacer invisible a una persona, un tanque o un incluso un petrolero. Estos metamateriales (Que desvian la luz) deben inclinar la luz alrededor del objeto, de manera que lo envuelva y después recupere su forma original. El observador ya no ve la perturbación en la luz y de esta manera el objeto desaparece a a su vista. Aunque una de las más inmediatas de estos metamateriales podría ser la construcción de lentillas especiales que permitan ver hasta un virus o las moléculas del ADN, lo que excita más la imaginación tiene que ver con la invisibilidad descrita por autores como H.G. Wells “El hombre invisible”.
Se ha construído el microscopio electrónico más potente del mundo mediante la captación de las ondas evanescentes de luz con bolas de vidrio que es la base de esa tecnología. El uso de la luz visible, para observar los objetos de ese diminuto tamaño, rompe en cierto modo las reglas lumínicas, donde existe una propiedad física llamada límite de difracción que establece lo más pequeño que el ojo puede captar. Las ondas de luz se expanden hacia fuera de forma natural e inevitable por lo que limitan el en que pueden ser enfocadas, y por ende, el tamaño del objeto que pueden reflejar.
Los métodos de campo cercano permiten examinar y resolver patrones de iluminación de dimensiones nanométricas con técnicas ópticas. Esto es posible con la utilización de las ondas evanescentes en la vecindad del patrón. A larga distancia (región de Franhoufer) estas ondas desaparecen y peredemos información clave del objeto, la asociada a las componentes periodicas de alta frecuencia espacial o pequeño período. Naturalmente que para introducirse en la zona de ondas evanescentes y detectarlas se hace preciso a las técnicas de micro y nano-mecánica de forma que podamos físicamente a ellas.
¿Qúe no podremos hacer cuando conozcamos la naturaleza real del átomo y de la luz? El fotón, ese cuánto de luz que parece tan insignificante, nos tiene que dar muchas satisfacciones y, en él, están escondidos secretos que, cuando sean revelados, cambiará el mundo.
Concretamente, la microscópica óptica de barrido de cuerpo cercano, se ha desarrollado utulizando diferentes configuraciones para obetener con una resolución espacial de unas decenas de nanómetros. La tecnología necesaria para el posicionamiento a escala nanométrica estaba ya disponible desde la invención del microscopio electrónico de barrido por efecto túnel.
Lo primero que hay que mencionar es que hablamos de poder manipular los átomos y las moléculas de forma individual, colocándolos en posiciones concretas y fabricando elementos o engranajes. Por ejemplo, la empresa Nanorex vende sistemas de diseño para esta tecnología, pudiendo apreciarse en las distintos engranajes diseñados con moléculas
Esta manipulación se ha podido realizar gracias al descubrimiento y uso del microscopio electrónico de efecto túnel. Lo que nos lleva a la realidad de que, la Física es la que hace avanzar la técnica y la tecnología, así como también es la “” del descubrimiento de nuesvos materiales y técnicas que nos llevan de manera directa hacia el futuro.
La luz ejerce una cierta fuerza sobre la materia, que es insignificante para objetos macroscópicos, pero es si hablamos de nanopartículas. Por ello, con las técnicas ópticas, no solamente somos capaces de observar objetos de tamaño nanométrico o inferiores, sino que además podemos desplazarlos, manipularlos y atraparlos.
Micrografía (50X) con microscopía electrónica de barrido (SEM) de las capas de la piel con una grándula en el centro…
Las fuerzas electromagnéticas son mismo capaces de frenar o enfriar átomos así como de atraparlos. En el caso del enfriamiento se utiliza la fuerza de scattering causada por un haz láser que se propaga en dirección opuesta al movimiento del átomo. El momento lineal del fotón es transferido íntegramente al átomo. Para que la fuerza sea significativa el láser se sincroniza a una frecuencia próxima (y ligeramente inferior para compesnar el corrimiento debido al efecto ) a la resonancia de una transición atómica con el fin de incrementar significativamente la sección eficaz de absorción. Como la posterior reemisión del fotón es isótropa no se pierde el momento lineal atómico ganado en el proceso de absorción.
Microfotografías del microscopio electrónico de barrido de la membrana nuclear. Oservénse los complejos proteicos que forman los poros nucleares. Esta maravilla que nos lleva a saber y comprender más sobre la naturaleza de las cosas, hubiera sido imposible sin la utilización de la luz.
El tema en el que hemos desembocado nos podría llevar horas y días hablando de la Manipulación óptica de átomos, moléculas y nanopartículas, de las propiedades ópticas de losnanomateriales, de los efectos del confinamiento cuántico, de los diodos luminiscentes y láseres, de la realidad de la fotónica que hace posible la espectroscopía de moléculas individuales e interviene en mil maravillas que, la gente corriente ni puede imaginar y que será, sin duda alguna (junto a otras técnicas nuevas) lo que nos llevará al futura de la informática y de la Inteligencia Artificial, a la que por cierto, habrá que vigialar de cerca.
¡¡ Cuidado!!
La Inteligencia Artificial ha despertado un gran interés por sus diversas en nuestro mundo cotidiano, facilitándonos y automatizando las tareas intelectuales, siendo potencialmente útil en cualquier ámbito de la actividad intelectual humana. También, dentro de esta área de trabajo que es la Inteligencia Artificial, encontramos las redes neuronales, que tienen la capacidad de “” mediante complejos ajustes en las relaciones que existen entre los nodos o , permitiendo reconocer y clasificar formas o patrones. Por otro lado, están los algoritmos genéticos, que se basan en la tan reconocida teoría de la Evolución Genética, y en la idea de la supervivencia del más apto, reduciendo aun más la posibilidad del error, como decíamos al principio.
Aunque sumergido en todas estas complejidades que, pareciendo del futuro son de hoy, me pasó el tiempo volando y, con la intención de llevar a todos ustedes algunas de las cosas quen están actualmente en frenética efervescencia en laboratorios de todo el mundo, para así, poder comentar sobre lo que nos parece y, hasta donde nos llevará todo esto que, siendo bueno en un principio, podría desembocar en un escenario no deseado si, por nuestra ambición de sin tasa, damos más prerrogativas de las que serían racionales, a seres artificiales que podrían, con el tiempo, convertirse en nuestros dueños.
emilio silvera