Abr
19
¿Podría ser el valor de G decreciente?
por Emilio Silvera ~
Clasificado en Las constantes de la Naturaleza ~
Comments (13)
La fuerza gravitatoria que se produce en presencia de masas… ¡No parece variar!
Nadie ha sabido responder a la pregunta de si las constantes de la naturaleza son realmente constantes o llegará un momento en que comience su transformación. Hay que tener en que para nosotros, la escala del tiempo que podríamos considerar muy grande, en la escala de tiempo del universo podría ser ínfima. El universo, por lo que sabemos, tiene 13.700 millones de años. Antes que nosotros, el reinado sobre el planeta correspondía a los dinosaurios, amos y señores durante 150 millones de años, hace ahora de ello 65 millones de años. Mucho después, hace apenas 2 millones de años, aparecieron nuestros antepasados directos que, después de una serie de cambios evolutivos desembocó en lo que somos hoy.
Mucho tiempo ha pasado que esta imagen era el presente, y, sin embargo, para el Universo supone una ínfima fracción marcada por el Tic Tac cósmico de las estrellas y galaxias que conforman la materia de la que provenimos. Es un gran misterio para nosotros que sean las estrellas las que fabrican los materiales que, más tarde, llegan a conformar a seres vivos que, en algunos caso, tienen consciencia.
“La ciencia no puede resolver el misterio final de la Naturaleza. Y esto se debe a que, en el último análisis, nosotros somos del misterio que estamos tratando de resolver”.
Max Planck
De acuerdo con su perspectiva universal, en 1.899 Planck propuso que se construyeran unidades naturales de masa, longitud y tiempo a partir de las constantes más fundamentales de la naturaleza: la constante de gravitación G, la velocidad de la luz c y la constante de acción h, que ahora lleva el de Planck. La constante de Planck determina la mínima unidad de cambio posible en que pueda alterarse la energía, y que llamó “cuanto”. Las unidades de Planck son las únicas combinaciones de dichas constantes que pueden formarse en dimensiones de masa, longitud, tiempo y temperatura. Se conocen las Unidades de Planck.
Planck con sus unidades nos llevo al extremo de lo pequeño
Mp = | (hc/G)½ = | 5’56 × 10-5 gramos |
Lp = | (Gh/c3) ½ = | 4’13 × 10-33 centímetros |
Tp = | (Gh/c5) ½ = | 1’38 × 10-43 segundos |
Temp.p = | K-1 (hc5/G) ½ = | 3’5 × 1032 ºKelvin |
Estas formulaciones con la masa, la longitud, el tiempo y la temperatura de Planck incorporan la G (constante de gravitación), la h (la constante de Planck) y la c, la velocidad de la luz. La de la temperatura incorpora además, la K de los grados Kelvin.
“Estas cantidades conservarán su significado natural mientras la Ley de Gravitación y la de Propagación de la luz en el vacío y los dos principios de la termodinámica sigan siendo válidos; por lo tanto, siempre deben encontrarse iguales sean medidas por las inteligencias más diversas con los métodos más diversos.”
Planck, en sus palabras finales alude a la idea de observadores en otro lugar del universo que definen y entienden estas cantidades de la misma manera que nosotros, ya que, al ser números naturales que no inventaron los hombres, todos los seres inteligentes del Universo tendrían que hallar el mismo resultado. No importa en qué planeta pudieran habitar, si son seres inteligentes, empleando los grafos más extraños que a nosotros nada nos pudiera decir, lo cierto es que hay un lenguaje universal: ¡Las matemáticas! que, independientemente de los guarismos empleados, al final de todo 2 x 5 = 10 y 2 + 2 + 2 + 2 + = 10. Empleen las ecuaciones o fórmulas que puedan con los números que puedan utilizar, no podrán variar los resultados de los números puros y adimensionales creados por la Naturaleza: Esas constantes que persisten en el tiempo y nunca cambian y que hacen de nuestro universo el que podemos observar, además de posible la vida. A esos extraterrestres, también, la constante de estructura fina le daría 1/137.
“La creciente distancia entre la imagen del mundo físico y el mundo de los sentidos no significa otra cosa que una aproximación progresiva al mundo real.” Nos decía Planck. Su intuición le llevaba a comprender que, con el paso del tiempo, nosotros estaríamos adquiriendo por medio de pequeñas mutaciones, más amplitud en nuestros sentidos, de manera tal que, sin que nos diéramos nos estábamos acercando más y más al mundo real.

Una de las paradojas de nuestro estudio del universo circundante es que a medida que las descripciones de su funcionamiento se hacen más precisas y acertadas, también se alejan vez más de toda la experiencia humana.Nuestros sentidos nos traicionan y nos hacen ver, a través de nuestras mentes, un mundo distinto al real, es decir, nosotros configuramos nuestra propia “realidad” de esa otra realidad verdadera que está presente en la Naturaleza y que no siempre podemos contemplar y, cuando llegamos a contemplarla, no llegamos a comprenderla… del todo.
No debemos descartar la posibilidad de que seamos capaces de utilizar las unidades de Planck-Stoney para clasificar todo el abanico de estructuras que vemos en el universo, el mundo de las partículas elementales hasta las más grandes estructuras astronómicas. Este fenómeno se puede representar en un gráfico que recree la escala logarítmica de tamaño desde el átomo a las galaxias. Todas las estructuras del universo existen porque son el equilibrio de fuerzas dispares y competidoras que se detienen o compensan las unas a las otras; la atracción y la repulsión. Ese es el equilibrio de las estrellas donde la repulsión termonuclear tiende a expandirla y la atracción (contracción) de su propia masa tiende a comprimirla; así, el resultado es la estabilidad de la estrella. En el caso del planeta Tierra, hay un equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos. Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e, h, c, G y mprotón.
Grandes cúmulos de galaxias
La identificación de constantes adimensionales de la naturaleza α (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momento en mundos diferentes del nuestro. Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios. Los átomos pueden tener propiedades diferentes. La gravedad tener un papel en el mundo a pequeña escala. La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.
Todos los físicos del mundo, sin excepción, deberían tener en el lugar más prominente de sus casas, un letrero con un número: 137. Así les recorfdaría lo que no sabemos. Dentro de ese número puro adimensional están escondidos los secretos del electromagnetismo (e), del cuanto de acción de Planck (h), es decir, la mecánica cuántica, y, también, la misteriosa y fantástica relatividad (c), la velocidad de la luz. Para los científicos de un mundo remoto, perdido en una galaxia en los confines del universo, sin importar qué signos pudieran emplear para hallar la respuesta, al final de sus estudios, tambhién a ellos, les surgiría el número 137, la constante de estrucutra fina que tantos secretos esconde.
Lo único que en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck). Si se duplica el valor de todas las masas no se llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.
Extraños mundos que pudieran ser
Después llegó Dirac (el que predijo la existencia del positrón) y, por una serie de números y teorías propuestas Eddintong en aquellos tiempos, decidió abandonar la constancia de la constante de gravitación de Newton, G. Sugirió que estaba decreciendo en proporción directa a la edad del universo en escalas de tiempo cósmicas. Es decir, la Gravedad en el pasado era mucho más potente y se debilitaba con el paso del tiempo.
Así pues, en el pasado G era mayor y en el futuro será menor que lo que mide hoy. veremos que la enorme magnitud de los tres grandes números (1040, 1080 y 10120) es una consecuencia de la gran edad del universo: todas aumentan con el paso del tiempo.
La propuesta de Dirac provocó un revuelo entre un grupo de científicos vociferantes que inundaron las páginas de las revistas especializadas de cartas y artículos a y en contra. Dirac, mientras tanto, mantenía su calma y sus tranquilas costumbres, pero escribió sobre su creencia en los grandes números cuya importancia encerraba la comprensión del universo con palabras que podrían haber sido de Eddington, pues reflejan muy estrechamente la filosofía de la fracasada “teoría fundamental”.
“¿No cabría la posibilidad de que todos los grandes sucesos presentes correspondan a propiedades de este Gran [1040] y, generalizando aún más, que la historia entera del universo corresponda a propiedades de la serie entera de los números naturales…? Hay así una posibilidad de que el viejo sueño de los filósofos de conectar la naturaleza con las propiedades de los números enteros se realice algún día”.
La propuesta de Dirac levantó controversias entre los físicos, y Edward Teller en 1.948, demostró que si en el pasado la gravedad hubiera sido como dice Dirac, la emisión de la energía del Sol habría cambiado y la Tierra habría mucho más caliente en el pasado de lo que se suponía normalmente, los océanos habrían estado hirviendo en la era precámbrica, hace doscientos o trescientos millones de años, y la vida tal como la conocemos no habría sobrevivido, pese a que la evidencia geológica entonces disponible demostraba que la vida había existido hace al menos quinientos millones de años.
George Gamow
Edward Teller
El eufórico George Gamow era buen amigo de Teller y respondió al problema del océano hirviente sugiriendo que podía paliarse si se suponía que las coincidencias propuestas por Dirac eran debidas a una variación temporal en e, la carga del electrón, con e2 aumentando con el tiempo requiere la ecuación.
Por desgracia, la propuesta de Gamow de una e variable tenía todo de consecuencias inaceptables para la vida sobre la Tierra. Pronto se advirtió que la sugerencia de Gamow hubiera dado como resultado que el Sol habría agotado hace tiempo todo su combustible nuclear, no estaría brillando hoy si e2 crece en proporción a la edad del universo. Su valor en el pasado demasiado pequeño habría impedido que se formaran estrellas como el Sol. Las consecuencias de haber comprimido antes su combustible nuclear, el hidrógeno, hubiera sido la de convertirse primero en gigante roja y después en enana blanca y, por el camino, en el proceso, los mares y océanos de la Tierra se habrían evaporado y la vida habría desaparecido de la faz del planeta.
Gamow tuvo varias discusiones con Dirac sobre estas variantes de su hipótesis de G variable. Dirac dio una interesante respuesta a Gamow con respecto a su idea de la carga del electrón, y con ello la constante de estructura fina, pudiera estar variando.
Recordando sin duda la creencia inicial de Eddington en que la constante de estructura fina era un racional, escribe a Gamow en 1.961 hablándole de las consecuencias cosmológicas de su variación con el logaritmo de la edad del universo.
“Es difícil formular cualquier teoría firme sobre las etapas primitivas del universo porque no sabemos si hc/e2 es constante o varía proporcionalmente a log(t). Si hc/e2 fuera un entero tendría que ser una constante, pero los experimentadores dicen que no es un entero, de modo que bien podría estar variando. Si realmente varía, la química de las etapas primitivas sería completamente diferente, y la radiactividad también estaría afectada. Cuando empecé a trabajar sobre la gravedad esperaba encontrar alguna conexión ella y los neutrinos, pero esto ha fracasado.”
En mecánica cuántica, el comportamiento de un electrón en un átomo se describe por un orbital, que es una distribución de probabilidad más que una órbita. En la figura, el sombreado indica la probabilidad relativa de «encontrar» el electrón en punto cuando se tiene la energía correspondiente a los números cuánticos dados. Pensemos que si la carga del electrón variara, aunque sólo fuese una diezmillonésima , los átomos no se podrían constituir, las moléculas consecuentemente tampoco y, por ende, ni la materia… ¡Tampoco nosotros estaríamos aquí! ¡Es tan importante el electrón!
Dirac no iba a suscribir una e variable fácilmente, como solución al problema de los grandes números. Precisamente, su científico más importante había hecho comprensible la estructura de los átomos y el comportamiento del electrón, y dijo que existía el positrón. Todo ello basado en la hipótesis, compartida por casi todos, de que e era una verdadera constante, la misma en todo tiempo y todo lugar en el universo, un electrón y su carga negativa eran exactas en la Tierra y en el más alejado planeta de la más alejada estrella de la galaxia Andrómeda. Así que Gamow pronto abandonó la teoría de la e variable y concluyo que:
“El valor de e se mantiene en pie el Peñón de Gibraltar durante los últimos 6×109 años.”
El Peñón de Gibraltar, tan familiar e inamovible decía Dirac
Pero lo que está claro es que, ocurre siempre en ciencia, la propuesta de Dirac levantó una gran controversia que llevó a cientos de físicos a realizar pruebas y buscar más a fondo en el problema, lo que dio lugar a nuevos detalles importantes sobre el tema.
Alain Turing, pionero de la criptografía, estaba fascinado por la idea de la gravedad variable de Dirac, y especuló sobre la posibilidad de probar la idea a partir de la evidencia fósil, preguntando si “un paleontólogo podría decir, a partir de la huella de un animal extinto, si su peso era el que se suponía”.
El gran biólogo J.B.S. Haldane se sintió también atraído por las posibles consecuencias biológicas de las teorías cosmológicas en que las “constantes” tradicionales cambian con el paso del tiempo o donde los procesos gravitatorios se despliegan de acuerdo con un reloj cósmico diferente del de los procesos atómicos (¿será precisamente por eso que la relatividad general – el cosmos –, no se lleva con la mecánica cuántica – el átomo –?).
Tales universos de dos tiempos habían sido propuestos por Milne y fueron las primeras sugerencias de que G podría no ser constante. Unos procesos, la desintegración radiactiva o los ritmos de interacción molecular, podrían ser constantes sobre una escala de tiempo pero significativamente variables con respecto a la otra. Esto daba lugar a un escenario en el que la bioquímica que sustentaba la vida sólo se hacía posible después de una particular época cósmica, Haldane sugiere que:
“Hubo, de hecho, un momento en el que se hizo posible por primera vez vida de cualquier tipo, y las formas superiores de vida sólo pueden haberse hecho posibles en una posterior. Análogamente, un cambio en las propiedades de la materia puede explicar algunas de las peculiaridades de la geología precámbrica.”
Este imaginativo escenario no es diferente del que se conoce como “equilibrio interrumpido”, en el que la evolución ocurre en una sucesión discontinua de brotes acelerados entre los que se intercalan largos periodos de cambio lento. Sin embargo, Haldane ofrece una explicación para los cambios.
Lo que tienen en común todas estas respuestas a las ideas de Eddington y Dirac es una apreciación creciente de que las constantes de la naturaleza desempeñan un papel cosmológico vital:
Existe un lazo entre la estructura del universo en conjunto y las locales internas que se necesitan para que la vida se desarrolle y persista. Si las constantes tradicionales varían, entonces las teorías astronómicas tienen grandes consecuencias para la biología, la geología y la propia vida.
No podemos descartar la idea ni abandonar la posibilidad de que algunas “constantes” tradicionales de la naturaleza pudieran estar variando muy lentamente el transcurso de los miles de millones de años de la historia del universo. Es comprensible por tanto el interés por los grandes números que incluyen las constantes de la naturaleza. Recordemos que Newton nos trajo su teoría de la Gravedad Universal, que más tarde mejora Einstein y que, no sería extraño, en el futuro mejorará algún otro con una nueva teoría más completa y ambiciosa que explique lo grande (el cosmos) y lo pequeño (el átomo), las partículas (la materia) y la energía por interacción de las cuatro fuerzas fundamentales.
¿Será la teoría de Supercuerdas ese futuro?
emilio silvera
Abr
19
!El extraño Universo! ¡El Universo cotidiano!
por Emilio Silvera ~
Clasificado en El Universo y los pensamientos ~
Comments (0)
¿Que serán, estos extraños cuerpos. Lo llaman Objeto de Hanny es una extraña y brillante de gas verde que, en su momento, intrigó a los astrónomos desde que se descubrió en 2007. La nube destaca cerca de una galaxia espiral porque un cuásar (un agujero negro supermasivo) en su núcleo la ha iluminado como si fuera un foco. En su momento, como cada vez que se descubren objetos misteriosos, fue estudiada con mucho más detalle gracias a las tomadas por el telescopio Hubble, que fueron expuestas en Seattle (EE UU).
Considerado uno de los objetos más extraños de los muchísimos observados en el espacio, en Hanny’s Voorwerp (en holandés), que tiene el tamaño de la Vía Láctea, el Hubble pudo descubrir delicados filamentos de gas y un grupo de cúmulos de jóvenes estrellas. El color verde de la se debe al oxígeno ionizado.
Su descubridora, Hanny van Arkel, explicó en su blog que está encantada de asistir a la reunión de la Sociedad Americana de Astronomía , donde se presentaron las nueva imágenes, y en general, de haber entrado en con el mundo de la astronomía. Ella es una profesora que descubrió la estructura celeste en 2007 mediante el proyecto Galaxy Zoo, que estimula la participación de no especialistas para que ayuden a clasificar las más de un millón de galaxias catalogadas en el Sloan Digital Sky Survey y las captadas por el propio Hubble en sus de campo profundo. Lo cierto es que la labor callada de los aficionados a la astronomía, no siempre es bien conocida y, desde luego, tampoco reconocida como se merece.
Un astrónomo persa, al-Sufi (Azophi), ha sido reconocido como el primero en describir el débil fragmento de luz en la constelación Andrómeda que sabemos que es una galaxia compañera de la nuestra. En 1780, el astrónomo francés Charles Messier publicó una lista de objetos no estelares que incluía 32 objetos que son, en realidad, galaxias. Estas galaxias se identifican ahora por sus números Messier (M); la galaxia Andrómeda, por ejemplo, se conoce entre los astrónomos como M31.
En la primera parte del siglo XIX, miles de galaxias fueron identificadas y catalogadas por William y Caroline Herschel, y John Herschel. 1900, se han descubierto en exploraciones fotográficas gran cantidad de galaxias. Éstas, a enormes distancias de la Tierra, aparecen tan diminutas en una fotografía que resulta muy difícil distinguirlas de las estrellas. La mayor galaxia conocida tiene aproximadamente trece veces estrellas que la Vía Láctea.
En 1912 el astrónomo estadounidense Vesto M. Slipher, trabajando en el Observatorio Lowell de Arizona (EEUU), descubrió que las líneas espectrales de todas las galaxias se habían desplazado la región espectral roja. Su compatriota Edwin Hubble interpretó esto como una evidencia de que todas las galaxias se alejaban unas de otras y llegó a la conclusión de que el Universo se expandía. No se sabe si continuará expandiéndose o si contiene materia suficiente para frenar la expansión de las galaxias, de forma que éstas, finalmente, se junten de , parece que ésto último no sucederá nunca. La materia del Universo pararece estar aproximadamente en la tasa de la Densidad Crítica.
Andrómeda se está acercando a la Vía Láctea a unos 300 kilómetros por segundo, y se cree que de aquí a aproximadamente unos tres mil de años podría colisionar con la nuestra y fusionarse ambas una galaxia elíptica gigante. Claro que, no se está de acuerdo con la velocidad a la que Andrómeda, se acerca a nosotros. Según algunos cálculos, podría llegar cuando nuestro Sol, esté en la agonía de su final para convertirse en gigante Roja primero y enana Blanca después, y, si es así, poco nos importará ya a nosotros que no estaremos por aquí.
La semilla desde la que se desarrolló nuestro Universo fue una Bola de fuego de pura energía inmensamente densa e inmensamente caliente. La es, ¿cómo llegó esta bola de fuego hasta el tipo de materia bariónica que podemos ver alrededor de todos nosotros, mientras el Universo se expandía y se enfriaba? O, si se prefiere ¿de donde salieron los quarks y los leptones? Y, puestos a preguntar, esa materia oscura de la que tanto hablamos, ¿estaba ya allí cuando llegó la bariónica? Si no fuese , ¿cómo se puedieron formar las Galaxias?
Creemos que conocemos la , aunque, en realidad, lo que sí tenemos es un modelo de que cómo creemos que sucedió, ya que, como a menudo es el caso de las historias, la explicación es más especulativa cuanto más atrás en el tiempo miremos y, en el caso del Universo, esto también corresponde a las energías más altas que se tienen que considerar.
Nos vamos atrás en el tiempo y ponemos señales y nombres como los del límite y tiempo de Planck, era hadrónica (quarks: protones y neutrones, etc.) y era leptónicas (electrones, muones y partícula tau con sus neutrinos asociados). Ahí amigos, está toda la materia que podemos ver. Sin embargo, ¿qué sabemos en realidad de la materia? No olvidemos que de la materia llamada inerte, provenimos nosotros cuyos materiales fueron fabricados en los nucleares de las estrellas.
Imagen : El análisis de la imagen WMAP de todo el cielo sugiere que el universo es mayor de 13.7 millones de años (con una precisión del 1%). Se compone de 73% de energía oscura, 23% de la materia oscura fría, y sólo el 4% de los átomos. En la actualidad se expande a una velocidad de 71 km/s / Mpc (con una precisión del 5%), se elevó por episodios de rápido crecimiento llamado inflación y crecer para siempre. Crédito: Equipo de WMAP Ciencia, la NASA
Estas sombras serían una especie de eco del big bang en las microondas, lo que pone en duda la validez de la popular teoría sobre el origen del Universo. El se publicó en la edición del 1 de septiembre de 2006 del Astrophysical Journal.
El estudio se basó en observaciones realizadas con el observatorio orbital de la NASA WMAP (Wilkinson Microwave Anisotropy Probe – Wilkinson de la anisotropía en microondas), que tiene como objetivo estudiar la radiación cósmica de fondo. Para ello se estudiaron las sombras dejadas en esta radiación cósmica de fondo por 31 cúmulos de galaxias.
El Dr Lieu expresa que “Estas sombras son algo bien conocido que había sido previsto hace años”, y es “el único método directo para determinar la distancia al origen de la radiación cósmica de fondo”, hasta toda la evidencia apuntaba a que era originada por una gran bola de fuego denominada big bang y ha sido circunstancial.
Lieu menciona también que “si usted ve una sombra, indica que la radiación viene más allá del cúmulo de galaxias, y si no las ve, hay un problema, entre los 31 cúmulos estudiados, algunos mostraron el efecto de sombra y otras no”.
En estudios previos, se han reportado la presencia de este tipo de sombras en la radiación cósmica de fondo, estos estudios sin embargo no usaron los proporcionados por el WMAP el cual está diseñado y construido específicamente para estudiar esta radiación de fondo.
Si la teoría estándar de la creación del Universo o Big Bang es la correcta y la radiación cósmica de fondo viene a la Tierra desde los confines del Universo, los cúmulos masivos de galaxias que emiten rayos X, cercanos a la Vía Láctea, deberían todos, la presencia de estas sombras en la radiación cósmica de fondo.
Los científicos aseguran también que basados en todo el conocimiento, hasta , de las fuentes de radiación y halos alrededor de los cúmulos de galaxias, es imposible que estos cúmulos galácticos puedan emitir microondas a una frecuencia e intensidad idénticos a la radiación cósmica de fondo.
Rashid Sunyaev Yakov Zel’dovich
La de la radiación cósmica de fondo data del año 1948 y fue descubierta en 1965. La predicción del efecto de sombra fue realizada en 1969, por los científicos rusos Rashid Sunyaev y Yakov Zel’dovich. El efecto se crearía de la siguiente forma: los cúmulos de galaxias emiten luz en rayos X por acción de la gravedad de su centro, que atrapa gas y lo calienta enormemente. Este gas es tan que pierde sus electrones, o sea que se ioniza, produciendo, a su vez, enormes espacios llenos de electrones libres. Estos electrones libres interactúan con los fotones individuales de la radiación cósmica de , originando con esto la desviación de sus trayectorias originales y produciendo el efecto de sombra.
Como vereis, siempre habrán motivos más que sobrados para la polémica y, a medida que se avanza la polémica crece, toda vez que, esos avances, dejan al descubierto muchas de las creencias largamanete asentadas que , con las nuevas tecnologías, podemos descubrir que, en realidad, eran distintas de como se habían imaginado.
Si hablamos del Universo no podemos olvidar “El Tiempo” con su inseparablñe compañera, “la Entropía” destructora de todo lo que existe que, a medida que el primero transcurre, la segunda lo transforma todo. Debemos aprovechar ese corto espacio de tiempo que nos otorga el transcurrir entre las tres de arriba, sin no sabemos aprovecharlos…¿para qué estamos aquí? ¿Acaso será cierto que todo comenzó con la explosión de una singularidad que lo que llamamos bis bang?
Sí, es posible que todo comenzara así. Sin embargo, nadie lo puede asegurar. Y, algunosm dicen que somos uno de tantos universos que en el Multiverso están. Si eso fuera así ¿Habrá otros seres en esos otros universos? En las imagenes de abjo os pongo dos bellezas, una bionita Nebulosa y la Tierra que nos acoge, sin embargo, en el ámbito cercano y familiar, podemos encontrar más bellas. Bueno, al, menos yo, tengo varias.
¿Será ésta la última frontera? No, creo que no, el Universo que nosotros conocemos, por muchom que corramos tras él, nunca podremos alcanzar el final. Siendo así, hablar de la última frontera, es…, al menos, arriesgado. No conocemos bien ni los objetos que pueblan nuestro propio solar, esos mundos enormes y gaseosos que, a su vez, están rodeados de otros pequeños mundos en los que, posiblemente, la vida esté presente. Sin embargo, nos permitimos hablar de los confines del Universo situados en lugares inaccesibles para nosotros. Bueno, al menos de momento.
Contemplar una flor, un paisaje, sentir la brisa del Mar, mirar las estrellas… ¡No cuesta y alimenta el espíritu! ¿Os dais cuenta? La Naturaleza, el Corazón, los sentimientos… ¡Todo forma parte de lo mismo!
El poco tiempo que estamos aquí, si podemos disfrutar de como ésta, de nuestra amiga Anadelagua, lo podemos dar por bien empleado. Vistas así consiguen sacar de nosotros lo mejor y, si eso es así (que lo es), mirémosla durante un largo rato.
¡Que sentimiento de paz! ¡De simbiosis con la Naturaleza!
Abr
18
Siempre aprendiendo
por Emilio Silvera ~
Clasificado en El saber: ¡Ese viaje interminable! ~
Comments (0)
¡NO! Así no podemos avanzar, que nos dejen libres para pensar, para poder “ver”. La creatividad del pensamiento tiene que estar sólo supeditada al libre albedrío de cada cual. Así ha estado avanzando el mundo desde que…tenemos noticias de todas aquellas civilizaciones que fueron y que, expresaron sus para que nosotros, muchos años más tarde, las pudiéramos desarrollar. Sin aquellos conocimientos no serían posibles éstos.
Qué verdad es, nunca te acostarás sin algo nuevo. Aquí, en este mismo lugar, ocurre eso con frecuencia y, de vuestros comentarios he obtenido a veces conclusiones en las que, por mí mismo, no habría pensado. Como se suele decir, cuatro ojos ven más que dos.
Por ejemplo, en el trabajo que denominé ¿Qué haríamos sin la Física?, aparte de otras muchas intervenciones, me llamó la atención la de Fandila (14.2.1) en la que se refiere a la fotónica y la cuántica y llega a preguntarse si no debería llamarse “cuantónica”. Kike (14.2.1.1) que entabla el diálogo con él, lleva la conversación al del avance de la Ciencia a la que compara con la evolución de las especies. Ambos llevan su parte de razón.
Muchos de los problemas que surgen en de la Física moderna han sido abordados mediante su modelado e implementación en ordenadores, donde hay aplicaciones que requieren una enorme capacidad de cálculo. Prácticamente en todas las disciplinas de la Física se requiere obtener soluciones a problemas que consisten en la optimización de funciones en un determinado espacio de búsqueda. En otras palabras, muchas aplicaciones en Física consisten en solucionar problemas de optimización, que en numerosas ocasiones no se pueden abordar con herramientas matemáticas clásicas, debido a la complejidad del espacio de búsqueda, o de la función objetivo, o ambas cosas a la vez.
Algoritmos genéticos
para la optimización de funciones no tan sencillas.
Nos dice el Autor del programa: “En este programa incluí algunas mejoras para “optimización de funciones sencillas”, la función que viene implementada está dada por: f(x,y)=x^2+2*y^2-0.3*cos(3*PI*x)-0.4*cos(4*PI*y)+0.7
Este hecho fue constatado prácticamente desde el advenimiento de los ordenadores como herramienta fundamental en la ciencia moderna. Así, ya en los años 60 surgieron diversas herramientas para solucionar problemas de optimización no abordables con técnicas clásicas, entre ellas algoritmos que imitiban comportamientos de la naturaleza. Específicamente, se comprobó que el paradigma de la selección natural y supervivencia del más fuerte (pieza clave de las teorías Darwinianas sobre la evolución de las especies) podía ser fácilmente reproducible en un ordenador, y aplicable a la resolución de estos problemas de optimización difíciles.
Siempre hemos sabido soluciones
Está claro que, ante la adversidad, la mente humana siempre se ha crecido y, en este caso de la computación no podía ser de otra manera, así que, cuando se llegó a un nivel de imposible resolución por los métodos clásicos, surgió la necesidad de un nuevo paradigma de computación, que proddujo la generación de algoritmos capaces de obtener soluciones de buena calidad en estos casos de optimización difíciles. Diversos investigadores se concentraron en la imitación de sistemas naturales para resolver estos problemas, generando los diversos algoritmos que forman parte de la computación evolutiva.
Pongamos un ejemplo:
Hallá por el mes de febrero de 2009, pude asistir a un Seminario que tuvo lugar en la Universidad III donde mi hijo Isat Estudiaba Derecho ADE, y con el Título de Computación Evolutiva y Algoritmos basados en las hormigas para la inteligencia artificial, pude disfrutar de un tiempo mágico que me transportó al futuro. La reseña que salió fue la siguiente:
“La Inteligencia Artificial (IA) vive una segunda juventud, según lo visto en el Seminario Internacional sobre el tema celebrado en la Universisdad Carlos III de Madris, donde han presentado nuevas técnicas de computación evolutiva, algoritmos basados en hormigas para, el manejo de robots, o, posibles de la IA a la economía, los juegos, y la fusión de datos.
El campo de la Inteligencia Artificial ha cambiado mucho desde los años setenta, cuando se aspiraba a encontrar el “solucionador general de problemas”, un algoritmo, programa o sistema que permitiera resolver de formar autónoma cualquier problema. “A día de hoy se piensa que no existe y que lo que tenemos es un conjunto de algoritmos y sistemas que en su conjunto denominamos técnicas de Inteligencia Artificial”, explica el José Manuel Molina, organizador del Segundo Seminario Internacional sobre Nuevas Cuestiones en Inteligencia Artificial promovido por los cuatro grupos de Inteligencia Artificial del departamento de Informática, celebrado del 2 al 6 de febrero en la Universidad Carlos III de Madrid (UC3M).
Entre Darwin y hormigas inteligentes
Son mucho más inteligentes de lo que creemos, juzgar por el tamaño… no sería aconsejable.
Allí han presentado sus trabajos algunos expertos internacionales en la materia, que cada vez encuentra relaciones y aplicaciones más sorprendentes. La Teoría de la Evolución de Charles Darwin, por ejemplo, podría aplicarse a la resolución de problemas con ordenadores. En eso trabaja el investigador del Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional (Méjico), Carlos Coello, un especialista en técnicas de optimización multiobjetivo de procesos complejos en ingeniería mediante técnicas genéticas. Otro invitado al seminario, Silvano Cincotti, de la Universidad de Genova (Italia) explicó cómo se pueden estas técnicas a la economía actual y fundamentalmente cómo modelar la realidad utilizando agentes inteligentes.
¿Computación Evolutiva? Hasta dónde llegaremos?
La presencia de la naturaleza en la Inteligencia Artificial no acaba en la denominada computación evolutiva. Otro científico de la Universidad Libre de Bruselas (Bélgica) que impartió un seminario en esta reunión, Dorigo, presentó el algoritmo de optimización basado en colonias de hormigas que inventó, que consiste en una técnica probabilística para resolver determinados problemas de computación. Este algoritmo, que puede utilizarse para manejar pequeños grupos de robots, forma parte de la ” Swarm Intelligence ” (inteligencia basada en enjambres), famosa a raíz del Presa del recientemente fallecido Michael Crichton. Esta especialidad busca el desarrollo de comportamientos complejos a partir de la interacción de un conjunto de agentes que tienen unas reglas de actuación muy sencillas. La unión hace la fuerza.
La conclusión más importante que se ha podido extraer del seminario celebrado en la UC3M es que la Inteligencia Artificial es un área que no tiene un único objetivo, si no que ha incorporado muchas técnicas diferentes para conseguir dotar de cierta inteligencia algunas soluciones. “La técnica es una función del problema y así hay técnicas para que las máquinas puedan de la experiencia, que identifiquen a las personas, que interpreten el entorno, que razonen las acciones más prometed oras, etc”, explica Molina, que dirige el grupo de investigación de Inteligencia Artificial Aplicada de la UC3M. El mayor reto, explica, es que las máquinas sean capaces de realizar tareas que no estén preprogramadas, para que puedan elaborar una estrategia que va más allá de lo pensado en un principio.
La , aunque no refleje la realidad exacta…, se acerca bastante
Está claro que, pretendemos imitar la naturaleza y , la Inteligencia Artificial evolucione como lo hicimos nosotros mismos, y, si eso se consigue…¿Qué podrá pasar en el futuro?
El mayor problema al que se enfrentan los científicos en este área es la necesidad de sistematizar toda la investigación que se está llevando a cabo en Inteligencia Artificial en todo el mundo para poder unificar las diferentes técnicas que se desarrollan. “La idea es una integración y sinergias que permitan ver ese conjunto de técnicas como un todo”, explica el profesor Molina, aunque aclara que la percepción que se tiene sobre este tema a nivel social es bastante diferente porque se espera mucho de la IA, tal vez por lo que se ve en las películas de ciencia ficción. “La gente ya espera ver a R2D2 por la calle y todavía queda mucho para eso”, concluye.”
Tendremos que esperar un poco
A partir de todo esto quise profundizar un poco en el y, me leí múltiples trabajos de autores especializados que me posibilitaron tener una idea más clara y profunda de hasta donde podemos llegar en el futuro que, de seguir por el camino emprendido, pocos límites tendrá eso que llaman la Inteligencia artificial Evolutiva.
Por otra parte, desde hace algunos años, existe la convicción de que buena parte del desarrollo tecnológico del futuro dependerá de nuestra capacidad para fabricar dispositivos con un tamaño comprendido entre el de los átomos (< 1 nm) y el de los dispositivos actuales (≈ 100 nm). Con estas dimensiones la materia presenta comportamientos peculiares, en muchos casos de origen cuántico, que no resultan de una extrapolación de sus propiedades macroscópicas (mecánicas, electrónicas, magnéticas, químicas y ópticas) y que, por ello, son a menudo sorprendentes.
Modelo de la estructura molecular de un ribosoma
Estas dimensiones corresponden al territorio límite entre la química molecular y supremolecular y la física del estado sólido para unas pocas celdas unidad. El estudio de la materia a escala nanométrica y su utilización para la fabricación de componentes y dispositivos con prestaciones avanzadas y novedosas reciben el nombre respectivamente de nanociencia y nanotecnología.
Nano alude a la nanómetro, una unidad de longitud que equivale a la millonésima parte de un milímetro. Por ende, entonces, este prefijo indica el estudio de las diversas disciplinas a nivel atómico y molecular. Pero… ¿cuántos átomos equivalen a un nanómetro? Tan solo entre tres y cinco.
En este sentido, estamos en de comenzar a distinguir algunos de los conceptos que enumeramos anteriormente. Por un lado, la nanociencia se encarga del estudio de las propiedades y los fenómenos a escala nanométrica. La nanotecnología, por su parte, sería la encargada de la manipulación y producción de materiales, estructuras y sistemas a tal escala. Sin embargo, el límite entre nanociencia y nanotecnología resulta cada vez menos tangible. En simples palabras, se puede decir que la nanotecnología utiliza el conocimiento científico proporcionado por la nanociencia para la manipulación y producción de diversos materiales (por medio de complejas tecnologías). Por esta razón, es posible la utilización de tales conceptos de forma equivalente (aunque no por eso sea correcta).
Es por esto que muchos de los avances que hoy se encuadran bajo el nombre de “nanotecnología” no son más que nanociencia, porque sientan las bases para el futuro desarrollo de una tecnología que permita la manipulación de átomos y moléculas. Sin embargo, sería incorrecto decir que en la actualidad no hay ningún desarrollo nanotecnológico (aunque sí se puede afirmar que sus aplicaciones son reducidas, teniendo en cuenta lo mucho que se espera de las mismas), porque entre ellos se pueden mencionar el térmico (desarrollado en 2004 por Aspen Aeogels), los colchones que repelen sudor y polvo, los cosméticos personales ajustados a edad, raza, sexo, tipo de piel y actividad física, y los vestidos que impiden las infecciones en heridos y quemados, entre algunos otros.
Curiosamente, existe una creencia arraigada en amplios sectores de la comunidad cinetífica de que la Fotónica (conjuntos de tecnologías relacionadas con la Luz) es un campo que cae fuera del universo de la nanotecnología. La creencia se apoya en el clásico criterio de Rayleigh de que la resolución espacial de un óptico está limitada por la olongitud de onda de luz (≈ 500 nm) y por ello es próxima al micrómetro, muy lejos de los requisitos de la nanotecnología. Esta visión es sin duda errónea y hoy en día la fotónica está íntimamente implicada con la nanotecnología e incluso se puede hablar propiamente de nanofotónica, de un modo similar a como se habla de nonoelectrónica o nanomagnetismo.
Como antecedente de esta sinergia recordemos que la espectroscópica óptica constituyó una herramienta fundamental en el descubriomiento de la estructura atómica de la materia y de la física cuántica. Desde una perspectiva más aplicada y espectacular cabe mencionar la utilización de nanopartículas metálicas para colorear el vidrio en tiempos de los romanos (como la famosa vasija de Ligurco del siglo IV) Esta técnica se volvió a recuperar a finales de la Edad Media y se , por ejemplo, para colorear las vidrieras de las Catedrales.
La invisibilidad ya es un hecho del pasado que no pertence unicamente a la ficción con la realización de materiales en tres dimensiones que permiten hacer desaparecer objetos y no precisamente es magia, sino que son capaces de desviar la luz visible. Se han realizado experimentos con nano objetos es decir con 1 millonesima de milímetro, y segun los resultados, nada impide el mismo principio para hacer invisible a una persona, un tanque o un incluso un petrolero. Estos metamateriales (Que desvian la luz) deben inclinar la luz alrededor del objeto, de manera que lo envuelva y después recupere su forma original. El observador ya no ve la perturbación en la luz y de esta manera el objeto desaparece a a su vista. Aunque una de las más inmediatas de estos metamateriales podría ser la construcción de lentillas especiales que permitan ver hasta un virus o las moléculas del ADN, lo que excita más la imaginación tiene que ver con la invisibilidad descrita por autores como H.G. Wells “El hombre invisible”.
Se ha construído el microscopio electrónico más potente del mundo mediante la captación de las ondas evanescentes de luz con bolas de vidrio que es la base de esa tecnología. El uso de la luz visible, para observar los objetos de ese diminuto tamaño, rompe en cierto modo las reglas lumínicas, donde existe una propiedad física llamada límite de difracción que establece lo más pequeño que el ojo puede captar. Las ondas de luz se expanden hacia fuera de forma natural e inevitable por lo que limitan el en que pueden ser enfocadas, y por ende, el tamaño del objeto que pueden reflejar.
Los métodos de campo cercano permiten examinar y resolver patrones de iluminación de dimensiones nanométricas con técnicas ópticas. Esto es posible con la utilización de las ondas evanescentes en la vecindad del patrón. A larga distancia (región de Franhoufer) estas ondas desaparecen y peredemos información clave del objeto, la asociada a las componentes periodicas de alta frecuencia espacial o pequeño período. Naturalmente que para introducirse en la zona de ondas evanescentes y detectarlas se hace preciso a las técnicas de micro y nano-mecánica de forma que podamos físicamente a ellas.
¿Qúe no podremos hacer cuando conozcamos la naturaleza real del átomo y de la luz? El fotón, ese cuánto de luz que parece tan insignificante, nos tiene que dar muchas satisfacciones y, en él, están escondidos secretos que, cuando sean revelados, cambiará el mundo.
Concretamente, la microscópica óptica de barrido de cuerpo cercano, se ha desarrollado utulizando diferentes configuraciones para obetener con una resolución espacial de unas decenas de nanómetros. La tecnología necesaria para el posicionamiento a escala nanométrica estaba ya disponible desde la invención del microscopio electrónico de barrido por efecto túnel.
Lo primero que hay que mencionar es que hablamos de poder manipular los átomos y las moléculas de forma individual, colocándolos en posiciones concretas y fabricando elementos o engranajes. Por ejemplo, la empresa Nanorex vende sistemas de diseño para esta tecnología, pudiendo apreciarse en las distintos engranajes diseñados con moléculas
Esta manipulación se ha podido realizar gracias al descubrimiento y uso del microscopio electrónico de efecto túnel. Lo que nos lleva a la realidad de que, la Física es la que hace avanzar la técnica y la tecnología, así como también es la “” del descubrimiento de nuesvos materiales y técnicas que nos llevan de manera directa hacia el futuro.
La luz ejerce una cierta fuerza sobre la materia, que es insignificante para objetos macroscópicos, pero es si hablamos de nanopartículas. Por ello, con las técnicas ópticas, no solamente somos capaces de observar objetos de tamaño nanométrico o inferiores, sino que además podemos desplazarlos, manipularlos y atraparlos.
Micrografía (50X) con microscopía electrónica de barrido (SEM) de las capas de la piel con una grándula en el centro…
Las fuerzas electromagnéticas son mismo capaces de frenar o enfriar átomos así como de atraparlos. En el caso del enfriamiento se utiliza la fuerza de scattering causada por un haz láser que se propaga en dirección opuesta al movimiento del átomo. El momento lineal del fotón es transferido íntegramente al átomo. Para que la fuerza sea significativa el láser se sincroniza a una frecuencia próxima (y ligeramente inferior para compesnar el corrimiento debido al efecto ) a la resonancia de una transición atómica con el fin de incrementar significativamente la sección eficaz de absorción. Como la posterior reemisión del fotón es isótropa no se pierde el momento lineal atómico ganado en el proceso de absorción.
Microfotografías del microscopio electrónico de barrido de la membrana nuclear. Oservénse los complejos proteicos que forman los poros nucleares. Esta maravilla que nos lleva a saber y comprender más sobre la naturaleza de las cosas, hubiera sido imposible sin la utilización de la luz.
El tema en el que hemos desembocado nos podría llevar horas y días hablando de la Manipulación óptica de átomos, moléculas y nanopartículas, de las propiedades ópticas de losnanomateriales, de los efectos del confinamiento cuántico, de los diodos luminiscentes y láseres, de la realidad de la fotónica que hace posible la espectroscopía de moléculas individuales e interviene en mil maravillas que, la gente corriente ni puede imaginar y que será, sin duda alguna (junto a otras técnicas nuevas) lo que nos llevará al futura de la informática y de la Inteligencia Artificial, a la que por cierto, habrá que vigialar de cerca.
¡¡ Cuidado!!
La Inteligencia Artificial ha despertado un gran interés por sus diversas en nuestro mundo cotidiano, facilitándonos y automatizando las tareas intelectuales, siendo potencialmente útil en cualquier ámbito de la actividad intelectual humana. También, dentro de esta área de trabajo que es la Inteligencia Artificial, encontramos las redes neuronales, que tienen la capacidad de “” mediante complejos ajustes en las relaciones que existen entre los nodos o , permitiendo reconocer y clasificar formas o patrones. Por otro lado, están los algoritmos genéticos, que se basan en la tan reconocida teoría de la Evolución Genética, y en la idea de la supervivencia del más apto, reduciendo aun más la posibilidad del error, como decíamos al principio.
Aunque sumergido en todas estas complejidades que, pareciendo del futuro son de hoy, me pasó el tiempo volando y, con la intención de llevar a todos ustedes algunas de las cosas quen están actualmente en frenética efervescencia en laboratorios de todo el mundo, para así, poder comentar sobre lo que nos parece y, hasta donde nos llevará todo esto que, siendo bueno en un principio, podría desembocar en un escenario no deseado si, por nuestra ambición de sin tasa, damos más prerrogativas de las que serían racionales, a seres artificiales que podrían, con el tiempo, convertirse en nuestros dueños.
emilio silvera
Abr
17
Sí, el Universo tiene memoria
por Emilio Silvera ~
Clasificado en El Universo y la Mente ~
Comments (0)
Podríamos hablar del viaje de la luz, desde que surgió a partir del Big Bang (si fue ese el comienzo de todo), y suponiendo que ya tengamos los aparatos tecnológicos precisos para poder leer, los mensajes que la misma luz lleva escritos de lo que allí, en aquellos comienzos, pudo pasar. La Luz que es emitida por los cuerpos celestes y que nos trae su memoria que están recogidas en el interior de las partículas elementales que son las que dan forma a todos los objetos grandes constituídas en moléculas. Es realmente un canto a la Luz, a su compleja estructura que no hemos llegado a comprender. La luz nos trae mensajes y recuerdos de los orígines en remanentes de estrellas supermasivas que dieron lugar a la creación de otras estrellas y sistemas planetarios y, ¿quién sabe? si también formas de vida.
Lo cierto es que, el Universo, como un todo, nos presenta y manifiesta correlacions bien afinadas que desafían cualquier explicación de sentido común y, desde luego, no es que nuestro sentido común no sea el más común de los sentidos, se trata simplemente de que, no llega a captar la esencia verdadera de lo que el Universo nos quiere transmitir.
Decir Universo es decdirlo todo,
Inmensas galaxias cuajada de soles,
Donde orbitan los mundos,
Donde, de la vida, surgen los crisoles.
Todo es fuerza y energía,
Inmersas en un espacio-tiempo,
Transiciones de fase que guían,
Grandes acontecimientos.
La Memoria del Universo,
La Huella que deja el Tiempo,
Quedan gravados los sucesos,
Que descubre el conocimiento.
Sí, el Universo es mucho más que simples estrellas o las galaxias que las acogen, el Universo es también el Tiempo y el Espacio, son Universo las interacciones fundamentales que hace que nuestros mundos sean tal como los conocemos y, gracias a la variedad, la diversidad, las fuerzas y las constantes que en él están presentes, podemos decir que, los muchos mundos que son, algún día lejano en el futuro, nos darán la oportunidad de conocernos, nosotros los huamanos de la Tierra y otros seres de más allá de nuestras fronteras que ahora, por imposibilidades físicas y tecnológicas, no podemos hacer una realidad.
El primer signo de vida en nuestro planeta data de 3,850 millones de años. Son simples formas fósiles encontradas en Groenlandia Sí, también eso de arriba es Universo. Cuando se creó la vida, surgieron unos seres que, evolucionados, llegaron a ser conscientes de su ser y pudieron desarrollar ideas y pensamientos y…también sentimientos que nos llevan de manera directa, mediante fuerzas irresistibles de la Naturaleza, a crear Entropía Negativa para compensar la que acompaña al Tiempo y que tanto daño hace en las cosas vivas o inertes.
Hemos realizado muchos estudios y llegado a muchas conclusiones que, finalmente, resultaron prematuras. Las mediciones actuales, por ejemplo, del fondo cósmico nos indican que, aun cuando toda la materia del Universo se hubiera originado en el (supuesto) big bang, sin embargo, el espacio-tiempo es plano: el universo se equilibraría con precisión entre la expansión y la contracción. Y, sin embargo, ¡las galaxias se están expandiéndo! Quizá después de todo, existe una constante cosmológica o fuerza similar no descubierta que es el que mantiene el cosmos en estado de expansión.
Los cosmólogos dudan del vacío cuántico y no creen que sea el origen de las energías extrañas representadas representadas por estas constantes. El espacio está lleno de partículas virtuales, en constante variación. La energía de las partículas virtuales concuerdan con los efectos que le atribuyen, incluso cuando tienen una existencia tan breve que no se puede medir. Se cree que esta energía, la “constante cosmológica positiva” es la responsable de la expansión acelerada de las galaxias. Esta suposición que no es nueva, es una más de las muchas que circulan por el mundo científico de la cosmología en el que, los “expertos” cosmólogos, andan locos por averiguar de qué se trata todo esto que no llegan a comprender.
El problema del horizonte. La coherencia que presentan las realciones núméricas se ve reforzada por la evidencia de la observación. Ésta última da lugar al llamado “problema del horizonte” : el problema de la uniformidad en la gran escala del Cosmos en todos los puntos del horizonte visto desde la Tierra. Este problema empezó a destacarse tanto en relación a la radiación del fondo del Universo, como en relación a la evolución de sus galaxias.
“Nuestro universo parece ser completamente uniforme. Si miramos a través del espacio desde un extremo del universo visible hacia el otro, se verá que la radiación de fondo de microondas que llena el cosmos presenta la misma temperatura en todas partes.”
“Esto podría no parecer muy sorprendente, hasta que se considera que los dos bordes están separados por casi 28 mil millones de años luz y que nuestro universo tiene apenas algo menos de 14 mil millones de años de edad.”
“Nada puede más rápido que la de la luz, de modo que no hay forma en que la radiación pueda haber viajado entre los dos horizontes para igualar los puntos calientes y los fríos creados en el Big Bang y dejar así el equilibrio termal que hoy vemos.”
Está claro que el problema del Horizonte se les ha ido de las manos a los Cosmólogos que no lo saben explicar y, para ello, tratan de hilvanar extrañas historias y exóticas teorías que, de ninguna manera nos satisfacen.
Como suele pasar siempre que mentes pequeñas quieren explicar cosas muy grandes, que no llegan a comprender, se limitan a inventar teorías y hacen conjeturas que, más o menos puedan estar acordes con la realidad que debería ser. El desarrollo de la cosmología física está lleno de enigmas que no podemos explicar y de anomalías que las teorías actuales tratan de desarrollar de la manera más coherente posible y, algunas se acercan y otras, quedan lejos de ser, ni siquiera admisibles por fantásticas e increíbles. Claro que, por otra parte… ¿Qué haríamos sin imaginación?
Lo dicho tántas veces…¡Nuestra ignorancia! Es infinita y, nuestros conocimientos muy limitados pero… ¡Tenemos que saber!
emilio silvera
Abr
17
¿Lo que pasó? ¿Lo que pasará? o, simple imaginación
por Emilio Silvera ~
Clasificado en El Futuro incierto ~
Comments (0)
Sitios como este, en nuestro planeta, los tenemos por todas partes
No pocas veces me encuentro mirando al cielo nocturno estrellado desde la orilla del Atlántico cuya superficie brilla con millones de luces titilando al reflejar el esplendor de la Luna, la inmensidad del océano que se pierde en el horizonte y, la infinitud del firmamento me podrían hacer sentir insignificante. Sin embargo, no es así como lo siento. He dicho alguna vez que, todo lo grande está hecho de cosas pequeñas, y, esa afirmación nos dá la respuesta. Formamos parte de algo muy grande: El Universo.
Estamos en un punto, o en un nivel de sabiduría aceptable pero insuficiente, es mucho el camino que nos queda por recorrer y, como dice Freund, la energía necesaria para explorar la décima dimensión es mil millones de veces mayor que la energía que puede producirse en nuestros mayores colisionadores de átomos. La empresa resulta difícil para seres que, como nosotros, apenas tenemos medios seguros para escapar del débil campo gravitatorio del planeta Tierra.
Nada puede surgir de la “nada”, si surgió, es porque había
Energías del tal calibre, que sepamos, solo han estado disponibles en el instante de la creación del Universo, en su nacimiento, en eso que llamamos Big Bang. Solamente allí estuvo presente la energía del Hiperespacio de diez dimensiones y, por eso se suele decir que, cuando se logre la teoría de cuerdas sabremos y podremos desvelar el secreto del origen del Universo.
A los físicos teóricos siempre les resultó provechoso introducir dimensiones más altas para fisgar libremente en secretos celosamente escondidos.
Según esa nueva teoría, antes del Big Bang nuestro cosmos era realmente un universo perfecto de diez dimensiones, decadimensional, un mundo en el que el viaje interdimensional era posible. Sin embargo, ese mundo decadimensional era inestable, y eventualmente se “rompió” en dos, dando lugar a dos universos separados: un universo de cuatro y otro universo de seis dimensiones.
El Universo en el que vivimos nació en ese cataclismo cósmico. Nuestro Universo tetradimensional se expandió de forma explosiva, mientras que nuestro universo gemelo hexadimensional se contrajo violentamente hasta que se redujo a un tamaño casi infinitesimal.
Surgió la sustancia cósmica de la que, miles de millones de años más tarde, nacería la consciencia
Eso podría explicar el origen del Big Bang, y, si la teoría es correcta, demuestra que la rápida expansión del Universo fue simple consecuencia de un cataclismo cósmico mucho mayor, la ruptura de los propios espacio y tiempo. La energía que impulsa la expansión observada del Universo se halla entonces en el colpaso del espacio-tiempo de diez dimensiones. Según la teoría, las estrellas y las Galaxias distantes están alejándose de nosotras a velocidades astronómicas debido al colapso original del espacio y el tiempo de diez dimensiones.
Esta teoría predice que nuestro Universo sigue teniendo un gemelo enano, un universo compañero que se ha enrollado en una pequeña bola de seis dimensiones (en la escala de Planck) muy pequeña para ser observada.
Ese Universo decaadimensional, lejos de ser un apéndice inútil de nuestro mundo, podría ser en última instancia, nuestra salvación. Claro que, si las galaxias siguen alejándose las unas de las otras, será la muerte térmica del universo, y, en ese escenario, ni los átomos se moveran.
Todo quedará quieto, congelado en los -273 ºC
Para el cosmólogo, la única certeza es que el Universo morirá un día. Algunos creen que la muerte final del Universo llegará en la forma del big crunch. La gravitación invertirá la expansión cósmica generada por el big bang y comprimirá las estrellas y las galaxias, de nuevo, en una masa primordial. A medida que las estrellas se contraen, las temperaturas aumentan espectacularmente hasta que toda la materia y la energía del universo están concentradas en una colosal bola de plasma ardiente que será el resultado final de la destrucción del Universo tal como lo conocemos.
Todas las formas de vida serán borradas de la faz de los mundo que las pudieran contener: evaporadas por las enormes temperaturas o aplastadas, ¡qué más dá! No habrá escape. Y, sabiendo lo que ahora sabemos, conociendo la historia del universo mismos que, durante miles de millones de años ha estado fabricando materiales en las estrellas para los seres vivos conscientes pudieran venir, ¿cómo imaginar un final así? ¿Para qué tánto trabajo y tanto tiempo perdido? Seguramente, para cuando eso puede ir llegando, si es que la inteligencia sigue aquí, habrá buscado ya la manera de escapar a tal desastre y, las especies inteligentes se salvarán saltanto a otros universos, o, incluso, ¿por qué no? viajando hacia atrás en el Tiempo, hacia otros tiempos más benignos para tener otros miles de millones de años por delante y hacer las cosas, de manera diferente. ¡Una segunda oportunidad!
Bertrand Russell
Científicos y filósofos, como Charles Darwin y Bertrand Russell, han escrito lamentándose de la futilidad de nuestras míseras existencias, sabiendo que nuestra civilización morirá inexorablemente cuando llegue el fin de nuestro mundo. Las leyes de la física, aparentemente, llevan la garantía de una muerte final e irrevocable para todas las formas de vida, inteligente o no, del Universo.
Yo, como Gerald Feinberg, físico de la Universidad de Columbia (ya desaparecido), creo que sí puede haber, quizá sólo una esperanza de evitar la calamidad final. Ese atisbo de esperanza está en nosotros mismos, es decir, si somos cpaaces de no destruirnos antes, si procuramos comprender los mensajes que el universo nos envía continuamente, si desvelamos secretos de la Naturaleza que nos posibilitarán para hacer cosas, ahora inimaginalbes, entonces y solo entonces, habrá alguna esperanza.
Poder escapar a universos conexos que, como el nuestro, nos de cobijo
Gerald Feinberg especuló que la vida inteligente, llegando a dominar los misterios del espacio de más dimensiones (para lo que contaba con un poderoso aliado, el Tiempo de miles de millones de años), sabría utilizar las dimensiones extras para escapar de la catástrofe del Big Crunch. En los momentos finales del colapso de nuestro Universo, el Universo hermano se abriría de nuevo y el viaje interdimensional se haría posible mediante un túnel en el Hiperespacio hacia un Universo alternativo, evitando así la pérdida irreparable de la inteligencia de la que somos portadores.
Si algo así es posible, entonces, desde su santuario en el espacio de más dimensiones, la Humanidad, podría ser testigo de la muerte del Universo que la vio nacer y florecer.
Son muchas las cosas que no sabemos
Aunque la teoría de campos demuestra que la energía necesaria para crear estas maravillosas distorsiones del espacio y el tiempo está mucho más allá de cualquier cosa que pueda imaginar la civilización moderna, esto nos plantea dos cuestiones importantes:
¿cuánto tardaría nuestra civilización, que está creciendo exponencialmente en conocimiento y poder, en alcanzar el punto de dominar la teoría de hiperespacio?
¿Y qué sucede con otras formas de vida inteligente en el Universo, que puedan haber alcanzado ya este punto?
Lo que hace interesante esa discusión es que científicos serios han tratado de cuantificar el progreso de la civilización en un futuro lejano, cuando los viajes por el espacio sean una rutina en los sistemas estelares o incluso las galaxias vecinas hayan sido colonizadas. Aunque la escala de energía necesaria para manipular el Hiperespacio es astronómicamente grande, estos científicos señalan que el crecimiento del conocimiento científico aumentara, sin ninguna duda, de forma exponencial durante los siglos y milenios próximos, superando las capacidades de las mentes humanas para captarlo (como ocurre ahora con la teoría M, parada en seco, esperando que alguien vea las matemáticas necesarias para continuar su desarrollo).
Somos conscientes de que el Tiempo inexorable sigue su implacable caminar y la Entropía, que sabe hacer bien su trabajo, lo transforma todo, lo que ayer era una cosa, hoy se ha convertido en otra distinsta, irreconocible y, sin embargo, ese deterioro natural no es algo perdido, sino que, por el contrario, hasta que llega ese final, se hizo un trabajo que dará sus frutos en la mente de otros seres, en las cosas mismas que, transformadas, servirán y tendrán cometidos nuevos. Nada se pierde y todo tiene su por qué. La Naturaleza no hace nada porque sí, todo está programado y tiene un fin. Y, si eso es así (que los es), ¿que nos deparará el destino a nosotros? Habiendo llegado al nivel de cpomprensión alcanzado, no creo que el final sea el de la desaparición sin más, algo más debe estar oculto en los designios de la Naturaleza que no llegamos a comprender.
Cada 10/15 años el conocimiento científico se doblará, crecerá el cien por ciento, así que, el avance superará todas las previsiones. Tecnologías que hoy solo son un sueño (la energía de fusión o en robótica, los cerebros positrónicos), serán realidad en un tiempo muy corto en el futuro. Quizá entonces podamos discutir con cierto sentido la cuestión de si podremos o no ser señores del Hiperespacio.
Viaje en el tiempo. Universos paralelos. Ventana dimensional.
¡Sueños! Claro que, si echamos una atenta mirada a la Historia veremos que, muchos sueños se hicieron realidad.
emilio silvera