May
11
¿La Inteligencia Artificial? Es cosa de futuro
por Emilio Silvera ~ Clasificado en I. A. ~ Comments (0)
La informática Margaret Ann Boden(1936) cumple hoy años. Profesora de investigación en el Departamento de Informática de la Universidad de Sussex, su trabajo abarca los campos de la inteligencia artificial, la psicología, la filosofía, las ciencias cognitivas y las ciencias de la computación.
“Es absurdo pensar que tenemos la ‘superinteligencia’ a la vuelta de la esquina”
Margaret Boden (Maggie para los amigos) ha visto de todo desde 1936. Nació en el Londres de los bombardeos y de Alan Turing, se abrió paso en el masculino mundo de la ciencia y se descolgó en 1977 con Inteligencia Artificial y Hombre Natural, uno de los libros pioneros en un campo que ha contribuido a ensanchar gracias a su ‘sabiduría’ adquirida en los mundos de la medicina, de la filosofía, de la psicología y de las ciencias cognitivas.
A sus 82 años, Boden sigue activa desde su mirador en la Universidad de Sussex, fiel a su condición de insaciable “mariposa intelectual”. Nos recibe con vestido floreado en su casa de Brighton, que pronto sentimos como nuestra. Y nos invita a hacer un recorrido por las estanterías donde alternan libros y pequeños frascos de vidrio que se estiran hasta tiempos de los romanos. Estamos aquí para hablar de su último libro, Inteligencia Artificial (Turner), y para intentar distinguir entre la paja y el heno en un terreno pantanoso en el que se atrevió a adentrar en sus últimos meses de vida el mismísimo Stephen Hawking.
- ¿Cuál es la idea más equivocada que tenemos sobre la inteligencia artificial?
- Yo diría que hay dos ideas equivocadas. La primera es que la inteligencia artificial (IA) puede hacer mucho más de lo que es capaz realmente. Y la segunda es que puede hacer mucho menos. Entre estos dos polos nos movemos, y esa ha sido mi idea con este libro. Examinar la naturaleza de la IA, hacer balance de dónde estamos e intentar vislumbrar el futuro, con los pies en el suelo y sin caer en escenarios de ciencia ficción.
- Meses antes de morir, con su voz computerizada, Stephen Hawking advirtió: “El desarrollo pleno de la inteligencia artificial puede significar el fin de la raza humana” ¿Verdadero o falso?
- Ese tipo de afirmaciones genéricas sirven al final para infundir el temor a lo desconocido. Con todos mis respetos para Stephen Hawking, y reconociendo sus grandes méritos en el campo de la Física, no se puede intentar abarcar todo y hablar ex cátedra de un campo que no era su especialidad. Por no hablar de la profunda contradicción: él tenía que estar en el fondo agradecido a la IA porque le permitía hablar y comunicarse con los humanos.
Hawking era tan asombrosamente popular que todo lo que salía de su boca se elevaba inevitablemente a titular. Hizo mucho por la divulgación de la ciencia, pero no estaba en una posición privilegidada para hablar de la IA. Al fin y al cabo, su aproximación era la de un astrofísico, preocupado por el futuro de la Tierra y urgiendo a la especie humana a colonizar otros planetas.El filósofo Nick Bostrom, al frente del Instituto para el Futuro de la Humanidad en la Universidad de Oxford, considera también la superinteligencia como el “mayor riesgo existencial” para la humanidad, por delante incluso del cambio climático…
Crear seres artificiales que tendrán poderes muy superiores al humanoOtra peligrosa generalización. Bostrom tiene ideas un poco locas, como la noción misma de la superinteligencia (una inteligencia superior a la humana) a mediados de siglo o incluso antes. Son predicciones un poco absurdas. Bostrom está contribuyendo también, a su manera, a infundir el miedo a ese futuro apocalíptico, y desviar por ejemplo la atención del cambio climático, que es un peligro presente y real, que va a comprometer enormemente las vidas de las próximas generaciones.
“Con todos mis respetos para Stephen Hawking, y reconociendo sus grandes méritos en el campo de la Física, no se puede intentar abarcar todo y hablar ex cátedra de un campo que no era su especialidad”
- ¿Y qué nos dice de las predicciones de Ray Kurzweil, el profeta de la singularidad?
- Kurzweil es aún peor, precisamente por todo lo contrario. Habla de la singularidad (el momento en el que la inteligencia de las máquinas superan a la del hombre) como una especie de santo grial o de utopía tecnológica. En su opinión, la inteligencia artificial (combinada con la nanotecnología y con la biología sintética) servirá para acabar con las enfermedades, con las guerras e incluso con la muerte. Además predice que el momento está bien cerca, en torno al 2030… ¡Nos quedan 12 años! Lo tenemos como quien dice a la vuelta de la esquina… Es absurdo.
Pensar que con la IA puedes resolver conflictos tan humanos como el de Oriente Próximo (y ya puestos, el de Irlanda del Norte o el Cataluña) es totalmente ridículo. Los que creen en la singularidad ignoran las limitaciones de la IA actual. Se basan sólo en los avances tecnológicos exponenciales, pero ignoran un hecho: el aumento de potencia de los ordenadores y de la disponibilidad de datos no garantiza una IA de nivel humano.El fundador de Tesla, Elon Musk, es otra de las voces más notorias ante los riesgos de la IA ¿No deberíamos darle algo de crédito?A Elon Musk hay que agradecerle sobre todo que ponga sobre la mesa la cuestión ética y que ponga dinero para investigar temas que deberíamos haber estado investigando durante años. Su contribución al Instituto para el Futuro de la Vida me parece muy valiosa. Es esencial plantearnos escenarios de futuro, pero hay que hacerlo con investigaciones rigurosas y multidisciplinarias que nos adviertan de los riesgos reales.En la parte final de su libro, usted reconoce sin embargo que pese a todos los “mitos” que rodean la IA, hay realmente motivos para “estar preocupados”. ¿Cuáles son?
Desde que inventamos el hacha, cualquier tecnología se puede utilizar para el bien o para el mal. Uno de los elementos más preocupantes es obviamente su uso para fines militares, con la producción de soldados robóticos o el uso cada vez más extendido de drones, que de momento son manejados a distancia por seres humanos, pero que el futuro podrían tener capacidad incluso para “reconocer” un blanco. La ciberseguridad tiene cada vez una mayor connotación militar también. De hecho estamos asistiendo ya a ciberguerras invisibles en la que está en juego muchas veces nuestra capacidad para seguir adelante con nuestra vida cotidiana, conforme se vaya implantando el internet de las cosas y la IA se extienda a sectores vitales de nuestra economía, de la banca al suministro eléctrico.¿Qué nos puede decir de la privacidad de los ciudadanos, a la luz del reciente escándalo de Facebook y Cambridge Analytica? ¿No corremos el riesgo de ser manipulados por un puñado de corporaciones? ¿El Big Data es acaso el Gran Hermano?Afortunadamente, todo lo que ha pasado recientemente va a servirnos para despertar a tiempo. Creo que es un tema ante el que la opinión pública está ya muy sensibilizada, y los gigantes tecnológicos nos pueden seguir escondiendo la cabeza o hacer como si cosa no fuera con ellos. En este sentido, creo que la Unión Europea ha marcado el horizonte con la Regulación General de Protección de Datos (GDPR), que entrará en vigor en mayo. Es un primer paso para defender los derechos de los ciudadanos y poner a las compañías en su sitio. Pero harán falta dar más pasos: hoy por hoy, los usuarios de internet estamos prácticamente desprotegidos y dejando rastros en cada paso que damos. La extracción, manejo y gestión de datos es el gran negocio del siglo XXI.Usted advierte que la amenaza primordial de la IA es el “desempleo tecnológico”. Algunos estudios hablan de un 40% de empleos automatizados en las próximas dos décadas. ¿Nos quitará el trabajo un robot?En este terreno, la gente tiene razones sobradas para estar preocupada. Lo que está ocurriendo con la revolución tecnológica es comparable con la Revolución Industrial, sólo que en esta ocasión me temo que se van destruir más empleos de los que se construyan. Todos los trabajos rutinarios o mecánicos están amenazados. La parte más rutinaria de los abogados o de los médicos será también desempeñada por máquinas, que estarán incluso mejor capacitadas para hacer diagnósticos. Ningún sector quedará indemne de la inteligencia artificial, y el efecto a medio plazo debería precuparnos.
Muchos trabajos van a desaparecer, y los que surjan van a ser altamente especializados, como el análisis de datos. Los profesionales van a tener que adaptarse a la nueva situación, y el sistema educativo va a necesitar también un severo ajuste. Creo que deberíamos tener ya un profundo debate sobre cómo adaptar la sociedad a la nueva situación. Tengo, eso sí, la esperanza de que seamos sensatos a la hora de ceder el testigo a las máquinas, y que no sólo primen factores económicos. Hay trabajos que siempre harán mejor los humanos, y muchos otros en los que precisamente se valorará el contacto humano, frente al tratamiento impersonal de la máquina.
“Los usuarios de internet estamos desprotegidos y dejamos rastros en cada paso que damos. La extracción, manejo y gestión de datos es el gran negocio del siglo XXI”
- ¿Cómo afectará la IA a nuestra vida diaria a corto plazo?
- Ningún aspecto de nuestra vida va a escapar a la IA. Todos los sectores van a resultar afectados de una u otra manera. Basta que con que alguien con suficiente imaginación identifique el problema y escriba el programa. Muchos de los cambios que veremos serán a mejor, pero todos los avances tecnológicos tienen consecuencias no previstas. Internet nos ha hecho la vida más fácil sin salir de casa, pero se lo está poniendo muy difícil a los comercios a pie de calle.
- ¿Y cuándo veremos coches sin conductor circulando por las calles?
- No soy muy amiga de hacer previsiones a corto o medio plazo, entre otras cosas porque siempre hay elementos imprevisibles que cambian por completo el escenario. La tecnología está ahí, pero hay muchos otros factores que conviene tener en cuenta. El más importante de ellos, el factor humano. El imperativo ético para la implantación de tecnologías de IA debería ser ese: poner a los seres humano primero.
- La Inteligencia Artificial Amigable, acuñada por Eliezer Yudkowsky, va por ese camino…
- La FAI (por sus siglas en inglés) propone efectivamente “un efecto positivo sobre la humanidad”, pero va más allá de las cuestiones éticas y reclama también principios como la transparencia, para garantizar que las tecnologías sigan siendo “amigables” ante posibles cambios. Es una noción interesante que refleja el interés creciente que hay entre los expertos por poner los valores humanos al frente de la IA.
- Usted ha levantado también la voz contra el uso y abuso de robots de compañía…
- Es uno de los asuntos que más me preocupa, es cierto. Se están comercializando ya los “acompañantes computerizados” para ancianos, los “robots niñera” e incluso robots sexuales… Mi tesis es ésta: no podemos intentar solucionar un problema esencialmente humano, como el de la soledad o el aislamiento social, usando una máquina como sustituta.
El cuidado de los mayores, por ejemplo, requiere sobre todo atención humana ¿Y qué estamos haciendo? Recortando los gastos sociales y poniendo en la calle a trabajadores irremplazables. El robot no puede ser un cuidador. Puede en todo caso dar la alarma si una persona se pone enferma, puede controlar que se tome las pastillas o puede incluso entretenerla, pero nunca cuidar a una persona, ni mantener una conversación para la que se requiere empatía e inteligencia emocional.
Stephen Hawking definía la inteligencia como “la capacidad para adaptarse a a los cambios”. ¿Se quedo corto en la definición?Definir la inteligencia es una misión casi imposible. ¿La habilidad para lograr nuestros objetivos y satisfacer nuestras necesidades? Esa definición tampoco me vale. Al fin y al cabo el cerebro sigue encerrando muchos misterios que aún no hemos conseguido descifrar, y mucho menos emular. Y hay quienes sostienen que hemos tenido hasta ahora una visión demasiado “cerebral”… Durante mucho tiempo se circunscribió la inteligencia a su dimensión racional, pero ahora hablamos de inteligencia emocional y de inteligencia social, y en esos dos terrenos les queda aún un largo camino que recorrer a las máquinas.Usted identifica precisamente la emoción, la creatividad y el lenguaje como los tres talones de Aquiles de la Inteligencia Artificial Fuerte (IAF), que aspira a igualar o a exceder la inteligencia humana…Es cierto. Pero también lo es que, incluso en estos ámbitos que seguimos considerando “esencialmente humanos”, la IA ha llegado ya más lejos de lo que mucha gente cree. No solo en el terreno del lenguaje, que quizás es el más conocido, también en el de la creatividad y en sus tres variantes (combinatoria, exploratoria y transformacional). La emoción puede resultar lo más ajeno a la inteligencia emocional y, sin embargo, desde finales de los años 90 ha habido intentos de trasladar a una máquina los aspectos funcionales de la ansiedad, como el sistema Minder de Aaron Sloman, pensado para meterse en la piel de una enfermera humana y decidir las prioridades.
- ¿Y qué me dice de la sabiduría? ¿Tendremos algún día máquinas “sabias”?
- La sabiduría es algo que no tendrá una máquina en un futuro predecible. Sobre esto ha escrito mucho el filósofo Nicholas Maxwell, que distingue claramente entre sabiduría y conocimiento. La sabiduría va mucho más allá del conocimiento y comporta la experiencia, la sensatez y la prudencia, entre otras cualidades.
- ¿La sabiduría es algo que se adquiere con los años?
- No lo sé. Lo que yo he intentado no perder es la curiosidad intelectual. Alguna vez he dicho que me considero “una mariposa intelectual”. Al fin y a cabo llegué hasta la inteligencia artificial después de haber tocado muchos palos. Mi primer interés fue la medicina, de ahí salté a la filosofía, después la psicología y las ciencias cognitivas. Todo este camino me permitió tener una visión bastante amplia de lo que es la IA.
“La inteligencia artificial no alcanzará la ‘sabiduría’ en un futuro predecible”
- Usted es pionera con uno de los primeros libros sobre el tema en 1977…
- Tanto como pionera no, pero sí fui una de las primeras mujeres en interesarse por el tema.
- ¿Cuál fue su experiencia en un mundo académico y científico dominado por los hombres?
- Bastante surrealista a veces. Recuerdo que cuando leí mi primer paper sobre teoría explicativa del conocimiento, intentando indagar en el concepto de verdad, el jurado no me felicitó como suele ser habitual. El único comentario que me hicieron fue: “Como usted es una mujer, la verdad no le parece importante”… Yo no me dejé desalentar, pero el ambiente en el que nos movíamos era realmente opresivo, y más aún en terreno abonado para los hombres como el de la informática.
La historia que lo dice todo es la de Stephanie Shirley, emprendedora y auténtica pionera de la tecnología de la información en este país. Todo el mundo la conoce como Steve Shirley, porque tuvo que masculinizar su nombrepara que la aceptaran en ofertas de trabajo.Al cabo de más de 50 años sigue arraigada en Brighton y vinculada a la Universidad de Sussex. ¿No cayó en la tentación de Oxford o Cambridge?Ofertas no me faltaron, pero he sido fiel a la Universidad de Sussex porque fue pionera con la creación de la Escuela de Ciencias Cognitivas e Informáticas (COGS, por sus siglas en inglés) y por su aproximación multidisciplinar, que creo que fue muy visionaria.
>_ “Cuando leí mi primer paper, el jurado me dijo: “Como usted es una mujer, la verdad no le parece importante”… Yo no me dejé desalentar, pero el ambiente en el que nos movíamos era realmente opresivo”
- ¿Qué consejo le daría a una mujer que decida explorar el mundo de la inteligencia artificial?
- Que vaya a por ello, con deteminación y sin dudar. Y sin ponerse nunca en una situación de inferioridad o debilidad frente a los hombres, sobre todo en las entrevistas de trabajo.
- ¿Y qué opinan sus cuatro nietos de la abuela de la inteligencia artificial?
- Mis nietos, una niña y tres niños, son nativos digitales y tienen una relación con las máquinas bastante más natural. Pero he de confesar que me preocupa su futuro. Creo que será la primera generación en mucho tiempo que vivirá en peores condiciones económicas que sus padres y enfrentada además a un mundo cargado de incertidumbre y de grandes retos, de la automatización al cambio climático, que es lo que más me preocupa… Por no hablar del Brexit. Es injusto que les estemos cerrando las puertas de Europa, como es absurdo que renunciemos a la financiación de la UE, que es esencial para la investigación en muchas universidades británicas.
May
11
Misteriosos agujeros negros en el centro galáctico
por Emilio Silvera ~ Clasificado en Agujeros negros ~ Comments (4)
Imagen del centro de la Vía Láctea, donde reside un agujero negro supermasivo y se acumulan estrellas, polvo y gas – Bruno Gilli/ESO
NATURE
Detectan 10.000 agujeros negros en el centro de la Vía Láctea
El hallazgo de 12 agujeros negros binarios confirma que en el núcleo galáctico hay decenas de miles de agujeros negros invisibles. Esto refuerza una importante teoría sobre la evolución de las galaxias
Un grupo de astrónomos de la Universidad de Columbia (EE.UU.) ha detectado la presencia de 12 agujeros negros cerca del centro de la Vía Láctea, a su vez un agujero negro supermasivo llamado «Sagitario A*» («Sgr A*», para abreviar). El hallazgo, logrado gracias a una nueva forma de observación en rayos X, apoya la hipótesis de que en torno al núcleo galáctico se arremolinan entre 10.000 a 20.000 agujeros negros pequeños o medianos.
«Hemos confirmado una predicción fundamental de la teoría galáctica: que debe existir un gran número de agujeros negros concentrados en el parsec (cerca de tres años luz) central de la Vía Láctea», explica a ABC Chuck Hailey, director de la investigación y co-director del Laboratorio de Astrofísica de la Universidad de Columbia.
«Sagitario A*» es un oscuro pozo situado a 26.000 años luz de la Tierra. Se trata de una concentración de masa, situada más allá de la comprensión de la Relatividad, que equivale a 4,3 millones de soles. Toda está concentrada en un volumen relativamente pequeño, a nivel galáctico: su tamaño le permitiría encajar holgadamente dentro del Sistema Solar puesto que tiene, según algunos autores, un radio de unos 6,25 horas luz. Para hacerse una idea, si lo colocáramos en la posición que ocupa el Sol, la frontera de «Sagitario A*» llegaría un poco más allá de Plutón.
Representación de la nube de polvo y gas que rodea a «Sagitario A*» (en el centro). Allí hay 12 parejas de agujeros negros y estrellas. Los primeros se alimentan del gas de estas y emiten rayos X que se pueden detectar para inferir cuántos agujeros negros en total hay cerca del centro de la Vía Láctea-Columbia University
Lo interesante en este caso es que en torno a «Sgr A*» se arremolina un importante halo de gas y polvo. Desde que la Vía Láctea comenzó a formarse, momento en el que también comenzó a formarse «Sagitario A*», este gas y este polvo estuvieron tan concentrados que se convirtieron en el combustible idóneo para la formación de grandes estrellas. Estas estrellas nacieron, vivieron y murieron, y eran tan pesadas, que sus cadáveres colapsaron y se transformaron en agujeros negros. Al menos en teoría.
Los agujeros invisibles
Durante más de dos décadas los astrofísicos han buscado pruebas de la presencia de todos los agujeros negros que deberían haberse creado cerca de «Sgr A*». No ha sido una tarea fácil porque la mayoría de los agujeros negros están aislados y no emiten ninguna luz: son realmente oscuros e invisibles. Pero, ¿por qué se buscan? El motivo fundamental es que detectarlos permitiría confirmar las teorías sobre cómo se formaron la Vía Láctea y todas las otras galaxias, mucho más lejanas y, por tanto, inaccesibles.
Imagen del centro de la Vía Láctea. Los puntos rojos emiten rayos X y son agujeros negros-Nature y Hailey, et. al.
«Apenas hay cinco docenas de agujeros negros conocidos en toda la galaxia, que mide 100.000 años luz, y se supone que debe de haber 10.000 o 20.000 de esas cosas en una región –el centro galáctico, cerca de “Sgr A*»– que apenas mide seis años luz, y que nadie ha podido encontrar», dice Chuck Hailey.
Se ha intentado muchas veces, pero hasta ahora no se han encontrado pruebas sólidas de que allí hubiera un «enjambre» de agujeros negros. Así que los astrofísicos han tenido que ingeniárselas para buscar una forma de detectar a estos fantasmas.
Las parejas de agujeros y estrellas
La forma ha sido buscar a la fracción de estos agujeros que en el pasado capturaron a una estrella vecina, y quedaron convertidos así en sistemas binarios. Según dice Hailey, cuando eso ocurre a veces pasa que el agujero negro roba gas de la estrella compañera y comienza a «tragárselo». Esto libera rayos X de forma constante que se pueden captar desde la Tierra, pero con una tecnología solo disponible ahora.
«Si podemos detectar agujeros negros acoplados a estrellas de baja masa –son estas parejas los que emiten los rayos X que se han detectado ahora– y conocemos qué proporción de los agujeros negros estarán en estas parejas, podemos inferir de forma científica cuál es la población de agujeros negros aislados ahí fuera», resume Hailey.
¿Cómo saben cuántos agujeros aislados hay por cada pareja? Según reconoce Hailey, para responder a eso solo se puede recurrir a una teoría, basada en observaciones, que dice que por cada 100 agujeros negros, cinco forman sistemas binarios que emiten rayos X. Pero, incide: «No creo que el número preciso sea muy importante. Lo que importa es la diferencia entre “no tenemos ni idea” y un número grande». Según el astrofísico, tanto si hubiera 1.000 como 5.000 se trataría de un resultado muy interesante.
Los investigadores recurrieron a los datos captados por el telescopio espacial de rayos X Chandra, en busca de las huellas características de los agujeros negros emparejados con estrellas de baja masa. Así encontraron 12 de estos sistemas binarios en una distancia de tres años luz de «Sgr A*». Después, analizaron las propiedades y la distribución de estos objetos e hicieron unas extrapolaciones según las cuales debe de haber de 300 a 500 agujeros negros de ese tipo y 10.000 agujeros negros solitarios en torno a «Sagitario A*».
«Probablemente hay agujeros negros de todas las edades. Algunos podrían haberse formado hace decenas de miles de millones de años, y otros apenas tener decenas de millones de años», dice Hailey.
La Vía Láctea, una más entre las galaxias
Sea como sea, lo cierto es que estos hallazgos confirman una hipótesis que desde hace dos décadas es clave para comprender el origen de la Vía Láctea y la evolución de las otras galaxias. «La Vía Láctea es una galaxia normal y corriente, así que encontrar todos esos agujeros negros dentro de ella nos dice que la mayoría de las galaxias también rebosan con grandes números de agujeros negros, lo que es bastante bueno».
Una de las consecuencias prácticas, aparte de lo interesante que es comprender de dónde venimos, es que si existen todos esos objetos en el núcleo de las galaxias, en teoría deberíamos captar el «ruido» que producen en forma de ondas gravitacionales. ¿Será así? ¿Qué aprenderemos sobre los centros y las historias de las galaxias en las próximas décadas
ABC-CIENCIA
May
10
¡La Importancia de las Constantes Universales!
por Emilio Silvera ~ Clasificado en Constantes universales ~ Comments (2)
Hay en todas las cosas un ritmo que es de nuestro Universo.
“Hay simetría, elegancia y gracia…esas cualidades a las que se acoge el verdadero artista. Uno puede encontrar ese ritmo en la sucesión de las estaciones, en la en que la arena modela una cresta, en las ramas de un arbusto creosota o en el diseño de sus hojas. Intentamos copiar ese ritmo en nuestras vidas y en nuestra sociedad, buscando la medida y la cadencia que reconfortan. Y sin embargo, es posible ver un peligro en el descubrimiento de la perfección última. Está claro que el último esquema contiene en sí mismo su propia fijeza. En esta perfección, todo conduce hacia la muerte.”
De “Frases escogidas de Muad´Dib”, por la Princesa Irulan.
Conociendo el Universo
Pero demos un salto en el tiempo y viajemos hasta los albores del siglo XX cuando se hacía cada vez más evidente que alguna clase de energía atómica era responsable de la potencia del Sol y del resto de las estrellas que más lejos, brillaban en la noche oscura. Ya en 1898, sólo dos años despuès del descubrimiento de la radiactividad por Becquerel, el geólogo americano Thomas Chrowder Chamberlin especulaba que los átomos eran “complejas organizaciones y centros de enormes energías”, y que “las extraordinarias que hay en el centro del Sol pueden…liberar una parte de su energía”. Claro que, por aquel entonces, nadie sabía cual era el mecanismo y cómo podía operar, hasta que no llegamos a saber mucho más, sobre los átomos y las estrellas.
¿Quién puede decir lo que habrá en otros mundos, en otros ecosistemas?
“Debido a su relativa abundancia y utilidad en el sostenimiento de la vida, muchos han conjeturado que todas las formas de vida, donde quiera que se produzcan, se valdrían también de estos materiales básicos. Aun así, otros elementos y solventes pueden proveer una cierta base de vida. Se ha señalado al silicio como una alternativa posible al carbono; basadas en este elemento, se han propuesto formas de vida con una morfología cristalina, teóricamente capaces de existir en condiciones de alta temperatura, como en planetas que orbiten muy cercanos a su estrella.
También se han sugerido formas de vida basadas en el otros solventes, pues existen compuestos químicos capaces de mantener su estado líquido en diferentes rangos de temperatura, ampliando así las zonas habitables consideradas viables. Así por ejemplo, se estudia el amoníaco como solvente alternativo al agua. La vida en un océano de amoníaco podría aparecer en un planeta mucho más lejano a su estrella.”
Aquí cada día, elegimos una cuestión distinta que se relaciona, de alguna manera, con la ciencia que está repartida en niveles del saber denominados: Matemáticas, Física, Química,Astronomía, Astrofísica, Biología, Cosmología… y, de vez en cuando, nos preguntamos por el misterio de la vida, el poder de nuestras mentes evolucionadas y hasta dónde podremos llegar en nuestro camino, y, repasamos hechos del pretérito que nos trajeron hasta aquí. Bueno, de hecho, también especulamos con eso que llamamos futuro, y, nos preguntamos si estamos haciendo bien las cosas para evitar que, podamos crear alguna especie artificial que nos esclavice.
El deambular de la mente Humana por todos los caminos posibles, reales o no, queda bien reflejado en las reflexiones y preguntas que se hace nuestro visitante y contertulio Ricard, en el último comentario aquí dejado y que, os aconsejo leer.
Algunos postulan que el Universo surgió de la nada, y, desde luego, la Nada, como la Eternidad o el Infinito, ¡no existen! Tengo claro que, si surgió… ¡Es porque había! Hablamos de una singularidad, un punto de densidad y energías infinitas de donde pudo surgir todo lo que existe, le llamamos Big Bang y, al menos por el momento, es el Modelo más aceptado. Sin embargo, seguros seguros de que así sea… ¡No lo podemos estar! Existen muchas incognitas y preguntas sin contestar sobre ese supuesto suceso que… más de diez millones de años más tarde, dicen que nos trajo hasta aquí.
Lo que sucede primero, no es necesariamente el principio. Antes de ese “Principio”, suceden algunas cosas que nosotros no hemos podido o sabido percibir. Sin embargo, hay cosas que no cambian nunca. Hace tiempo, los sucesos que constituían historias eran las irregularidades de la experiencia. Sabemos que lo que no cambia son las Constantes de la Naturaleza pero, tampoco cambia el Amor de una madre por un hijo, la salida y la puesta del Sol, nuestra curiosidad, y otras muchas cosas que conviven con nosotros en lo cotidiano.
Hay cosas en la Naturaleza que son inmutables, como nuestro asombro ante una maravilla
Poco a poco, los científicos llegaron a apreciar el misterio de la regularidad y lo predecible del mundo. Pese a la concatenación de movimientos caóticos e impredecibles de átomos y moléculas, nuestra experiencia cotidiana es la de un mundo que posee una profunda consistencia y continuidad. Nuestra búsqueda de la fuente de dicha consistencia atendía primero a las leyes de la Naturaleza que son las que gobiernan como cambian las cosas. Sin embargo, y al mismo tiempo, hemos llegado a identificar una colección de números misteriosos arraigados en la regularidad de la apariencia. Son las Constantes de la Naturaleza que, como la carga y la masa del electrón o la velocidad de la luz, le dan al Universo un carácter distintivo y lo singulariza de otros que podríamos imaginar. Todo esto, unifica de una vez nuestro máximo conocimiento y también, nuestra infinita ignorancia.
En esta galaxia también están presentes las constantes de la Naturaleza
Esos números misteriosos (el valor de esas constantes fundamentales), son medidos con una precisión cada vez mayor y modelamos nuestros patrones fundamentales de masa y tiempo alrededor de su invariancia. Sin embargo, no podemos explicar sus valores. ¿Por qué la constante de estructura fina vale 1/137? Nadie puede contestar a esa “simple” pregunta. Sabemos que ahí, en esa constante, están involucrados los tres guarismos h, e, y c. El primero es la constante de Planck (la mecánica cuántica), el segundo el Electrón (el electromagnetismo), y, el tercero, la velocidad de la luz (la relatividad especial de Eisntein).
A pesar del cambio incesante y la dinámica del mundo visible, existen aspectos misteriosos del ritmo del Universo que son inquebrantables en su constancia, así lo podemos comprobar en la fuerza gravitatoria o en la velocidad de la luz en el vacío entre otros. Son estas misteriosas cosas invariables las que hacen de nuestro Universo el que es y lo distingue de otros muchos que pudiéramos imaginar. Existe un hilo invisble que teje incesante una continuidad a lo largo y a lo ancho de toda la Naturaleza: Algunas cosas cambian para que todo siga igual.
Allí lejos, en esos otros mundos que, situados en galaxias lejanas son parecidos al nuestro, seguramente también, pasarán las mismas cosas que aquí.
En regiones lejanas del Universo, por muy extrañas que nos pudieran parecer, también estarían regidas por las mismas constantes de la Naturaleza que en la nuestra, el Sistema solar. Esas constantes están presentes en todas partes y, al igual que las cuatro fuerzas fundamentales, disponen que todo transcurra como debe ser.
Así que, tomando como patrón universal esas constantes, podemos esperar que ciertas cosas sean iguales en otros lugares del espacio además de la Tierra, lo único que in situ, conocemos. Hasta donde nuestros conocimientos han llegado también parece razonable pensar que dichas constantes fueron y serán las mismas en otros tiempos además de hoy, ya que, para algunas cosas, ni la historia ni la geografía importan. De hecho, quizá sin un substrato semejante de realidades invariables no podrían existir corrientes superficiales de cambio ni ninguna complejidad de mente y materia. Todos sabemos, por ejemplo que, si la carga del electrón variara aunque sólo fuese una diez millonésima parte de la que es, la vida no podría existir.
Esas constantes hacen posible nuestra presencia aquí
La invariancia de las constantes hace posible que nuestro Universo contenga las maravillas que podemos en él observar. Sin embargo, a lo largo de la historia muchos se han empeñado en hacerlas cambiar…pero no lo consiguieron. No pocas veces tenemos que leer en la prensa o revistas “especializadas” noticas como estas:
“Nueva evidencia sostiene que los seres humanos vivimos en un área del Universo que está hecha especialmente para nuestra existencia. ¿Según los cientificos? Esto es lo que más se aproxima a la realidad. El controversial hallazgo se obtuvo observando una de las constantes de la naturaleza, la cual parece ser diferente en distintas partes del Cosmos.”
En cualquier sitio que las queramos medir… ¡Siempre darán el mismo resultado!
Desde luego, no estoy muy conforme con esto, ya que, si es verdad que nosotros no podríamos vivir junto a un Agujero negro gigante, que por otra parte, no deja de ser un objeto singular que se sale de lo corriente. La normalidad son estrellas y planetas que, en las adecuadas circunstancias, tendrán las mismas cosas que aquí podemos observar mirando al Sol y los planetas que lo circundan, donde unos podrán contener la vida y otros no, dado que la presencia de una atmósfera y agua líquida determina lo que en ellos pueda estar presente.
El problema de si las constantes físicas son constantes se las trae. Aparte del trabalenguas terminológico arrastra tras de sí unas profundas consecuencias conceptuales. Lo primero, uno de los pilares fundamentales de la relatividad especial es el postulado de que las leyes de la física son las mismas con independencia del observador. Esto fue una generalización de lo que ya se sabía cuando se comenzó a estudiar el campo electromagnético, pero todo lo que sabemos en la actualidad nos lleva a concluir que Lo que ocurra en la Naturaleza del Universo está en el destino de la propia Naturaleza del Cosmos, de las leyes que la rigen y de las fuerzas que gobiernan sus mecanismos sometidos a principios y energías que, en la mayoría de los casos, se pueden escapar a nuestro actual conocimiento.
Los posibles futuros de nuestro universo
Yo aconsejaría a los observadores que informaron y realizaron “el estudio” (que se menciona más arriba) que prestaran más atención o que cambiaran los aparatos e instrumentos de los que se valieron para llevarlo a cabo, toda vez que hacer tal afirmación, además de osados, se les podría calificar de incompetentes.
De estar en lo cierto, tal informe se opondría al principio de equivalencia de Albert Einstein, el cual postula que las leyes de la física son las mismas en cualquier región del Universo. “Este descubrimiento fue una gran sorpresa para todos”, dice John Webb, de la Universidad de New South Wales, en Sidney (Australia ), líder del estudio que sigue diciendo: Aún más sorprendente es el hecho de que el cambio en la constante parece tener una orientación, creando una “dirección preferente”, o eje, a través del Universo. Esa idea fue rechazada más de 100 años atrás con la formulación de la teoría de la relatividad de Einstein que, de momento, no ha podido ser derrocada (aunque muchos lo intentaron).
Los autores de tal “estudio” se empeñaron en decir que:
“La Tierra se ubica en alguna parte del medio de los extremos, según la constante “alpha”. Si esto es correcto, explicaría por qué dicha constante parece tener un valor sutilmente sintonizado que permite la química, y por lo tanto la vida, como la conocemos.
Con un aumento de 4% al valor de “alpha”, por ejemplo, las estrellas no podrían producir carbón, haciendo nuestra bioquímica imposible, según información de New Scientist.”
Siendo cierto que una pequeña variación de Alfa, no ya el 4%, sino una simple diezmillonésima, la vida no podría existir en el Universo. Está claro que algunos, no se paran a la hora de adquirir una efímera notoriedad, ya que, finalmente, prevalecerá la verdad de la invariancia de las constantes que, a lo largo de la historia de la Física y la Cosmología, muchas veces han tratado de hacerlas cambiantes a lo largo del tiempo, y, sin embargo, ahí permanecen con su inamovible estabilidad.
Veamos por encima, algunas constantes:
La Constante de Gravitación Universal: G
La primera constante fundamental es G, la que ponemos delante de la fórmula de la gravedad de Newton. Es una simple constante de proporcionalidad pero tambien ajusta magnitudes: se expresa en N*m2/Kg2.
Es tal vez la constante peor medida (sólo se está seguro de las tres primeras cifras…), y como vemos la fuerza de la gravedad es muy débil (si no fuera porque siempre es atractiva ni la sentiríamos).
La Constante Electrica: K
No confundir con la constante K de Bolzman para termodinamica y gases…
La ley de Coulomb es practicamente igual a la de la gravitación de Newton, si sustituimos las masas por las cargas, es inversa al cuadrado de la distancia y tiene una constante de proporcionalidad llamada K. La constante es la de de Coulomb y su valor para unidades del SI es K = 9 * 109 * N * m2 / C2
La velocidad de la luz c = 299.792.458 m/s y se suele aproximar por 3·10^8m/s
Según la teoría de la relatividad de Einstein, ninguna información puede viajar a mayor velocidad que la luz. Científicos australianos afirman, sin embargo, haber desarrollado las fórmulas que describen viajes más allá de este límite. ¡Será por soñar!
Que la velocidad de la luz es una constante se comprobó hasta la saciedad en diversos experimentos, como el famoso experimento Michelson-Morley que determinó mediante un interferómetro que la velocidad de la luz no dependía de la velocidad del objeto que la emitía, esto descartó de golpe la suposición de que hubiera un “eter” o sustancia necesaria por la que se propagara la luz.
En su lugar aparecieron las famosas transformaciones de Lorentz. La contracción de Lorentz explicaba el resultado del experimento. La rapidez constante de la luz es uno de los postulados fundamentales (junto con el principio de causalidad y la equivalencia de los marcos de inercia) de la Teoría de la Relatividad Especial.
Así que, amigos míos, esas cantidades conservarán su significado natural mientras la ley de gravitación y la de la propagación de la luz en el vacío y los dos principios de la termodinámica sigan siendo válidos. A tal respecto Max Planck solía decir:
“Por lo tanto, al tratarse de números naturales que no inventaron los hombres, siempre deben encontrarse iguales cuando sean medidas por las inteligencias más diversas con los métodos más diversos” .
En sus palabras finales alude a la idea de observadores situados en otros lugares del Universo que definen y entienden esas cantidades de la misma manera que nosotros, sin importar que aparatos o matemáticas pudieran emplear para realizar sus comprobaciones.
Estaba claro que Planck apelaba a la existencia de constantes universales de la Naturaleza como prueba de una realidad física completamente diferente de las mentes humanas. Pero él quería ir mucho más lejos y utilizaba la existencia de estas constantes contra los filósofos positivistas que presentaban la ciencia como una construcción enteramente humana: puntos precisos organizados de una forma conveniente por una teoría que con el tiempo sería reemplazada por otra mejor. Claro que Planck reconocía que la inteligencia humana, al leer la naturaleza había desarrolado teorías y ecuaciones para poder denotarlas pero, sin embargo, en lo relativo a las constantes de la naturaleza, éstas habían surgido sin ser invitadas y, como mostraban claramente sus unidades naturales (unidades de Planck) no estaban escogidas exclusivamente por la conveniencia humana.
La velocidad de c está presente en el espacio vacío
Las constantes de la Naturaleza inciden en todos nosotros y, sus efectos, están presentes en nuestras mentes que, sin ellas, no podrían funcionar de la manera creadora e imaginativa que lo hacen. Ellas le dan el ritmo al Universo y hacen posible que todo transcurra como debe transcurrir.
Es curioso comprobar que, una de las paradojas de nuestro estudio del Universo circundante es que a medida que las descripciones de su funcionamiento se hacen más precisas y acertadas, también se alejan cada vez más de toda la experiencia humana que, al estar reducidas a un ámbito muy local y macroscópico, no puede ver lo que ocurre en el Universo en su conjunto y, por supuesto, tampoco en ese otro “universo” de lo infinitesimal que nos define la mecánica cuántica en el que, cuando nos acercamos, podemos observar cosas que parecen fuera de nuestro mundo, aunque en realidad, sí que están aquí.
La revolución de la mecánica cuántica empieza a materializarse, y el qubit es el principal protagonista. Siendo la unidad mínima de información de este extraño mundo, permitirá procesar toda la información existente en segundos. La revolución de la mecánica cuántica empieza a materializarse, y el qubit es el principal protagonista. Siendo la unidad mínima de información de este extraño mundo, permitirá procesar toda la información existente en segundos.
No podemos descartar la idea de que, en realidad, puedan existir “seres también infinitesimales” que, en sus “pequeños mundos” vean transcurrir el tiempo como lo hacemos nosotros aquí en la Tierra. En ese “universo” especial que el ojo no puede ver, podrían existir otros mundos y otros seres que, como nosotros, desarrollan allí sus vidas y su tiempo que, aunque también se rigen por las invariantes constantes universales, para ellos, por su pequeñez, el espacio y el tiempo tendrán otros significados. Si pensamos por un momento lo que nosotros y nuestro planeta significamos en el contexto del inmenso universo… ¿No viene a suponer algo así?
Einstein nos dejó dichas muchas cosas interesantes sobre las constantes de la Naturaleza en sus diferentes trabajos. Fue su genio e intuición sobre la teoría de la relatividad especial la que dotó a la velocidad de la luz en el vacío del status especial como máxima velocidad a la que puede transmitirse información en el Universo. El supo revelar todo el alcance de lo que Planck y Stoney simplemente habían supuesto: que la velocidad de la luz era una de las constantes sobrehumanas fundamentales de la Naturaleza.
La luz se expande por nuestro Universo de manera isotrópica, es decir, se expande por igual en todas las direcciones. Así actúan las estrellas que emiten su luz o la bombilla de una habitación. Cuando es anisotrópica, es decir que sólo se expande en una dirección, tendríamos que pensar, por ejemplo, en el foco de un teatro que sólo alumbra a la pianista que nos deleita con una sonata de Bach.
La luz de las estrellas: Podemos ver como se expande por igual en todas las direcciones del espacio (Isotrópica). Al contrario que los reflectores que enfocan a los artistas en el escenario.
Claro que, cuando hablamos de las constantes, se podría decir que algunas son más constantes que otras. La constante de Boltzmann es una de ellas, es en realidad una constante aparente que surje de nuestro hábito de medir las cosas en unidades. Es sólo un factor de conversión de unidades de energía y temperatura. Las verdaderas constantes tienen que ser números puros y no cantidades con “dimensiones”, como una velocidad, una masa o una longitud.
Las cantidades con dimensiones siempre cambian sus valores numéricos si cambiamos las unidades en las que se expresan.
Las constantes fundamentales determinan el por qué, en nuestro Universo, las cosas son como las observamos.
Y, a todo esto, la teoría cuántica y de la Gravitación gobiernan reinos muy diferentes que tienen poca ocasión para relacionarse entre sí. Mientras la una está situada en el mundo infinitesimal, la otra, reina en el macrocosmos “infinito” del inmenso Universo. Sin embargo, las fuerzas que rigen en el mundo de los átomos son mucho más potentes que las que están presentes en ese otro mundo de lo muy grande. ¡Qué paradoja!
¿Dónde están los límites de la teoría cuántica y los de la relatividad general? Somos afortunados al tener la respuesta a mano, Las unidades de Planck nos dan la respuesta a esa pregunta:
Supongamos que tomamos toda la masa del Universo visible y determinamos la longitud de onda cuántica. Podemos preguntarnos en que momento esa longitud de onda cuántica del Universo visible superará su tamaño. La respuesta es: Cuando el Universo sea más pequeño que la longitud de Planck (10-33 centímetros), más joven que el Tiempo de Planck (10-43 segundos) y supere la Temperatura de Planck (1032 grados). Las unidades de Planck marcan la frontera de aplicación de nuestras teorías actuales. Para comprender a qué se parece el mundo a una escala menor que la Longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la Gravedad.
El satélite Planck un observatorio que explora el universo lleva el mismo nombre del fundador de la teoría cuántica será pura coincidencia?. Credito: ESA. La Gravedad cuántica queda aún muy lejos de nuestro entendimiento.
La Relatividad General la teoría de Einstein de la gravedad, nos da una base útil para matemáticamente modelar el universo a gran escala -, mientras que la Teoría Cuántica nos da una base útil para el modelado de la física de las partículas subatómicas y la probabilidad de pequeña escala, de la física de alta densidad de energía de los inicios del universo – nanosegundos después del Big Bang – en la cuál la relatividad general sólo la modela como una singularidad y no tiene nada más que decir sobre el asunto.
Las teorías de la Gravedad Cuántica pueden tener más que decir, al extender la relatividad general dentro de una estructura cuantizada del espacio tiempo puede ser que nosotros podamos salvar la brecha existente entre la física de gran escala y de pequeña escala, al utilizar por ejemplo la Relatividad Especial Doble o Deformada.
¡Es tanto lo que nos queda por saber!
El día que se profundice y sepamos leer todos los mensajes subyacentes en el número puro y adimensional 137, ese día, como nos decía Heinsemberg, se habrán secado todas las fuentes de nuestra ignorancia. Ahí, en el 137, Alfa (α) Constante de estructura Fina, residen los secretos de la Relatividad Especial, la Velocidad de la Luz, c, el misterio del electromagnetismo, el electrón, e, y, la Mecánica Cuántica, es decir el cuanto de acción de Planck, h.
emilio silvera
May
10
Siempre es la misma cosa…que adopta distintas formas
por Emilio Silvera ~ Clasificado en Cerebro y Mente ~ Comments (0)
La Mente, el mundo, el Universo
Nuestra estrategia para explicar la base neuronal de la conciencia consiste en centrarse en las propiedades más generales de la experiencia consciente, es decir, aquella que todos los estados conscientes comparte. De estas propiedades, una de las más importantes es la integración o unidad. La integración se refiere a que el sujeto de la experiencia no puede en ningún momento dividir un estado consciente en una serie de componentes independientes. Es una propiedad que está relacionada con nuestra incapacidad para hacer conscientemente dos cosas al mismo tiempo, como, por ejemplo relacionar en un papel todas las familias de partículas que conocemos mientras que, al mismo tiempo, se mantiene una discusión sobre los agujeros negros.
Aplicando la atención hemos llegado a saber que, el electrón tiene una masa en reposo (me) de 9, 109 3897 (54) x 10-31 kg y una carga negativa de 1,602 177 33(49) x 10-19 culombios. Esa realidad, aunque vinieran los sabios físicos de un planeta habitable situado en la estrella Resplandor de una Galaxia muy lejana, cuando hicieran los cálculos matemáticos y los experimentos necesarios, las cifras seguirían siendo las mismas, toda vez que, al tratarse de constantes fundamentales, ni la masa ni la carga pueden tener otra realidad distinta sea cual fuere el observador. Esto nos quiere decir que, hay realidades que nunca varian y, eso, nos puede traer alguna esperanza de que, alguna vez, podríamos conocer el Universo, tal como es.
Esta sí es una realidad, sin ella, el mundo no sería tal como lo conocemos.
Sin embargo, no podemos negar nuestras limitaciones tanto de percepción como intelectuales para reconocer “el mundo” tal como es. Es “nuestro mundo” que, cuando sea visitado por “otros”, pudiera ser muy distinto al que nosotros percibimos y, podrían “ver” cosas que nosotros no vemos.
Vivímos en nuestra propia realidad, la que forja nuestras mentes a través de los sentidos y la experiencia. Incluso entre nosotros mismos, los seres de la misma especie, no percibimos de la misma manera las mismas cosas. Sí, muchos podemos coincidir en la percepción de algo, sin embargo, otros muchos diferirán de nuestra percepción y tendrán la suya propia. Esa prueba se ha realizado y la diversidad estuvo presente.
Estará aquí, la llave de la sabiduría
No, no será nada fácil despejar las incognitas presentes en esta inmensa complejidad que llamamos Mente. Creo de manera firme que, finalmente, todo se traduce a Química y Luz. Energías de velocidades alucinantes que recorren el enmarañado entramado de neuronas y que hace posible todas y cada una de las maravillas que “real”mente se producen en nosotros y que no siempre sabemos traducir ni comprender.
Conexiones sin fin, más neuronas que estrellas en la Galaxia
Es tan grande el poder de nuestra mente que nada hay tan distante que no podamos, virtualmente hablando, traer ante nosotros. Somos capaces ya de escrutar el espacio y vislumbrar los confines del universo en edades muy cercanas a su nacimiento y, merced a los microscopios, nos acercamos al universo atómico para explorar los componentes de la materia. Parece que nada podrá (con el tiempo) escapar a nuestro control, con lo que todo nuevo “mundo” se revelará a nuestro entendimiento.
Nunca estamos satisfechos de los logros alcanzados (menos mal) y siempre surgirán seres especiales (Copérnico, Kepler, Galileo, Hooke, Newton…) que nos guiarán por el camino iluminado de su genio para mostrarnos la auténtica sabiduría mediante un pensamiento evolutivo que siempre dará un paso adelante, superando así el pensamiento nuevo al anterior. Pero, eso sí, esos avances han sido posible gracias a que hombres y mujeres pensaron con la lógica pero…, nunca dejaron de lado la imaginación.
La prueba de ello la podemos encontrar en Newton y Einstein. ¿Quién puede dudar de la grandeza de Newton? La pregunta está contestada de antemano. Sin embargo, los ejemplos de la historia son muy elocuentes: Newton con su física, Leibniz con su metafísica, con sus principios filosóficos como el de la razón suficiente. Y la física ganó a la metafísica; Newton a Leibniz, aunque de aquella batalla…habría mucho que hablar.
Durante mucho tiempo, espacio y tiempo se entendieron como entes absolutos, hasta que llegó Einsteincon sus dos teorías de la relatividad, la especial y la general, y aunque los caminos que siguió para conseguirlos no fueron metafísicos, no podemos negar la intervención de un genio de inspiración superior que a veces, nos puede llevar a pensar que, en algún sentido, finalmente Leibniz había sido el más acertado, ya que las teorías einstenianas pueden ser clasificadas dentro de un orden del pensamiento superior.
Así, la evolución continuó su camino imparable y el espacio y el tiempo absolutos de Newton, resultaron ser menos absolutos de lo que se pensaba; eran relativos y, además, eran una misma cosa, que a partir de ahí pasó a llamarse espacio-tiempo unidos y no separados. Así fue deducido por Minkouski al leer la teoría de Einstein.
Laplace
Quiero mencionar en este punto a dos grandes newtonianos: Lagrange y Laplace.
La obra de Newton, como todas las grandes obras, fue discutida y sometida a estudios rigurosos, analizada y removida. La ciencia del genio, claro, permaneció al margen de todas las críticas para dejar de ser discutida y pasar a ser desarrollada. Así ha resultado ser la Historia.
Recordemos en este sentido la cumbre de la física y de las matemáticas del siglo XVIII que es la Méchanique analytique (Chez la Veuve Desaint, París 1788), de Joseph-Louis Lagrange (1736 – 1813), un íntimo amigo de d’Alembert, en la que la mecánica de Newton alcanzó un nuevo nivel de pureza al reducir el sistema a un conjunto de fórmulas generales de las que se podían deducir todas las expresiones necesarias para resolver un problema. O los cinco tomos del Traité de mécanique céleste (Crapelet para J. B. M. Duprat, París 1799 – 1827) de Pierre-Simón Laplace (1749 – 1827), en los que se erradican numerosas anomalías de las explicaciones originales de Newton sobre los movimientos de los cuerpos celestes.
El texto de Laplace, al igual que el de Lagrange, era de difícil lectura para legos en las ciencias matemáticas, y tal complejidad dio lugar a versiones posteriores más sencillas para el entendimiento general, que finalmente hizo posible divulgar los enormes conocimientos alcanzados a partir de Newton, gracias a estos dos genios.
Sí, se vislumbra, a lo lejos, una esplendorada luz que, sin embargo, tiene en todo su centro un signo de interrogación que viene a significar lo que no sabemos. Es mucho lo que nos queda por descubrir y, hombres que, como Newton, Lagrange y Laplace y después Planck, Maxwell y Einstein nos han dejado un camino que seguir, sin embargo, no estamos situados aún en esa zona luminosa del saber sino que…
Un respiro en el camino:
- El ignorante, teme o adora lo que no comprende.
- Los ingratos acaban por disuadir a los virtuosos de poner en prácticas sus bondades.
- Amigo leal y franco, mirlo blanco.
Esto me recuerda aquella aseveración atribuida indistintamente a Séneca y Aristóteles:
“¡Oh, amigos míos, no hay ningún amigo!”
Hay otra que nos da a entender que los amigos egoístas y poco dispuestos a prestarnos su ayuda, en momentos necesarios son inútiles y no importa, pues, prescindir de ellos:
“Amigo que no presta y cuchillo que no corta,
que se pierdan poco importa.”
¡Esto de los amigos! Hay otra que dice:
“El que tiene un amigo, tiene un tesoro.
El que tiene un tesoro, tiene muchos ‘amigos’.”
“Si un amigo se comporta como la sombra que,
cuando luce el Sol nos abandona, no era un amigo.”
Pero volvamos al trabajo y continuemos repasando cosas interesantes y viajemos hasta el siglo XIX, que fue vital para la ciencia. Aunque la ciencia ya había mostrado para entonces su capacidad única para estudiar qué sucede en la naturaleza y qué principio (o leyes) la gobiernan, y contaba por entonces con una larga lista de teorías, datos y héroes científicos, no se había convertido todavía en una gran empresa, en la “profesión” que terminaría siendo.
La “profesionalización” e “institución” de la ciencia, entendiendo por tal que la práctica de la investigación científica se convirtiese en una profesión cada vez más abierta a personas sin medios económicos propios, que se ganaban la vida a través de la ciencia y que llegasen a atraer la atención de gobiernos e industrias, tuvo su explosión a lo largo de 1800, y muy especialmente gracias al desarrollo de dos disciplinas, la química orgánica y el electromagnetismo. Estas disciplinas, junto a las matemáticas, la biología y las ciencias naturales (sin las cuales sería una necedad pretender que se entiende la naturaleza, pero con menos repercusiones socio-económicas), experimentaron un gran desarrollo entonces, tanto en nuevas ideas como en el número de científicos importantes: Faraday, Maxwell, Lyell, Darwin y Pasteur, son un ejemplo. Sin olvidar a otros como Mendel, Helmholtz, Koch, Virchow, Lister o Kelvin, o la matemática de Cauchy, de Gauss, Galois, Fourier, Lobachevski, Riemann, Klein, Cantor, Russell, Hilbert o Poincaré. Pero vamos a pararnos un momento en Faraday y Maxwell.
Faraday
Para la electricidad, magnetismo y óptica, fenómenos conocidos desde la antigüedad, no hubo mejor época que el siglo XIX. El núcleo principal de los avances que se produjeron en esa rama de la física (de los que tanto se benefició la sociedad –comunicaciones telegráficas, iluminación, tranvías y metros, etc.–) se encuentra en que, frente a lo que se suponía con anterioridad, se descubrió que la electricidad y el magnetismo no eran fenómenos separados.
El punto de partida para llegar a este resultado crucial fue el descubrimiento realizado en 1.820 por el danés Hans Christian Oersted (1777 – 1851) de que la electricidad produce efectos magnéticos: observó que una corriente eléctrica desvía una aguja imanada. La noticia del hallazgo del profesor danés se difundió rápidamente, y en París André-Marie Ampère (1775 – 1836) demostró experimentalmente que dos hilos paralelos por los que circulan corrientes eléctricas de igual sentido, se atraen, repeliéndose en el caso de que los sentidos sean opuestos.
Poco después, Ampère avanzaba la expresión matemática que representaba aquellas fuerzas. Su propósito era dar una teoría de la electricidad sin más que introducir esa fuerza (para él “a distancia”).
Pero el mundo de la electricidad y el magnetismo resultó ser demasiado complejo como para que se pudiera simplificar en un gráfico sencillo, como se encargó de demostrar uno de los grandes nombres de la historia de la ciencia: Michael Faraday (1791 – 1867), un aprendiz de encuadernador que ascendió de ayudante de Humphry Davy (1778 – 1829) en la Royal Intitution londinense.
En 1821, poco después de saber de los trabajos de Oersted, Faraday, que también dejó su impronta en la química, demostró que un hilo por el que pasaba una corriente eléctrica podía girar de manera continua alrededor de un imán, con lo que vio que era posible obtener efectos mecánicos (movimiento) de una corriente que interacciona con un imán. Sin pretenderlo, había sentado el principio del motor eléctrico, cuyo primer prototipo sería construido en 1.831 por el físico estadounidense Joseph Henry (1797 – 1878).
Lo que le interesaba a Faraday no eran necesariamente las aplicaciones prácticas, sino principalmente los principios que gobiernan el comportamiento de la naturaleza, y en particular las relaciones mutuas entre fuerzas, de entrada, diferentes. En este sentido, dio otro paso importante al descubrir, en 1.831, la inducción electromagnética, un fenómeno que liga en general los movimientos mecánicos y el magnetismo con la producción de corriente eléctrica.
Este fenómeno, que llevaría a la dinamo, representaba el efecto recíproco al descubierto por Oersted; ahora el magnetismo producía electricidad , lo que reforzó la idea de que un lugar de hablar de electricidad y magnetismo como entes separados, sería más preciso referirse al electromagnetismo.
La intuición natural y la habilidad experimental de Faraday hicieron avanzar enormemente el estudio de todos los fenómenos electromagnéticos. De él es, precisamente, el concepto de campo que tanto juego ha dado a la física.
Sin embargo, para desarrollar una teoría consistente del electromagnetismo se necesitaba un científico distinto: Faraday era hábil experimentador con enorme intuición, pero no sabía expresar matemáticamente lo que descubría, y se limitaba a contarlo. No hubo que esperar mucho, ni salir de Gran Bretaña para que un científico adecuado, un escocés de nombre James Clerk Maxwell (1831 – 1879), hiciera acto de presencia.
Maxwell
Maxwell desarrolló las matemáticas para expresar una teoría del magnetismo-electricidad (o al revés) que sentó las bases físicas de aquel fenómeno y contestaba a todas las preguntas de los dos aspectos de aquella misma cosa, el electromagnetismo. En sus ecuaciones vectoriales estaban todos los experimentos de Faraday, que le escribió una carta pidiéndole que le explicara, con palabras sencillas, aquellos números y letras que no podía entender.
Pero además, Maxwell también contribuyó a la física estadística y fue el primer director del Laboratorio Cavendish, unido de manera indisoluble a la física de los siglos XIX y XX (y también al de biología molecular) con sede en Cambridge.
Su conjunto de ecuaciones de, o en, derivadas parciales rigen el comportamiento de un medio (el campo electromagnético) que él supuso “transportaba” las fuerzas eléctricas y magnéticas; ecuaciones que hoy se denominan “de Maxwell”. Con su teoría de campo electromagnético, o electrodinámica, Maxwell logró, además, unir electricidad, magnetismo y óptica. Las dos primeras, como manifestaciones de un mismo substrato físico, electromagnético, que se comporta como una onda, y la luz, que es ella misma, una onda electromagnética, lo que, en su tiempo, resultó sorprendente.
Más de ciento treinta años después, todavía se podía o se puede apreciar la excitación que sintió Maxwell cuando escribió en el artículo Sobre las líneas físicas de la fuerza, 1.861 – 62, en el que presentó esta idea: “Difícilmente podemos evitar la inferencia de que la luz consiste de ondulaciones transversales del mismo medio que es la causa de los fenómenos eléctricos y magnéticos.”
Todo aquello fue posible gracias a las bases sentadas por otros y a los trabajos de Faraday como experimentador infatigable, que publicaba sus resultados en artículos y los divulgaba en conferencias en la sede de la Royal Institution londinense. Todos estos artículos y conferencias fueron finalmente publicados en el libro que llamaron Philosophical transactions de la Royal Society, y Experimental researches in chemistry and physics (Richard Taylor y William Francis, Londres, 1.859; dos grandes científicos unidos por la historia de la ciencia que nos abrieron puertas cerradas que nos dejaron entrar al futuro).
No quiero seguir por este camino de personajes y sus obras ya que están enmarcados y recogidos en mi libreta (primera parte de personajes), así que desviaré mis pensamientos hacia otras diversas cuestiones de mi interés, y espero que también del vuestro. Antes dejaba la reseña de algún refrán o pensamiento sobre la amistad, y en realidad también podemos ver la cara amable de esta forma de sentimiento-aprecio-amor que llamamos amistad.
Nosotros, los seres humanos, nunca vemos a nuestros semejantes como objetos o cuerpos neutros, sino que los miramos como personas con una riqueza interior que refleja su estado de ánimo o forma de ser, y de cada uno de ellos nos llegan vibraciones que, sin poderlo evitar, nos transmiten atracción o rechazo (nos caen bien o nos caen mal).
Son muchos y diversos los signos sensoriales que, en silencio, nos llegan de los demás y son recogidos por nuestros sensores en una enorme gama de mensajes sensitivos que llamamos indistintamente simpatía, pasión, antipatía, odio, etc.
Está claro que cuando el sentimiento percibido es positivo, la satisfacción se produce por el mero hecho de estar junto a la persona que nos lo transmite, que con su sola presencia, nos está ofreciendo un regalo, y si apuramos mucho, a veces lo podríamos llamar incluso “alimento del alma”. Estar junto a quien nos agrada es siempre muy reconfortante, y según el grado de afinidad, amistad o amor, el sentimiento alcanzará un nivel de distinto valor.
Caigo en la cuenta de que, además de la materia, el espaciotiempo, y las fuerzas de la Naturaleza, aquí existe algo más que, está dentro de nuestras mentes y que, de momento, no podemos comprender. Sin embargo, si podemos sentir los sentimientos o la satisfacción que nos produce el el querer y poder amar, aprender y descubrir.
¡La Humanidad! ¿Quién la entiende?
emilio silvera
May
10
¿La sustancia cósmica? ¡La semilla de la materia!
por Emilio Silvera ~ Clasificado en Lo que no sabemos ~ Comments (0)
Debajo de ésta imagen se puede leer:
“Hallan indicios de materia oscura unida al Cosmos. La evidencia muestra nuevos fenómenos físicos que podrían ser la extraña y desconocida materia oscura o la energía que se origina de los pulsares. Un detector de rayos cósmicos de dos mil millones de dólares en la Estación Espacial Internacional halló la huella de algo que pudiera ser la materia oscura, la misteriosa sustancia que se cree mantiene unido al cosmos.”
“Pero los primeros resultados del Espectrómetro Magnético Alfa (AMS, por sus siglas en inglés) son casi tan enigmáticos como la materia oscura en sí, la cual nunca ha sido observada directamente. Muestran evidencia de nuevos fenómenos físicos que podrían ser la extraña y desconocida materia oscura o la energía que se origina de los pulsares, anunciaron un miércoles científicos en el laboratorio europeo de física de partículas cerca de Ginebra.”
El Espectrómetro Magnético Alpha, también designado AMS-02, es un módulo experimental de física de partículas que será instalado en la Estación Espacial Internacional. Fue diseñado para detectar varias clases de materia exótica mediante la medición de rayos cósmicos.
Como no me canso de repetir, cualquiera de estas noticias nos vienen a decir que, de la “materia oscura”, nada sabemos. Sería conveniente, para que las cuentas cuadren, que exista esa dichosa clase de materia o lo que pueda ser, toda vez que, sin ella, no resulta fácil llegar a una conclusión lógica de cómo se pudieron formar las galaxias, o, de por qué se mueven las estrellas de la manera que lo hacen.
hace treinta años, los astrofísicos se enfrentan a este dilema: o bien las galaxias tienen mucha materia que no vemos, pero que causa una fuerte atracción gravitatoria sobre las estrellas externas (que por ello orbitarían tan rápido) o bien ni la ley de la gravedad de Newton ni la de Einstein serían válidas esas regiones externas de las galaxias. Las dos opciones son revolucionarias para la física: la primera implica la existencia de materia oscura en el universo (materia que no vemos pero que sí afecta al movimiento de las estrellas y galaxias), y la segunda implica que una ley básica (la de Newton/Einstein de la gravitación) es incorrecta.
En el momento actual, no sabemos cual de esas dos opciones es la buena (podrían incluso ser buenas las dos, es decir, que existiera materia oscura y además que la teoría de Newton/Einstein estuviera mal. No creo que sea ese el problema, debe haber una tercera opción desconocida que debemos encontrar). La gran mayoría de los astrofísicos prefieren explicarlo con la materia oscura (un camino cómodo y fácil) antes que dudar de las leyes de la gravitación de Newton/Einstein. Esto no es sólo cuestión de gustos, es que las leyes de la gravitación funcionan con una increíble exactitud en todos los demás casos donde las hemos puesto a prueba (en los laboratorios, en las naves espaciales y los interplanetarios, en la dinámica del Sistema Solar, etc.).
El problema de la materia oscura (si es que realmente existe y no es que las leyes de Newton/Einstein sean incompletas) es uno de los problemas más importantes con los que se enfrenta la astrofísica hoy en día.
Cuando pienso en la existencia ineludible de esa “materia cósmica” primigenia, la primera y más sencilla clase de materia que se formó en las primeras fracciones del primer segundo del big bang, en la mente se me aparece una imagen llena de belleza creadora a partir de la cual, todo lo que ahora podemos contemplar es posible. La belleza de la idea es que toma dos problemas -la ventana del tiempo inadecuada para la fromación de las galaxias y la existencia de la “materia oscura”- y los une para conformar una solución al dilema central de la estructura del universo.
La “materia oscura”, por hipótesis, tiene una ventana de tiempo mucho más larga que la materia ordinaria, porque se desapareja más pronto en el Big Bang. Tiene mucho tiempo para acumularse antes de que la materia ordinaria sea libre para hacerlo y formar los átomos. La “materia oscura o sustancia cósmica primera, es de porte más sencillo y no tiene ni requiere la complejidad de la materia bariónica para formarse, es totalmente translúcida y se sitúa por todas partes, es decir, permea todo el universo invadiendo todas sus regiones a medida que este se expande más y más. Y fue esa “invisible” sustancia cósmica, la que realmente hizo posible que las galaxias se pudieran formar a pesar de la expansión de Hubble.
Los físicos tratan de encontrar Axiones, las partículas que ellos creen forman la materia oscura
El hecho de que la materia ordinaria caiga entonces en el agujero gravitatorio creado de este modo sirve para explicar por qué encontramos galaxias rodeadas por un halo de algo que hemos dado en llamar “materia oscura”. Tal hipótesis mata dos pájaros de un sólo tiro.
Pero debemos recordar que en este punto sólo tenemos una idea que puede funcionar, no una teoría bien construida. Para pasar de la idea a la teoría, tenemos que responder dos preguntas importantes y difíciles:
1. ¿Cómo explicamos la estructura de la “materia oscura”?
2. ¿Que es la “materia oscura”?
3. ¿Qué partículas son las que conforman ésta materia fantasmal?
Se habla de materia oscura caliente y fría. También, algunas veces me veo sorprendido por las ocurrencias que tienen algunos científicos de hoy que, como los antiguos, imaginan respuestas para acomodar las cuestiones que realmente desconocen y, buscan así, una salida airosa sin que se note la inmensa ignorancia que llevan consigo.
Podríamos comenzar a examinar estas cuestiones pensando en el modo en que la “materia oscura” pudo separarse de la nube caliente en expansión, de materiales que constituía el universo en sus comienzos. Por analogía de la discusión del desaparejamiento de la materia ordinaria después de la formación de los átomos, llamaremos también desaparejamiento a la separación de la “materia oscura” de aquella fuente “infinita” de energía primera. Una transformarción como la que condujo a la formación de los átomos es necesaria para que ocurra el desaparejamiento. Todo lo que tiene que suceder es que la fuerza de la interacción de las partículas que forman la “materia oscura” caigan por debajo del punto en que el resto del universo puede ejercer una presión razonable sobre él. Después de esto, la “materia oscura” continuará a su aire, indiferente a todo lo que la rodee.
Resulta que desde el punto de vista de la creación de la estructura observada del universo, la característica más importante del proceso de desaparejamiento para la “materia oscura” es la velocidad de las partículas cuando son libres. Si el desaparejamiento tiene lugar muy pronto en el Big Bang, la “materia oscura” puede salir con sus partículas moviéndose muy rápidamente, casi a la velocidad de la luz. Si es así, decimos que la “materia oscura” está caliente. Si el desaparejamiento tiene lugar cuando las partículas están moviendose poco a poco -velocidad significativamente menor que la de la luz- decimos que la materia está fría.
De los tipos de “materia oscura” que los cosmólogos toman en consideración, los neutrinos serán el mejor ejemplo de “materia oscura” caliente. Los neutrinos han llamado la atención de los científicos en relación a la “materia oscura” durante mucho tiempo. Para tener una idea aproximada del número de neutrinos del universo, podríamos decir que existe actualmente un neutrino por cada reacción nuclear que tuvo lugar desde siempre. Los cálculos indican que hubo aproximadamente mil millones de neutrinos producidos durante el Big Bang por cada protón, neutrón o electrón. Cada volumen del espacio del tamaño de nuestro cuerpo contiene unos diez millones de estos neutrinos-reliquias y en ellos no se encuentran los que se produjeron más tarde en las estrellas. Está claro que toda partícula tan corriente como ésta podría tener en principio un efecto muy grande sobre la estructura del Cosmos, si tuviera una masa.
Pero resulta que la “materia oscura” caliente, actuando sola, casi con toda seguridad no podría explicar lo que observamos en el universo y que el escenario de “materia oscura-fria” debe modificarse por completo si queremos mantenerla como candidata a esa teoría última de la materia que “debe” existir en el universo pero, que no sabemos lo que es y la llamamos, precisamente por eso “materia oscura”.
El tema de la materia desconocida, invisible, oculta y misteriosa que hace que nuestro universo se comporte como la hace… ¿sigue siendo una gran incognita! Nadie sabe el por qué las galaxias se alejan las unas de las otras, el motivo de que las estrellas en la periferia de las galaxias se muevan a mayor velocidad de lo que deberían y otros extraños sucesos que, al desconocer los motivos, son achacados a la “materia oscura”, una forma de evadirse y cerrar los ojos ante la inmensa ignorancia que tenemos que soportar en relación a muchos secretos del Universo a los que no podemos dar explicación.
Claro que otros, han imaginado cuestiones y motivos diferente spara explicar las cosas
Aunque no todas si son muchas las GUT y teorías de supersimetría las que predicen la de cuerdas en la congelación del segundo 10-35 después del comienzo del tiempo, cuando la fuerza fuerte se congeló y el universo se infló. Las cuerdas se deben considerar un subproducto del proceso mismo de congelación. Es cierto que aunque las diversas teorías no predicen cuerdas idénticas, sí predicen cuerdas con las mismas propiedades generales. En primer lugar las cuerdas son extremadamente masivas y también extremadamente delgadas; la anchura de una cuerda es mucho menor que la anchura de un protón. Las cuerdas no llevan carga eléctrica, así que no interaccionan con la radiación como las partículas ordinarias. Aparecen en todas las formas; largas lineas ondulantes, lazos vibrantes, espirales tridimensionales, etc. Sí, con esas propiedades podrían ser un candidato perfecto para la “materia oscura”. Ejercen una atracción gravitatoria y no pueden ser rotas por la presión de la radiación en los inicios del Universo.
El espesor estimado de una cuerda es de 10-30 centímetros, comparados con los 10-13 de un protón. Además de ser la más larga, y posiblemente la más vieja estructura del universo conocido, una cuerda cósmica sería la más delgada: su diámetro sería 100.000.000.000.000.000 veces más pequeño que el de un protón.. Y la cuerda sería terriblemente inquieta, algo así como un látigo agitándose por el espacio casi a la velocidad de la luz. Las curvas vibrarían como enloquecidas bandas de goma, emitiendo una corriente continua de ondas gravitacionales: rizos en la misma tela del espacio-tiempo. ¿Qué pasaría si una cuerda cósmica tropezara con un planeta? Al ser tan delgada, podría traspasarlo sin tropezar con un solo núcleo atómico. Pero de todos modos, su intenso campo gravitatorio causaría el caos.
Lo cierto es que todavía no se ha encontrado ninguna cuerda de este tipo. Si bien en los últimos años han surgido muchas candidatas a estar formadas por un efecto de lente de este tipo, la mayoría han resultado ser dos cuerpos distintos pero muy similares entre sí. Pese a ello, los astrofísicos y los teóricos de cuerdas no pierden la esperanza de encontrar en los próximos años, y gracias a telescopios cada vez más potentes, como el GTC y aceleradores como el LHC las evidencias directas de la existencia de este tipo de cuerdas; evidencias que no sólo nos indicarían que las teorías de cuerdas van por buen camino, sino que el modelo del Big Bang es un modelo acertado.
Simulación del efecto de lente generado por una cuerda cósmica. Crédito: PhysicsWorld.com
Por tanto, cuando observásemos un objeto con una cuerda cósmica en la trayectoria de nuestra mirada, deberíamos ver este objeto dos veces, con una separación entre ambas del orden del defecto de ángulo del cono generado por la curvatura del espaciotiempo. Esta doble imagen sería característica de la presencia de una cuerda cósmica, pues otros cuerpos, como estrellas o agujeros negros, curvan el espaciotiempo de manera distinta. Por tanto, una observación de este fenómeno no podría dar lugar a un falso positivo.
En este sentido, el nombre de cuerda cósmica está justificado debido a que son impresionantemente pesadas, pasando a ser objetos macroscópicos aun cuando su efecto es pequeño. Una cuerda de seis kilómetros de longitud cuya separación entre ambas geodésicas es de apenas 4 segundos de arco tendría ¡la masa de la Tierra!. Evidentemente, cuerdas de este calibre no se espera que existan en la naturaleza, por lo que los defectos de ángulo esperados son aún menores y, por tanto, muy difíciles de medir.
Una de las virtudes de la teoría es que puede detectarse por la observación. Aunque las cuerdas en sí son invisibles, sus efectos no tienen por qué serlo. La idea de las supercuerdas nació de la física de partículas, más que en el de la cosmología (a pesar de que, la cuerdas cósmicas, no tienen nada que ver con la teoría de las “supercuerdas”, que mantiene que las partículas elementales tienen forma de cuerda). Surgió en la década de los sesenta cuando los físicos comenzaron a entrelazar las tres fuerzas no gravitacionales – electromagnetismo y fuerzas nucleares fuertes y débiles – en una teoría unificada.
En 1976, el concepto de las cuerdas se había hecho un poco más tangible, gracias a Tom Kibble. Kibble estudiaba las consecuencias cosmológicas de las grande teorías unificadas. Estaba particularmente interesado en las del 10^-35 segundo después del Big Bang.
Podrían estar por todas partes
Aunque no todas si son muchas las Grandes Teorías Unificadas y teorías de supersimetría las que predicen la formación de cuerdas en la congelación del segundo 10-35 despues del comienzo del tiempo, cuando la fuerza fuerte se congeló y el universo se infló. Las cuerdas se deben considerar un subproducto del proceso mismo de congelación. Es cierto que aunque las diversas teorías no predicen cuerdas idénticas, sí predicen cuerdas con las mismas propiedades generales. En primer lugar las cuerdas son extremadamente masivas y también extremadamente delgadas; la anchura de una cuerda es mucho menor que la anchura de un protón. Las cuerdas no llevan carga eléctrica, así que no interaccionan con la radiación como las partículas ordinarias. Aparecen en todas las formas; largas lineas ondulantes, lazos vibrantes, espirales tridimensionales, etc. Sí, con esas propiedades podrían un candidato perfecto la “materia oscura”. Ejercen una atracción gravitatoria, no pueden ser rotas por la presión de la radiación en los inicios del Universo.
Como habéis podido comprender, todas estas teorías están por demostrar y sólo son conjeturas derivadas de profundos pensamientos de lo que puso ser y de lo que podría ser. Nada relacionado con la materia oscura, las supercuerdas o las cuerdas cósmicas ha sido demostrado ni se han observado por medio alguno en nuestro Universo. Sin embargo, no descartar nada y hacer lo posible por demostrarlas, es la obligación de los científicos que tratan de buscar una explicación irrefutable de cómo es el Universo y por qué es así.
El misterioso “universo” de los campos cuánticos que nadie sabe lo que esconde
A los cosmólogos les gusta visualizar esta revolucionaria transición como una especie de “cristalización”: el espacio, en un principio saturado de energía, cambió a la más vacía y más fría que rodea actualmente nuestro planeta. Pero la cristalización fue, probablemente, imperfecta. En el cosmos recién nacido podría haberse estropeado con defectos y grietas, a medida que se enfriaba rápidamente y se hinchaba. En fin, muchas elucubraciones y conjeturas que surgen siempre que no sabemos explicar esa verdad que la Naturaleza esconde y, mientras tanto nosotros, simples mortales de la especie Homo, seguimos dejando volar nuestra imaginación que trata, cargada siempre de curiosidad, de desvelar esos misterios insondables del Universo.
Finalmente sabremos sobre esa sustancia cósmica que impregna todo el universo pero, no será la “materia oscura” de la que todos hablan, será otra cosa muy diferente e inimaginable en estos momentos en los que, nuestra ignorancia, echa mano de cualquier cosa para poder ocultarla… ¡materia oscura! ¿qué es eso?
emilio silvera