El Agua es mucho más de lo que se deja ver
Publica El Español en el apartado de Química
El agua es más rara de lo que piensas
IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
Los científicos para lograr conocer la estructura del universo a su escala más grande, deben retroceder en el tiempo, centrando sus teorías en el momento en que todo comenzó. Para ello, como todos sabeis, se han formulado distintas teorías unificadoras de las cuatro fuerzas de la naturaleza, con las cuales se han modelado acontecimiento y condiciones en el universo primitivo casi a todo lo largo del camino hasta el principio. Pero cómo se supone que debió haber habido un «antes», aparece una barrera que impide ir más allá de una frontera que se halla fijada a los 10-43 [s] después del Big Bang, un instante conocido como «momento de Planck», en homenaje al físico alemán Max Planck.
Esta barrera existe debido a que antes del momento de Planck, durante el período llamado la «era de Planck o cuántica», se supone que las cuatro fuerza fundamentales conocidas de la naturaleza eran indistinguibles o se hallaban unificadas , que era una sola fuerza. Aunque los físicos han diseñado teorías cuánticas que unen tres de las fuerzas, una por una, a través de eras que se remontan al momento de Planck, hasta ahora les ha sido prácticamente imposible armonizar las leyes de la teoría cuántica con la gravedad de la relatividad general de Einstein, en un sólo modelo teórico ampliamente convincente y con posibilidades claras de ser contrastado en experimentos de laboratorio y, mucho menos, con observaciones.
Si hablamos de singularidades en agujeros negros, debemos dejar la R.G. y acudir a la M.C. “…según las leyes de la Relatividad, el eje más horizontal siempre es espacio, mientras que el más vertical siempre es tiempo. Por tanto, al cruzar el horizonte lo que nosotros entendemos por tiempo y espacio ¡habrán intercambiado sus papeles! Puede sonar raro y, definitivamente, es algo completamente anti intuitivo, pero es la clave de que los agujeros negros sean como son y jueguen el papel tan importante que juegan en la física teórica actual. Al fin y al cabo, dentro no es lo mismo que fuera…”
Si ahora queremos cuantizar, es decir encontrar la versión cuántica, la gravedad escrita como RG lo que tenemos que hacer es encontrar la teoría cuántica para la métrica. Sin embargo, esto no conduce a una teoría apropiada, surgen muchos problemas para dar sentido a esta teoría, aparecen infinitos y peor que eso, muchos cálculos no tienen ni tan siquiera un sentido claro. Así que hay que buscar otra forma de intentar llegar a la teoría cuántica.
Como tantas veces hemos comentado, los trabajos que se han realizado sobre poder construir una teoría cuántica de la gravedad nos llevan a un número sorprendente de implicaciones. Por un lado, sólo se ha podido conceptuar a la gravedad cuántica, siempre y cuando, el universo tenga más de cuatro dimensiones. Además, se llega a considerar que en la era de Planck, tanto el universo como la gravedad pudieron ser una sola cosa compacta estructurada por objetos cuánticos infinitamente diminutos, como los que suponemos que conforman las supercuerdas. A esta escala, el mismísimo espaciotiempo estaría sometido a imprescindibles fluctuaciones muy semejantes a las que causan las partículas al nacer y desaparecer de la existencia en el espaciotiempo ordinario. Esta noción ha conducido a los teóricos a describir el universo de la era cuántica como una especie de extremadamente densa y agitada espuma que pudo haber contenido las vibrantes cuerdecillas que propugnan los cosmólogos cuerdistas.
Los físicos especulan que el cosmos ha crecido a desde una «nada» primigenia que al nacer comenzó el principio del tiempo y que, en ese parto, contenía toda la materia y toda la energía.
Según los primeros trabajos sobre la teoría cuántica de la gravedad, el propio espaciotiempo varió en su topografía, dependiendo de las dimensiones del universo niño. Cuando el universo era del tamaño de un núcleo atómico (ver imagen de abajo), las condiciones eran relativamente lisas y uniformes; a los 10-30 cm (centro) es evidente una cierta granulidad; y a la llamada longitud de Planck, todavía unas 1.000 veces más pequeño (abajo), el espacio tiempo fluctúa violentamente.
Los físicos han intentado con denuedo elaborar una teoría completa de la gravedad que incluya la mecánica cuántica. Los cálculos de la mayoría de las teorías propuesta de la «gravedad cuántica» arrojan numerosos infinitos. Los físicos no están seguros si el problema es técnico o conceptual. No obstante, incluso prescindiendo de una teoría completa de gravedad cuántica, se puede deducir que los efectos de la teoría cuántica, habrían sido cruciales durante los primeros 10-43 segundos del inicio del universo, cuando éste tenía una densidad de 1093 gramos por centímetro cúbico y mayor. (El plomo sólido tiene una densidad de aproximadamente diez gramos por centímetro cúbico.) Este período, que es el que corresponde a la era de Planck, y a su estudio se le llama cosmología cuántica. Como el universo en su totalidad habría estado sujeto a grandes incertidumbres y fluctuaciones durante la era de Planck o era cuántica, con la materia y la energía apareciendo y desapareciendo de un vacío en grandes cantidades, el concepto de un principio del universo podría no tener un significado bien definido. En todo caso, la densidad del universo durante este período es de tal magnitud que escapa a nuestra comprensión. Para propósitos prácticos, la era cuántica podría considerarse el estado inicial, o principio, del universo. En consecuencia, los procesos cuánticos ocurridos durante este período, cualquiera sea su naturaleza, determinaron las condiciones iniciales del universo.
Observaciones astronómicas indican que el universo tiene una edad de 13,73 ± 0,12 millardos de años (entre 13 730 y 13 810 millones de años) y por lo menos … Sin embargo…
El universo estaba a 3.000° Hace doce mil quinientos millones de años; a 10 mil millones de grados (1010° K) un millón de años antes, y, tal vez, a 1028° K un par de millones más temprano. Pero, y antes de ese tiempo ¿qué pasaba? Los fósiles no faltan, pero no sabemos interpretarlos. Mientras más elevada se va haciendo la temperatura del universo primigenio, la situación se va complicando para los científicos. En la barrera fatídica de los 1033° K –la temperatura de Planck–, nada funciona. Nuestros actuales conocimientos de la física dejan de ser útiles. El comportamiento de la materia en estas condiciones tan extremas deja de estar a nuestro alcance de juicio. Peor aún, hasta nuestras nociones tradicionales pierden su valor. Es una barrera infranqueable para el saber de la física contemporánea. Por eso, lo que se suele decir cómo era el universo inicial en esos tempranos períodos, no deja de tener visos de especulación.
Los progresos que se han obtenido en física teórica se manifiestan a menudo en términos de síntesis de campos diferentes. Varios son los ejemplos que de ello encontramos en diversos estudios especializados, que hablan de la unificación de las fuerzas fundamentales de la naturaleza.
En física se cuentan con dos grandes teorías de éxito: la cuántica y la teoría de la relatividad general.
Cada una de ellas ha demostrado ser muy eficiente en aplicaciones dentro de los límites de su ámbito propio. La teoría cuántica ha otorgado resultados más que satisfactorios en el estudio de las radiaciones, de los átomos y de sus interacciones. La ciencia contemporánea se presenta como un conjunto de teorías de campos, aplicables a tres de las grandes interacciones: electromagnética, nuclear fuerte, nuclear débil. Su poder predictivo es bastante elocuente, pero no universal. Esta teoría es, por ahora, incapaz de describir el comportamiento de partículas inmersas en un campo de gravedad intensa. Ahora, no sabemos si esos fallos se deben a un problema conceptual de fondo o falta de capacidad matemática para encontrar las ecuaciones precisas que permitan la estimación del comportamiento de las partículas en esos ambientes.
La teoría de la relatividad general, a la inversa, describe con gran precisión el efecto de los campos de gravedad sobre el comportamiento de la materia, pero no sabe explicar el ámbito de la mecánica cuántica. Ignora todo acerca de los campos y de la dualidad onda-partícula, y en ella el «vacío» es verdaderamente vacío, mientras que para la física cuántica hasta la «nada» es «algo»…
Nada está vacío, ya que, de donde surge es porque había
Claro está, que esas limitaciones representativas de ambas teorías no suelen tener mucha importancia práctica. Sin embargo, en algunos casos, esas limitantes se hacen sentir con agresividad frustrando a los físicos. Los primeros instantes del universo son el ejemplo más elocuente.
El científico investigador, al requerir estudiar la temperatura de Planck, se encuentra con un cuadro de densidades y gravedades extraordinariamente elevadas. ¿Cómo se comporta la materia en esas condiciones? Ambas teorías, no dicen mucho al respecto, y entran en serias contradicciones e incompatibilidades. De ahí la resistencia de estas dos teorías a unirse en una sólo teoría de Gravedad-Cuantíca, ya que, cada una de ellas reina en un universo diferente, el de lo muy grande y el de lo muy pequeño.
Todo se desenvuelve alrededor de la noción de localización. La teoría cuántica limita nuestra aptitud para asignar a los objetos una posición exacta. A cada partícula le impone un volumen mínimo de localización. La localización de un electrón, por ejemplo, sólo puede definirse alrededor de trescientos fermis (más o menos un centésimo de radio del átomo de hidrógeno). Ahora, si el objeto en cuestión es de una mayor contextura másica, más débiles son la dimensión de este volumen mínimo. Se puede localizar un protón en una esfera de un décimo de fermi, pero no mejor que eso. Para una pelota de ping-pong, la longitud correspondiente sería de unos 10-15 cm, o sea, bastante insignificante.La física cuántica, a toda partícula de masa m le asigna una longitud de onda Compton: lc = h / 2p mc
Por su parte, la relatividad general igualmente se focaliza en la problemática del lugar que ocupan los objetos. La gravedad que ejerce un cuerpo sobre sí mismo tiende a confinarlo en un espacio restringido. El caso límite es aquel del agujero negro, que posee un campo de gravedad tan intenso que, salvo la radiación térmica, nada, ni siquiera la luz, puede escapársele. La masa que lo constituye está, según esta teoría, irremediablemente confinada en su interior.
En lo que hemos inmediatamente descrito, es donde se visualizan las diferencias entre esos dos campos del conocimiento. Uno alocaliza, el otro localiza. En general, esta diferencia no presenta problemas: la física cuántica se interesa sobre todo en los microobjetos y la relatividad en los macroobjetos. Cada cual en su terreno.
Sin embargo, ambas teorías tienen una frontera común para entrar en dificultades. Se encuentran objetos teóricos de masa intermedia entre aquella de los microobjetos como los átomos y aquella de los macroobjetos como los astros: las partículas de Planck. Su masa es más o menos la de un grano de sal: 20 microgramos. Equivale a una energía de 1028 eV o, más aún, a una temperatura de 1033° K. Es la «temperatura de Planck».
Ahora bien, si queremos estimar cuál debería ser el radio en que se debe confinar la masita de sal para que se vuelva un agujero negro, con la relatividad general la respuesta que se logra encontrar es de que sería de 10-33 cm, o sea ¡una cien mil millonésima de mil millonésima de la dimensión del protón! Esta dimensión lleva el nombre de «radio de Planck». La densidad sería de ¡1094 g/cm3! De un objeto así, comprimido en un radio tan, pero tan diminuto, la relatividad general sólo nos señala que tampoco nada puede escapar de ahí. No es mucha la información.
Si recurrimos a la física cuántica para estimar cuál sería el radio mínimo de localización para un objeto semejante al granito de sal, la respuesta que encontramos es de un radio de 10-33 cm. Según esta teoría, en una hipotética experiencia se lo encontrará frecuentemente fuera de ese volumen. ¡Ambos discursos no son coincidentes! Se trata de discrepancias que necesitan ser conciliadas para poder progresar en el conocimiento del universo. ¿Se trata de entrar en procesos de revisión de ambas teoría, o será necesaria una absolutamente nueva? Interrogantes que solamente el devenir de la evolución de la física teórica las podrá responder en el futuro.
De todas las maneras, en lo que se refiere a una Teoría cuántica de la Gravedad, tendremos que esperar a que se confirmen las teorías de supergravedad, supersimetría, cuerdas, la cuerda heterótica, supercuerdas y, la compendiada por Witten Teoría M. Aquí, en estas teorías (que dicen ser del futuro), sí que están apasiblemente unidas las dos irreconcialbles teorías: la cuántica y la relativista, no sólo no se rechazan ni emiten infinitos, sino que, se necesitan y complementan para formar un todo armónico y unificador.
¡Si pudiéramos verificarla!
Pero, contar con la energía de Planck (1019 GeV), no parece que, al menos de momento, sea de este mundo. Ni todos los aceleradores de partículas del mundo unidos, podrían llegar a conformar una energía semejante.
Aunque de extraña y atípica figura, también, esta galaxia, está hecha de materia
Tiene y encierra tantos misterios la materia que estamos aún a años-luz de saber y conocer sobre su verdadera naturaleza. Es algo que vemos en sus distintas formas materiales que configuran y conforman todo lo material desde las partículas elementales hasta las montañas y los océanos. Unas veces está en estado “inerte” y otras, se eleva hasta la vida que incluso, en ocasiones, alcanza la consciencia de SER. Sin embargo, no acabamos de dilucidar de dónde viene su verdadero origen y que era antes de “ser” materia. ¿Existe acaso una especie de sustancia cósmica anterior a la materia? Y, si realmente existe esa sustancia… ¿Dónde está? Aristóteles la llamaba Ylem, la sustancia o materia cósmica antes de la materia, a partir del Ylem llegaría la materia bariónica, la ue conocemos y de la que todo está hecho.
Nos podríamos preguntar miles de cosas que no sabríamos contestar. Nos maravillan y asombran fenómenos naturales que ocurren ante nuestros ojos pero que tampoco sabemos, en realidad, a que son debidos. Sí, sabemos ponerles etiquetas como, por ejemplo, la fuerza nuclear débil, la fisión espontánea que tiene lugar en algunos elementos como el protactinio o el torio y, con mayor frecuencia, en los elementos que conocemos como transuránicos.
A medida que los núcleos se hacen más grandes, la probabilidad de una fisión espontánea aumenta. En los elementos más pesados de todos (einstenio, fermio y mendelevio), esto se convierte en el método más importante de ruptura, sobrepasando a la emisión de partículas alfa.
¡Parece que la materia está viva!
Son muchas las cosas que desconocemos y, nuestra curiosidad nos empuja continuamente a buscar esas respuestas.
El electrón y el positrón son notables por sus pequeñas masas (sólo 1/1.836 de la del protón, el neutrón, el antiprotón o antineutrón), y, por lo tanto, han sido denominados leptones (de la voz griega lepto que significa “delgado”).
Aunque el electrón fue descubierto en 1.897 por el físico británico Josepth John Thomson (1856-1940), el problema de su estructura, si la hay, no está resuelto. Conocemos su masa y su carga negativa que responden a 9,1093897 (54)x10-31kg la primera y, 1,602 177 33 (49)x10-19 culombios, la segunda, y también su radio clásico. No se ha descubierto aún ninguna partícula que sea menos masiva que el electrón (o positrón) y que lleve una carga eléctrica, sea lo que fuese (sabemos como actúa y cómo medir sus propiedades, pero aun no sabemos qué es), tenga asociada un mínimo de masa, y que esta es la que se muestra en el electrón.
Josepth John Thomson
Lo cierto es que, el electrón, es una maravilla en sí mismo. El Universo no sería como lo conocemos si el electrón (esa cosita “insignificante”), fuese distinto a como es, bastaría un cambio infinitesimal para que, por ejemplo, nosotros no pudiéramos estar aquí ahora.
(“Aunque no se trata propiamente de la imagen real de un electrón, un equipo de siete científicos suecos de la Facultad de Ingeniería de la Universidad de Lund consiguieron captar en vídeo por primera vez el movimiento o la distribución energética de un electrón sobre una onda de luz, tras ser desprendido previamente del átomo correspondiente.
Previamente dos físicos de la Universidad Brown habían mostrado películas de electrones que se movían a través de helio líquido en el International Symposium on Quantum Fluids and Solids del 2006. Dichas imágenes, que mostraban puntos de luz que bajaban por la pantalla fueron publicadas en línea el 31 de mayo de 2007, en el Journal of Low Temperature Physics.
En el experimento que ahora nos ocupa y dada la altísima velocidad de los electrones el equipo de investigadores ha tenido que usar una nueva tecnología que genera pulsos cortos de láser de luz intensa (“Attoseconds Pulses”), habida cuenta que un attosegundo equivalente a la trillonésima parte de un segundo”.)
¡No por pequeño, se es insignificante! Recordémoslo, todo lo grande está hecho de cosas pequeñas.
Louis de Broglie
En realidad, existen partículas que no tienen en absoluto asociada en ellas ninguna masa (es decir, ninguna masa en reposo). Por ejemplo, las ondas de luz y otras formas de radiación electromagnéticas se comportan como partículas (Einstein en su efecto fotoeléctrico y De Broglie en la difracción de electrones.)
Imagen ilustrativa de la dualidad onda-partícula, en el cual se puede ver cómo un mismo fenómeno puede tener dos percepciones distintas. Esta manifestación en forma de partículas de lo que, de ordinario, concebimos como una onda se denomina fotón, de la palabra griega que significa “luz”.
El fotón tiene una masa de 1, una carga eléctrica de 0, pero posee un espín de 1, por lo que es un bosón. ¿Cómo se puede definir lo que es el espín? Los fotones toman parte en las reacciones nucleares, pero el espín total de las partículas implicadas antes y después de la reacción deben permanecer inmutadas (conservación del espín). La única forma que esto suceda en las reacciones nucleares que implican a los fotones radica en suponer que el fotón tiene un espín de 1. El fotón no se considera un leptón, puesto que este termino se reserva para la familia formada por el electrón, el muón y la partícula Tau con sus correspondientes neutrinos: Ve, Vu y VT.
Existen razones teóricas para suponer que, cuando las masas se aceleran (como cuando se mueven en órbitas elípticas en torno a otra masa o llevan a cabo un colapso gravitacional), emiten energía en forma de ondas gravitacionales. Esas ondas pueden así mismo poseer aspecto de partícula, por lo que toda partícula gravitacional recibe el nombre de gravitón.
La fuerza gravitatoria es mucho, mucho más débil que la fuerza electromagnética. Un protón y un electrón se atraen gravitacionalmente con sólo 1/1039 de la fuerza en que se atraen electromagnéticamente. El gravitón (aún sin descubrir) debe poseer, correspondientemente, menos energía que el fotón y, por tanto, ha de ser inimaginablemente difícil de detectar.
De todos modos, el físico norteamericano Joseph Weber emprendió en 1.957 la formidable tarea de detectar el gravitón. Llegó a emplear un par de cilindros de aluminio de 153 cm. De longitud y 66 de anchura, suspendidos de un cable en una cámara de vacío. Los gravitones (que serían detectados en forma de ondas), desplazarían levemente esos cilindros, y se empleó un sistema para detectar el desplazamiento que llegare a captar la cienmillonésima parte de un centímetro.
Joseph Weber
El interferómetro funciona enviando un haz de luz que se separa en dos haces; éstos se envían en direcciones diferentes a unos espejos donde se reflejan de regreso, entonces los haces al combinarse presentarán interferencia.
Las débiles ondas de los gravitones, que producen del espacio profundo, deberían chocar contra todo el planeta, y los cilindros separados por grandes distancias se verán afectados de forma simultánea. En 1.969, Weber anunció haber detectado los efectos de las ondas gravitatorias. Aquello produjo una enorme excitación, puesto que apoyaba una teoría particularmente importante (la teoría de Einstein de la relatividad general). Desgraciadamente, nunca se pudo comprobar mediante las pruebas realizadas por otros equipos de científicos que duplicaran el hallazgo de Weber.
De todas formas, no creo que, a estas alturas, nadie pueda dudar de la existencia de los gravitones, el bosón mediador de la fuerza gravitatoria. La masa del gravitón es cero, su carga es cero, y su espín de 2. Como el fotón, no tiene antipartícula, ellos mismos hacen las dos versiones.
Tenemos que volver a los que posiblemente son los objetos más misteriosos de nuestro Universo: Los agujeros negros. Si estos objetos son lo que se dice (no parece que se pueda objetar nada en contrario), seguramente serán ellos los que, finalmente, nos faciliten las respuestas sobre las ondas gravitacionales y el esquivo gravitón.
Imagen de un agujero negro en el núcleo de una galaxia arrasando otra próxima- NASA
La onda gravitacional emitida por el agujero negro produce una ondulación en la curvatura del espacio-temporal que viaja a la velocidad de la luz transportada por los gravitones. Tenemos varios proyectos en marcha de la NASA y otros Organismos oficiales que buscan las ondas gravitatorias de los agujeros negros, de colisiones entre estrellas de neutrones y de otras fuentes análogas que, según se cree, nos hablará de “otro universo”, es decir, nos dará información desconocida hasta ahora y sabremos “ver” un universo distinto al reflejado por las ondas elecromagnéticas que es el que ahora conocemos.
¿Espuma cuántica? Si profundizamos mucho en la materia…
Hay aspectos de la física que me dejan totalmente sin habla, me obligan a pensar y me transporta de este mundo material nuestro a otro fascinante donde residen las maravillas del Universo. Hay magnitudes asociadas con las leyes de la gravedad cuántica. La longitud de Planck-Wheeler, es la escala de longitud por debajo de la cual el espacio tal como lo conocemos deja de existir y se convierte en espuma cuántica. El tiempo de Planck-Wheeler (1/c veces la longitud de Planck-Wheeler o aproximadamente 10-43 segundos), es el intervalo de tiempo más corto que puede existir; si dos sucesos están separados por menos que esto, no se puede decir cuál sucede antes y cuál después. El área de Planck-Wheeler (el cuadrado de la longitud de Planck-Wheeler, es decir, 2,61×10-66cm2) juega un papel clave en la entropía de un agujero negro.
“Una investigación ha llevado a pensar que, la materia se construye sobre fundamentos frágiles. Los físicos acaban de confirmar que la materia, aparentemente sustancial, es en realidad nada más que fluctuaciones en el vació cuántico. Los investigadores simularon la frenética actividad que sucede en el interior de los protones y neutrones, que como sabéis son las partículas que aportan casi la totalidad de la masa a la materia común. Estas dos partículas, protones y neutrones, se comportan como si en su interior, los quarks de los que están hechas ambas partículas, lucharan por escapar del confinamiento a que se ven sometidos por la fuerza nuclear fuerte por medio de los Gluones que forman un océano en el que se ven confinados sin remedio. De hecho, nunca nadie ha podido ver a un quark libre.
Así que, si estudiamos el vacío cuántico, parece que eso permitirá a los físicos someter a prueba a la Cromo Dinámica Cuántica y buscar sus efectos más allá de la física conocida. Por ahora, los cálculos demuestran que la QCD describe partículas basadas en quarks de forma precisa, y que la mayor parte de nuestra masa viene de quarks virtuales y gluones que burbujean en el vacío cuántico.
Se cree que el campo de Higgs hace también su pequeña contribución, dando masa a los quarks individuales, así como a los electrones y a otras varias partículas. El campo de Higgs también crea masa a partir del vacío cuántico, en forma de bosones virtuales de Higgs. De modo que si el LHC confirma la existencia del bosón de Higgs, eso significará que toda la realidad es virtual, es menos virtual de lo que se pensaba. No creo que hasta el momento, y, a pesar de las declaraciones salidas desde el CERN, se tenga la seguridad de haber detectado el Bosón de Higgs.
De todo lo anterior, no podemos obtener una respuesta cierta y científicamente probada de que todo eso sea así, más bien, los resultados indican que todo eso “podría ser así”, lo que ocurre es que, los científicos, a veces se dejan llevar por las emociones. Al fin y al cabo, ellos como el común de los mortales, también son humanos.
Ya nos gustaría saber cómo es, ese vacío cuántico y qué pasa allí
Me llama poderosamente la atención lo que conocemos como las fluctuaciones de vacío, esas oscilaciones aleatorias, impredecibles e ineliminables de un campo (electromagnético o gravitatorio), que son debidas a un tira y afloja en el que pequeñas regiones del espacio toman prestada momentáneamente energía de regiones adyacentes y luego la devuelven. Hace un par de días que hablamos de ello.
Ordinariamente, definimos el vacío como el espacio en el que hay una baja presión de un gas, es decir, relativamente pocos átomos o moléculas. En ese sentido, un vacío perfecto no contendría ningún átomo o molécula, pero no se puede obtener, ya que todos los materiales que rodean ese espacio tienen una presión de vapor finita. En un bajo vacío, la presión se reduce hasta 10-2 pascales, mientras que un alto vacío tiene una presión de 10-2-10-7 pascales. Por debajo de 10-7 pascales se conoce como un vacío ultraalto.
No puedo dejar de referirme al vaciotheta (vació θ) que, es el estado de vacío de un campo gauge no abeliano (en ausencia de campos fermiónicos y campos de Higgs). En el vacío theta hay un número infinito de estados degenerados con efecto túnel entre estos estados. Esto significa que el vacío theta es análogo a una funciónn de Bloch en un cristal.
Se puede derivar tanto como un resultado general o bien usando técnicas de instantón. Cuando hay un fermión sin masa, el efecto túnel entre estados queda completamente suprimido. Cuando hay campos fermiónicos con masa pequeña, el efecto túnel es mucho menor que para campos gauge puros, pero no está completamente suprimido.
¡Es tánto lo que hay pero que no podemos ver!
Si buscamos por ahí podremos leer explicaciones como esta: “En la Teoría cuántica de campos, el vacío cuántico (también llamado el vacío) es el estado cuántico con la menor energía posible. Generalmente no contiene partículas físicas. El término “Energía de punto cero” es usado ocasionalmente como sinónimo para el vacío cuántico de un determinado campo cuántico.
De acuerdo a lo que se entiende actualmente por vacío cuántico o “estado de vacío”, este “no es desde ningún punto de vista un simple espacio vacío” , y otra vez: “es un error pensar en cualquier vacío físico como un absoluto espacio vacío.” De acuerdo con la mecánica cuántica, el vacío cuántico no está verdaderamente vacío sino que contiene ondas electromagnéticas fluctuantes y partículas que saltan adentro y fuera de la existencia.
Según las modernas teorías de las partículas elementales, el vacío es un objeto físico, se puede cargar de energía y se puede convertir en varios estados distintos. Dentro de su terminología, los físicos hablan de vacíos diferentes. El tipo de partículas elementales, su masa y sus interacciones están determinados por el vacío subyacente. La relación entre las partículas y el vacío es similar a la relación entre las ondas del sonido y la materia por la que se propagan. Los tipos de ondas y la velocidad a la que viajan varía dependiendo del material.”
Como nos dicen en este anuncio del Kybalion, nada es estático en el Universo y, todo está en continuo movimiento o vibración. Habreis oido hablar de la energía de punto cero que permanerce en una sustancia en el cero absoluto (cero K). Está de acuerdo con la teoría cuántica, según la cual, una partícula oscilando con un movimiento armónico simple no tiene estado estacionario de energía cinética nula. Es más, el Principio de Incertidumbre no permite que esta partícula esté en reposo en el punto central exacto de sus oscilaciones. Del vacío surgen sin cesar partículas virtuales que desaparecen en fracciones de segundo, y, ya conoceis, por ejemplo, el Efecto Casimir en el que dos placas pueden producir energía negativa surgidas del vacío.
De todas las maneras, en este momento sabemos tanto de la espuma cuántica como de nuestra presencia en el Universo, es decir, nada. Todo son conjeturas, suposiciones e hipótesis que nos hacen imaginar lo que pueda existir a la distancia de Planck. Claro que en una longitud de 10-35 metros, sí que es fácil imaginar que lo que podamos ver allí sería simplemete una especie de espuma cuántica asociada a lo que estimamos que sería la gravedad cuántica.
emilio silvera
por Emilio Silvera ~ Clasificado en El agua... ¡esa maravilla! ~ Comments (6)
Está comenzando a comprenderse cómo es la estructura íntima de un líquido con propiedades aberrantes a las que debemos la existencia de la vida en la Tierra.
¿Qué ocurriría si el hielo se hundiera en lugar de flotar? A primera vista, no gran cosa: tal vez habría que remover el gin & tonic de vez en cuando para que se mantuviera frío. Y, sin duda, el Titanic habría llegado a puerto sano y salvo. Pero en realidad, todo sería muy diferente. De hecho, ni siquiera estaríamos aquí: si el agua congelada cayera al fondo del mar, y se formara nuevo hielo que a su vez se hundiera, el resultado final durante las grandes glaciaciones de la Tierra habría sido una gran masa de océanos sólidos que no podría haber sostenido la existencia de vida.
Así pues, debemos nuestra existencia al hecho de que el hielo flote, es decir, que el agua en estado sólido sea menos densa que en fase líquida. Pero lo cierto es que esto es una completa anomalía. Como las demás sustancias, el agua aumenta su densidad al enfriarse, pero por debajo de los 4 oC sucede algo extraño: a medida que comienza a pasar al estado sólido, su volumen aumenta, lo que reduce su densidad.
Y ésta es sólo una de las cualidades aberrantes del agua, la única sustancia que en las condiciones ambientales terrestres puede encontrarse en tres estados distintos: sólido, líquido y gas. Nada en el agua es típico, aunque la costumbre nos tenga habituados.
Fijémonos en su temperatura de ebullición: 100 oC. El agua, H2O, es la combinación de hidrógeno y oxígeno. Este último encabeza un grupo de la tabla periódica formado por otros elementos con los que comparte propiedades, como el azufre (S), el selenio (Se) o el teluro (Te). Si sustituimos el oxígeno por sus compañeros, obtenemos la tendencia que siguen sus puntos de ebullición: de abajo arriba, el H2Te hierve a -4 grados, el H2Se a -42 y el H2S a -62. Así, el agua debería hervir por debajo de los 80 grados bajo cero. Algo similar ocurre con los puntos de congelación: si se comportara como el resto de su grupo, el agua debería helarse a unos 100 bajo cero.
Otra propiedad que nos parece normal, pero en realidad sumamente insólita, es su inmensa tensión superficial, la mayor en un líquido exceptuando el metal mercurio. Vemos esta tensión superficial cuando llenamos un vaso por encima del borde sin que rebose, o en las gotas de rocío sobre las hojas, y algunos insectos acuáticos la aprovechan para deslizarse patinando sobre la superficie de las charcas.
La tensión superficial del agua permite que algunos insectos puedan caminar sobre ella. Markus Gayda (CC)
El agua lubrica y adhiere al mismo tiempo: podemos resbalar sobre un suelo mojado, pero prueben a despegar dos láminas de vidrio unidas por la humedad. El agua es un solvente universal, capaz de disolver sustancias tan dispares como las sales, los alcoholes, los ácidos o los álcalis. Y por si fuera poco, en ciertos casos el agua caliente se congela más deprisa que el agua fría; es el llamado efecto Mpemba, descubierto por un estudiante de secundaria de Tanzania cuyo profesor se carcajeó de él… hasta que un científico lo confirmó.
Así prosigue una lista de anomalías que ha mantenido perplejos a los científicos durante siglos. En 1612, Galileo Galilei escribía: “A mi juicio, el hielo debería ser agua rarificada más que condensada; […] el agua al congelarse aumenta de volumen, y el hielo que se produce es más ligero que el agua sobre la cual nada”. Obvio hoy para nosotros, pero no en su día para los detractores de Galileo, que atribuían la flotación del hielo a su forma.
Las peculiaridades del agua dieron pie a uno de los episodios más rocambolescos de la historia de la ciencia. En 1966, un científico soviético llamado Boris Deryagin presentó en Londres un chocante hallazgo. Un colega suyo, Nikolai Fedyakin, había descubierto que el agua presentaba un comportamiento excepcional cuando se aislaba en finos tubos capilares de cuarzo. El líquido así confinado era mucho más denso y viscoso de lo normal, su punto de ebullición se disparaba hasta los 150o C y el de congelación se desplomaba hasta -40o C, solidificándose en una especie de masa marrón.
La fiebre se desató cuando un equipo de investigadores de EEUU repitió los experimentos y confirmó sus resultados en la revista Science, bautizando la nueva sustancia con un nombre irresistible: poliagua. La hipótesis sugería que el agua confinada formaba un polímero del que se derivaban exóticas propiedades. La revista Time, el diario The New York Times y otros grandes medios cubrieron aquel extrordinario hallazgo que olía a premio Nobel. La revista Popular Sciencepublicaba instrucciones sobre “cómo crear tu propia poliagua”. En la revista Nature, un científico advertía de que la poliagua podía ser “el material más peligroso de la Tierra”, ya que su simple contacto con el agua normal podía polimerizarla y dejar el planeta seco, como un “facsímil de Venus”. El Pentágono se involucró, temeroso de que la URSS llevara ventaja en la explotación de sus posibles aplicaciones militares.
Hasta que a un científico de EEUU llamado Denis Rousseau, pensando que podía tratarse simplemente de agua contaminada, se le ocurrió repetir las pruebas practicadas a la poliagua analizando el sudor de su camiseta después de un partido de balonmano. Y resultó que la presunta poliagua y el sudor eran, a todos los efectos y valga la expresión, como dos gotas de agua. La poliagua no era más que agua normal con impurezas.
Las propiedades del agua están también en el corazón de otro mito, la homeopatía. En 1988 el francés Jacques Benveniste logró publicar en Nature un estudio que decía aportar pruebas sobre la capacidad del agua de recordar las sustancias que había contenido.
El principio homeopático sostiene que, cuanto menos compuesto, más efectividad; sus preparaciones se basan en diluir un ingrediente una y otra vez hasta que desaparece de la solución, quedando sólo agua con una especie de memoria. Otros investigadores trataron sin éxito de reproducir los resultados de Benveniste, que fueron después refutados, y la hipótesis de la memoria del agua ha sido repetidamentedesacreditada. Sin embargo, en este caso el mito no ha desaparecido; a diferencia de la poliagua, la homeopatía sostiene una poderosa industria.
Hoy la ciencia ha descubierto que las propiedades anómalas del agua tienen mucho que ver con una estructura muy cambiante y dinámica, todo lo contrario de un material con memoria. El secreto está en la química del H2O. El oxígeno es uno de los elementos más electronegativos de la tabla periódica; es decir, que atrae con más fuerza los electrones. En el átomo de oxígeno predomina la carga negativa, mientras que en los dos hidrógenos se acumula la carga positiva. Ambas se compensan de modo que la carga neta es cero, pero esta estructura convierte a la molécula de agua en lo que se llama un dipolo: polo negativo y polo positivo. Ninguna de las moléculas parecidas a ella tiene un carácter dipolar tan marcado. Y esta es la razón de la enorme tensión superficial, ya que las moléculas de agua tienden a pegarse fuertemente unas a otras a través de estos polos, que se unen por un tipo de enlace llamado puente de hidrógeno.
Hasta hace poco más de una década, primaba la idea de que el agua líquida tenía una estructura homogénea. En el hielo, el agua está ordenada formando pirámides triangulares, o tetraedros, con una molécula en su centro y otras cuatro en los vértices, unidas a la central por puentes de hidrógeno. Se pensaba que al pasar a líquido se mantenía la misma estructura básica, pero los huecos del tetraedro se rellenaban con más moléculas, y de ahí su mayor densidad. Hasta que en 2004 los suecos Anders Nilsson y Lars Petterson lo pusieron todo patas arriba.
Mientras estudiaban por rayos X la estructura de otra molécula en disolución, Nilsson, de la Universidad de Stanford, y Pettersson, de la de Estocolmo, descubrieron que lo más interesante estaba en el agua. En contra de lo que decían los libros de texto, su potente fuente de rayos X les revelaba que sólo una pequeña parte de las moléculas de agua líquida formaban tetraedros. La inmensa mayoría estaban en una configuración más desordenada y compacta con sólo dos puentes de hidrógeno, y no cuatro. “Proponíamos que la estructura dominante estaba seriamente distorsionada”, resume Nilsson a EL ESPAÑOL.
Resultó que esta estructura en dos fases distintas, tetraedros y masa desordenada, lo explicaba todo. Por ejemplo, cuando el hielo se derrite, el agua comienza a pasar a la estructura compacta, lo que eleva su densidad. Pero por encima de 4 oC, al aumentar las moléculas desordenadas, la vibración de éstas las aparta unas de otras, lo que resulta en un agua más ligera a mayor temperatura.
Curiosamente, el modelo de Nilsson y Pettersson se parecía mucho a una hipótesis propuesta varios años antes para el agua superenfriada. Se llama así al agua por debajo del punto de congelación que se mantiene en estado líquido al impedirse la formación de hielo; en la naturaleza existe, por ejemplo, en las nubes a gran altura. En 1992, un equipo de la Universidad de Boston propuso que el agua superenfriada se compone de dos fases, una de baja y otra de alta densidad. Estas dos fases se han relacionado con una estructura en tetraedros, la primera, y otra más desordenada, la segunda.
Así, las dos líneas de investigación, la del agua que vemos a diario y la de la superenfriada, han confluido en un mismo modelo: una mezcla de dos estructuras que conviven y que se dan en mayor o menor grado dependiendo de la temperatura. En su última revisión, publicada en Nature Communications en diciembre de 2015, Nilsson y Pettersson cuentan que el agua es heterogénea, una mezcla cambiante de fases de alta y baja densidad. “La estructura distorsionada que proponíamos se relaciona con el líquido de alta densidad que es dominante a temperatura ambiente”, dice Nilsson. Y todo encaja, añade: “Las fluctuaciones entre los líquidos de alta y baja densidad explican las propiedades anómalas del agua”.
Un iceberg es una enorme masa de agua en forma de hielo que flota. Dan Rea, USAF (PD)
Esta idea del agua como la mezcla de aceite y vinagre en el aliño, pero ambos compuestos por una misma sustancia, aún se está abriendo paso en la comunidad científica. Por el momento, no todos están dispuestos a dejarse convencer. Pero mientras los expertos debaten, también comienzan a reflexionar sobre un intrigante enigma.
Cuando Nilsson y Pettersson dibujan un gráfico con presiones en un eje y temperaturas en el otro, resulta que las propiedades anómalas del agua se dan exclusivamente en una región central con forma de embudo. Por encima y por debajo de esta zona desaparece la doble personalidad del agua, que adopta sólo un estado y se comporta como un líquido cualquiera. Pero se da la circunstancia de que la región del embudo corresponde a las condiciones de la Tierra. “Al parecer, el agua se vuelve anómala a las temperaturas a las que suele existir la vida”, apunta Nilsson. “¿Es pura coincidencia o es algo significativo?”, se pregunta.
por Emilio Silvera ~ Clasificado en El Universo y la Química de la Vida ~ Comments (0)
Estructuración del protoplasma-vivo como el plasma de la Vida con unas notables facultades para hacer cosas nuevas a partir de otras viejas. ¡Cuánto se habría excitado y cuán complacido habría estado Pasteur si hubiera conocido el famoso experimentio de Miller! Pese a ser el mismo un teísta, Pateur estaba convencido de que Dios creó la vida sobre la Tierra combinando precisamente fuerzas químicas y azar. Reconocía también, como sabemos, que los compuestos or´ganicos de los seres vivos son ópticamente activos, es decir, poseen una asimetría interna capaz de desviar planos de luz polarizada. Estaba impresionado, con el hecho de que, fuera de los tejidos vivos, los compuestos asimétricos se encuentran siempre en forma racémica: una mezcla de moléculas orientadas a la derecha, y otras, orientadas a la izquierda. Solamente en estos tejidos vivos, los compuestos orgánicos tienen una lateralidad bien definida.
En la imagen de arriba podemos ver la estructura de molécula de ciclosporina A en forma de corona, izquierda de la imagen (representación de bolas y varillas) y unida a su diana por la que ejerce su función farmacológica (representada como modelo de esferas). Se une a la ciclofilina (en blanco) y esta a su vez a la Calcineurina. Esta última es la encargada de permitir la respuesta inmune de los linfocitos por lo que ésta queda bloqueada. Siempre hemos querido saber sobre el origen de la vida y los secretos que la rodean y cómo apareció en nuestro mundo.
El protoplasma-vivo para mantener su forma debe renovar sus moléculas de materia. El recambio de sustancias es lo que se conoce globalmente como metabolismo. Corresponde a reacciones sencillas de oxidación, reducción, hidrólisis, condensación, etc. Estas reacciones se van modificando y perfeccionando, en los casos más optimistas, hasta llegar a diferenciarse procesos idénticos en alguna o algunas reacciones, A. Baj y Palladin estudiaron la respiración, con todas sus reacciones y catalizadas por su fermento específico. S. Kostichev, A. Liebedev estudiaron la química de la fermentación.
Michurin estudió la relación del organismo y el medio. Los fermentos de las estructuras protoplasmáticas determinaban sus reacciones por la velocidad y la dirección, estableciendo una relación con el medio. Se establecía un círculo de fenómenos relacionados y ordenados regularmente. Se producían asimilaciones y desasimilaciones de sustancias orgánicas con el fin de autoconservación y autorenovación del protoplasma.
En la base de la organización de todo individuo está la célula, y en la célula el protoplasma vivo, en cuya compleja estructura morfológica y química reside el principio de todas las funciones vitales. Inicialmente la organización morfológica de la célula sólo se conocía a través de los medios ópticos. Dentro de los límites de su poder resolutivo; con la introducción del microscopio electrónico amplió notablemente los conocimientos sobre la estructura celular, al conseguirse aumentos hasta 200 veces superior a los obtenidos por los medios ópticos.
Muchas son las veces que aquí, en este lugar dedicado a distintas disciplinas de la Ciencia, hemos hablado de la Vida. Sin embargo, nunca nos hemos parado a explicar la cuestión del proceso del origen de la vida, conociendo antes, aunque sea de manera sencilla y sin profundidad, aquellos principios básicos de la estructura del protoplasma vivo, ese sustrato material que será la base de todos los seres vivos, sin excepción.
A finales del siglo XIX y principios del XX, había científicos que creían que los organismos sólo eran “máquinas vivientes” especiales, de estructuras muy complejas y, aseguraban que la estructura del protoplasma vivo era algo así como una máquina, construido conforme a un determinado plan y que estaba formado por “vigas” y “tirantes” como si de un puente se tratara y que, de manera similar a éste, los lazos de unión tenían unida toda la estructura que, de esta manera, se mantenía firme, y, esa estructura de tan estricto orden en la colocación recíproca de las distintas partes del protoplasma vivo, era precisamente, según ellos, la causa específica de la vida. Y, a todo ello, sin olvidarse del Carbono, la base de todo signo de vida que conocemos.
Pero el estudio concreto del protoplasma vivo desmintió esta teoría mecanicista. Fue probado que no existía ninguna estructura parecida a una máquina ni siquiera a las de máxima precisión, en el interior del protoplasma vivo.
Es bien conocido que la masa básica del protoplasma vivo es líquida; nos hallamos ante un coacervado complejo, constituido por una gran cantidad de sustancias orgánicas de un peso molecular considerable, entre estas destacan las proteínas y los lipoides. Por esta razón, se encuentran flotando a su libre albedrío en esa sustancia coacervática fundamental, partículas filamentosas coloides, quizás enormes moléculas proteínicas sueltas, y muy probablemente, auténticos enjambres de esas moléculas. El tamaño de las partículas es tan diminuto que no se distinguen ni a través de los microscopios actuales más sofisticados. Pero encontramos otros elementos visibles en el interior del protoplasma vivo. Cuando las moléculas proteínicas y de otras sustancias se unen formando conglomerados, destacan en la masa protoplasmática en forma de pequeñas gotas, captadas a través del microscopio, o en forma de coágulos, con una determina estructura denominados elementos morfológicos. El núcleo, las plastídulas, las mitocondrias, etcétera.
Estos elementos protoplasmáticos, observables a través del microscopio, son, esencialmente, una manifestación aparente y externa de determinadas relaciones de solubilidad, enormemente complejas, de las distintas sustancias que conforman el protoplasma vivo y que se ha podido comprobar que tiene, un papel determinante, en el curso del proceso de la vida, que no se puede comparar de ningún modo con el papel que desempeña una máquina en su trabajo específico. Esto queda totalmente justificado por la sencilla razón de que una máquina y el protoplasma vivo son dos sistemas distintos y contrarios.
Sin duda, lo que caracteriza la función de una máquina es el desplazamiento mecánico de sus diferentes partes en el espacio. Por esa razón hay que insistir que el elemento más importante de la estructura de una máquina es, precisamente, la colocación de sus piezas; mientras que el proceso vital tiene un carácter totalmente distinto. Se manifiesta esencialmente con el recambio de sustancias, o sea, con la interacción química de las diferentes partes que conforman el protoplasma vivo. Por esto deducimos que el elemento primordial en toda la estructuración del protoplasma vivo es el orden concreto que siguen los procesos químicos en el tiempo, la forma tan armónica en que se combinan, siempre con tendencia a conservar en su conjunto el sistema vital.
Es de vital importancia para la formación del protoplasma vivo que exista una estructura interna determinada. Pero otro factor no menos decisivo es la organización en el tiempo, o sea, que los procesos que se dan en el protoplasma vivo lo hagan en armonía. Cualquier organismo, tanto animal, planta o microbio, vive únicamente mientras pasen por él, de forma continuada y constante, nuevas partículas de sustancias, cargadas de energía. Distintos cuerpos químicos pasan del medio ambiente al organismo; y cuando están dentro, sufren unos determinados y esenciales trastornos, mediante los cuales acaban convirtiéndose en sustancias del propio organismo invadido y serán iguales que aquellos cuerpos químicos que antes formaban parte del ser vivo. Este proceso se conoce con el nombre de asimilación. Sin embargo, de forma paralela a este proceso se da la desasimilación, que se trata precisamente del proceso contrario, es decir, las distintas sustancias que forman la parte del organismo vivo son sensibles a los cambios del propio organismo, se desintegran a menor o mayor velocidad, y son sustituidas por los cuerpos asimilados. De esta forma, los productos de la desintegración se echan al medio envolvente.
Por otra parte, en todo esto debemos tener en cuenta un gente que, siendo ineludible para la vida, está siempre presente en todo lo que a ella concierne. El Agua.
El agua pura es un líquido inodoro e insípido. Tiene un matiz azul, que sólo puede detectarse en capas de gran profundidad. A la presión atmosférica (760 mm de mercurio), el punto de congelación del agua es de 0 °C y su punto de ebullición de 100 °C. El agua alcanza su densidad máxima a una temperatura de 4 °C y se expande al congelarse. Como muchos otros líquidos, el agua puede existir en estado sobreenfriado, es decir, que puede permanecer en estado líquido aunque su temperatura esté por debajo de su punto de congelación.
Es muy cierto que la sustancia del organismo vivo siempre se encuentra en movimiento, desintegrándose y volviendo a formarse de manera continua en virtud de la gran cantidad de reacciones de desintegración y síntesis, que se dan guardando una fuerte relación entre ellas. Ya Heráclito, aquel gran dialéctico de la antigua Grecia, nos decía: “nuestros cuerpos fluyen como un arroyo, y de la misma manera que el agua de éste, la materia se renueva en ellos.” Está claro que una corriente o un chorro de agua pueden mantener su forma, su aspecto externo, durante un tiempo, pero su aspecto sólo es la manifestación exterior de ese proceso continuo y constante del movimiento de las partículas del agua. Incluso la misma existencia de este sistema depende, naturalmente, de que las renovadas moléculas de materia pasen constantemente, y a una velocidad determinada por el chorro de agua. Pero si interrumpimos este proceso, el chorro dejará de existir como tal. Lo mismo sucede en todos los sistemas conocidos como dinámicos, los cuales tienen un proceso concreto.
Es un hecho concreto e innegable que los seres vivos también son sistemas dinámicos. Igual que el chorro de agua al que antes hacíamos referencia, su forma y su estructura sólo forman parte de la expresión externa y aparente de un equilibrio, muy competente, formado por procesos que se dan en el ser vivo en sucesión permanente a lo largo de toda su vida. Sin embargo, el carácter de estos procesos es totalmente diferente a los que ocurre en los sistemas dinámicos de la naturaleza orgánica.
Las moléculas de agua llegan al chorro, ya como moléculas de agua, y lo atraviesan sin que se produzca ningún cambio. Pues el organismo toma del medio ambiente sustancias ajenas y desconocidas para él, pero a continuación, mediante procesos químicos muy complejos, son convertidos en sustancias del propio organismo, muy parecidas a los materiales que forman su cuerpo.
Precisamente esto es lo que hace posible las condiciones que mantienen constantemente la composición y estructura del organismo, ignorando este proceso continuo e ininterrumpido de desasimilación que se da en todos los organismos vivos.
Así pues, desde una perspectiva puramente química, el recambio de sustancias, también llamado metabolismo, es un conjunto enorme de reacciones más o menos sencillas, de oxidación, reducción, hidrólisis, condensación, etcétera. Lo que lo hace diferente del protoplasma vivo, es que en el metabolismo, estas reacciones se encuentran organizadas en el tiempo de de cierto modo, las cuales se combinan para poder crear un sistema integral. Dichas reacciones no surgen por casualidad, y de forma caótica, sino que se dan en estricta sucesión, y en un orden armónico concreto.
El ácido pirúvico (ver otros nombres en la tabla) es un ácido alfa-ceto que tiene un papel importante en los procesos bioquímicos. El anión carboxilato del ácido pirúvico se conoce como piruvato. El ácido pirúvico es un compuesto orgánico clave en el metabolismo. Es el producto final de la glucolisis, una ruta metabólica universal en la que la glucosa se escinde en dos moléculas de piruvato y se origina energía (2 moléculas de ATP).
Ese orden será la base de todos los fenómenos vitales conocidos. En la fermentación alcohólica, por ejemplo, el azúcar proveniente del líquido, que es fermentable, penetra en la célula de la levadura, sufriendo determinados trastornos químicos. O sea, primero se le incorpora el ácido fosfórico y luego se divide en dos partes.
Una de las cuales experimentará un proceso de reducción, mientras que la otra se oxidará, quedando convertida, finalmente, en ácido pirúvico, que más tarde se descompondrá en anhídrido carbónico y acetaldehído. Este último se reducirá, quedando transformado después en alcohol etílico. Como resultado, podemos observar que el azúcar queda convertido en alcohol y anhídrido carbónico.
Esto nos demuestra que en la célula de la levadura, lo que determina la producción de estas sustancias es el extraordinario rigor con que se dan todas estas reacciones, las cuales se suceden de forma muy ordenada. Sólo con que sustituyésemos en esta cadena de transmutaciones un único eslabón o si alterásemos en lo más mínimo el orden de dichas transmutaciones ya no tendríamos como resultado alcohol etílico, sino cualquier otra sustancia. En efecto, en las bacterias de la fermentación de la leche, el azúcar, al principio sufría los mismos cambios en la levadura, pero cuando se llega a la fermentación del ácido pirúvico, éste ya no se descompone, todo lo contrario, se reduce al instante. Esto explica que en las bacterias de la fermentación láctica el azúcar no se transforme en alcohol etílico, sino en ácido láctico.
Las encimas
La enzimología, al igual que las disciplinas experimentales que han surgido como ramas del tronco común que es la biología, tiene una historia propia construida a través de observaciones, experiencias, pruebas y teorías.
Se inició con el estudio de los procesos de fermentación y de putrefacción y Antoine-Laurente Lavoisier fue el primero en plantear sobre bases cuantitativas el proceso de la fermentación alcohólica, al observar una relación entre cantidad de azúcar presente y productos formados durante el proceso.
Un estudio de la síntesis de distintas sustancias en el protoplasma vivo demuestra que éstas no se crean de repente, y no provienen de un acto químico especial, sino que son el resultado de una cadena larguísima de trastornos químicos.
No puede constituirse un cuerpo químico complejo, propio de un ser vivo en concreto, sin que se produzcan centenares o miles de reacciones en un orden regular, constante, y ya previsto con rigurosidad, lo cual constituirá la base de la existencia del protoplasma vivo.
La Biología Físico-Química
La bioquímica, es la rama de la Química y de la Biología que tiene por objetivo principal el conocimiento de la estructura y comportamiento de las moléculas biológicas, que son compuestos de Carbono que forman las diversas partes de la célula y llevan a cabo las reacciones químicas las que le permiten crecer, alimentarse, reproducirse y usar y almacenar energía.
Porque cuanto más compleja es la sustancia, más reacciones intervienen en su formación dentro del protoplasma vivo y estas reacciones deben coordinarse entre sí con mayor rigor y exactitud. En efecto, investigaciones bastante recientes han demostrado que en la síntesis de las proteínas a partir de los aminoácidos toman parte gran cantidad de reacciones que se producen en una sucesión muy ordenada. Únicamente como consecuencia de esta rigurosa armonía, de esta sucesión ordenada de las reacciones, se da en el protoplasma vivo ese ritmo estructural, esa regularidad en la sucesión de los distintos aminoácidos que también podemos apreciar en las proteínas actuales.
Por consiguiente, las moléculas proteínicas, así originadas y con una estructura determinada se agrupan entre sí, y ciertas leyes las hacen tender a la formación de auténticos conglomerados moleculares que se acaban separando de la masa protoplasmática y se distinguen como elementos morfológicos, visibles a través del microscopio, como formas protoplasmáticas características por su gran movilidad. De esta manera, la composición química propia del protoplasma vivo, como su estructura, son la manifestación del orden en que se producen estos procesos químicos que se dan de forma continua y permanente en la materia viva.
Todos sabemos de su importanica para la vida
En el siglo XVI se observó que cuando el ácido sulfúrico actuaba sobre el hierro se desprendía un gas combustible. En 1766 Henry Cavendish demostró que dicho gas era una sustancia distinta a otros gases también combustibles, confundiendo el gas obtenido, al que llamo <<aire inflamable>>. Provenía del hierro y no del ácido sulfúrico, también demostró que el gas en el aire y en el oxígeno se formaba Agua
La Atmósfera
Es la capa de gas que rodea a un cuerpo celeste que tenga la suficiente masa como para atraer ese gas. Los gases son atraídos por la gravedad del cuerpo, y se mantienen en ella si la gravedad es suficiente y la temperatura de la atmósfera es baja. Algunos planetas están formados principalmente por gases, con lo que tienen atmósferas muy profundas. Si no se dan ciertos parámetros, el protoplasma vivo de la vida, nunca habría hecho acto de presencia.
– Nitrógeno (78%) y
– Oxígeno (21%)
– El 1% restante lo forman el argón (0,9%), el dióxido de Carbono (0,03%), y distintas proporciones de vapor de agua, y trazas de hidrógeno, ozono, metano, monóxido de Carbono, helio, neón, kriptón y xenón.
Ozonosfera y sodiosfera
Desde 15 hasta 60 kilómetros de altitud, el ozono, que en las zonas próximas al suelo se encuentra sólo en pequeñas cantidades, aparece en porcentajes más sensibles y forma la ozonosfera. Este ozono absorbe la radiación ultravioleta procedente del Sol, haciendo posible de es modo la existencia de vida en la Tierra.
Pues bien, debemos preguntarnos de qué depende ese orden, propio de la organización del protoplasma vivo, y cuáles son sus causas inmediatas. Un estudio minucioso sobre esta cuestión dejará demostrado que el orden indicado no es simplemente algo externo, que queda al margen de la materia viva, teoría defendida por los idealistas; en cambio, hoy día, sabemos perfectamente que la velocidad, la dirección y el encadenamiento de las diferentes reacciones, todo lo que forma el orden que estamos viendo, depende totalmente de las relaciones físicas y químicas que se establecen en el protoplasma vivo.
Las propiedades químicas de las sustancias integradoras del protoplasma vivo, en primer lugar, y también las de las sustancias orgánicas que intervienen son las que constituyen la base de todo ello. Dichas sustancias orgánicas poseen enormes posibilidades químicas y pueden generar gran variedad de reacciones. Pero, aprovechan estas posibilidades con mucha “pereza”, lentamente, a veces a una velocidad ínfima. En muchas ocasiones, se necesitan meses e incluso años, para que llegue a producirse alguna de las reacciones efectuadas entre las mismas sustancias orgánicas. Por esto, los químicos, para acelerar el proceso de las reacciones entre las sustancias orgánicas, usan a menudo en su trabajo diferentes sustancias de acción enérgica-ácidos y álcalis fuertes, etcétera.
Para conseguir tal aceleramiento cada vez con más frecuencia, los químicos recurren a la utilización de los catalizadores. Hace ya mucho tiempo que habían notado que sólo con añadir una pequeña dosis de algún catalizador a la mezcla donde se estaba realizando una reacción, se producía un gran aceleramiento de ésta. Además, otra propiedad propia e los catalizadores es que no se destruyen durante el proceso de la reacción, y cuando esta finaliza, comprobamos que queda exactamente la misma cantidad de catalizador que añadimos a la mezcla al principio. Así que, cantidades insignificantes de catalizador son suficientes, muchas veces, pata provocar la rápida transmutación de masas considerables de diferentes sustancias. Esta cualidad, hoy día, es de gran utilidad para la industria química, que usa como catalizadores distintos metales, sus óxidos, sus sales y otros cuerpos orgánicos o inorgánicos. Las reacciones químicas dadas en animales y vegetales entre las distintas sustancias orgánicas se suceden a gran velocidad. De lo contrario, la Vida no pasaría tan rápida como en realidad pasa. Se sabe que la gran velocidad de las reacciones químicas producidas en el protoplasma vivo es debida a la presencia constante de catalizadores biológicos especiales llamados fermentos.
Hace tiempo que estos fermentos fueron descubiertos, y ya con anterioridad, los científicos se habían fijado en ellos. Pues resultó que los fenómenos se podían extraer del protoplasma vivo y así separarse en forma de solución acuosa o como polvo seco de fácil solubilidad. Esto me hace pensar en lo que ocurre en las Nebulosas. No hace mucho se consiguieron fermentos en forma cristalina y se resolvió su composición química. Estos resultaron ser proteínas, y muchas veces, en combinación con otras sustancias de distinta naturaleza. Estos fermentos, por el carácter de su acción, se asemejan a los catalizadores inorgánicos. Sin embargo, se diferencian de ellos por la increíble intensidad de sus efectos.
En este sentido, los fermentos superan a los catalizadores inorgánicos de acción en centenares de miles, y en ocasiones hasta en millones de veces. Así que en los fermentos de naturaleza proteínica se da un mecanismo increíblemente perfecto y racional que hace posible acelerar las reacciones químicas entre las distintas sustancias orgánicas. Los fermentos también se caracterizan por la excepcional especifidad de su acción.
Llegados a este punto debemos profundizar un poco más en la constitución de los seres vivos. Para ello debemos saber la teoría celular, enunciada por Matthias Schleiden (1804-1881) y Theodor Schwann (1810-1882).
La teoría celular de Schleiden y Schwann señala un rasgo común para todos los seres vivos: todos están compuestos por células y por productos elaborados por ellas. Aunque la idea de que la célula es el “átomo” de la vida nos parezca evidente, su importancia y la dificultad de su descubrimiento son parejas a la dificultad del descubrimiento de la existencia de átomos en química, y marca un cambio de paradigma en la manera de concebir la vida.
La teoría celular se basó en los adelantos realizados mediante los aparatos de observación debidos inicialmente a Robert Hooke (1635-1703) y a Anton Van Leeuwenhoek (1632-1723). Hooke construyó cientos de microscopios. Los más avanzados estaban formados por dos lupas combinadas como ocular y objetivo (microscopio compuesto).
Aunque con ellos llegó a alcanzar 250 aumentos, eran preferibles los de una sola lente, como los que construyó van Leeuwenhoek, ya que presentaban menos aberración cromática. Con esos instrumentos consiguieron descubrir infusorios (aquellas células o microorganismos que tienen cilios u otras estructuras de motilidad para su locomoción en un medio líquido), bacterias, la existencia de capilares en la membrana interdigital de las ranas.
Ahora sabemos que tanto los paramecios como los organismos superiores están formados por una o más células, almacenan y transportan la energía, duplican su material genético y utilizan la información que ese material contiene para sintetizar proteínas siempre de la misma forma. Todos estos procesos, que están presentes en todas las células, son los que forman la maquinaria de la vida.
Sustancias orgánicas que nios dan las vitaminas
Por supuesto, esto es a causa de las particularidades del efecto catalítico de las proteínas; pues la sustancia orgánica (el sustrato) que sufre alteraciones en el transcurso del proceso metabólico, forma ya al principio, una unión bastante compleja aunque de corta duración, con la correspondiente proteína-fermento. Esta fusión tan completa, no es estable, pues sufre distintos trastornos con mucha rapidez: el sustrato sufre las transformaciones correspondientes y el fermento se regenera, para poder unirse de nuevo a otras porciones del sustrato.
Entonces, para que las sustancias integradoras del protoplasma vivo puedan participar realmente con el metabolismo, debe combinarse con una proteína y constituir con ella un enlace complejo. De no ser así, sus posibilidades químicas se producirán muy lentamente y entonces perderán toda su importancia en el impetuoso proceso vital. Por esta razón el cómo se modifique una sustancia orgánica en el transcurso del metabolismo, depende, además de la estructura molecular de esta sustancia, y de las posibilidades químicas de la misma, también de la acción de fermentación de las proteínas protoplasmáticas, las cuales se encargan de llevar esa sustancia al proceso metabólico general.
Los fermentos, además de ser un poderoso acelerador de los procesos químicos sufridos por la materia viva; son también un mecanismo químico interno, el cual se encarga de que esos procesos sean conducidos por un cauce muy concreto. La gran especificidad de las proteínas-fermentos consigue que cada una de ellas forme enlaces complejos sólo con determinadas sustancias y catalice solamente algunas reacciones. Por esto, cuando se produce éste o el otro proceso vital, y con más motivo, cuando se verificas todo el proceso metabólico, actúan miles de proteínas-fermento de distintas clases. Cada una de estas proteínas puede catalizar de forma específica una sola reacción, y sólo el conjunto de acciones de todas ellas, en muy precisa combinación, hará posible ese orden regular de los fenómenos que entendemos como base del metabolismo.
Con el uso de los distintos fermentos específicos que se obtienen a partir del organismo vivo, en el laboratorio, pueden reproducirse de forma aislada cada una de las reacciones químicas, y todos los eslabones que forman el proceso metabólico. Así desenredamos el ovillo tan sumamente complicado de las transmutaciones químicas producidas durante el metabolismo, donde miles de reacciones individuales se mezclan. Por este mismo procedimiento se puede descomponer el proceso metabólico en sus diferentes etapas químicas, se puede analizar las sustancias integradora de la materia viva, y además los distintos procesos realizados en ella.
De esa manera se demostró que la respiración funciona a partir de una serie de reacciones como la oxidación o la reducción, dichas reacciones se dan con muchísimo rigor en un orden estricto y cada una de éstas es catalizada por un fermento específico (S.Kóstichev, A. Liédev y otros autores).
En 1878 el biólogo alemán Walter Fleming descubrió que se podían teñir unas estructuras existentes en el interior del núcleo y llamo cromatina a la materia que las formaban.
Como las células de la preparación morían al teñirse, y en una preparación existían células en muy diferentes etapas de crecimiento y división, Fleming pudo estudiar estas etapas y comprender cómo evolucionaba la vida de la célula.
Al comenzar el proceso de división celular la cromatina forma una especie de hilos que se denominan, con mucha lógica, cromosomas (cuerpos coloreados) y Fleming llamó al proceso de división celular mitosis, una palabra griega que significa hilo.
En 1887 el biólogo belga Edouart van Beneden contó el número de cromosomas de células de diferentes especies y llegó a la conclusión de que el número de cromosomas es una característica de la especie. Todas las células humanas tienen 46 cromosomas.
También descubrió que los espermatozoides y los óvulos tenían la mitad de los cromosomas de las células normales, y dedujo que al unirse conservaban todos sus cromosomas, con lo que recuperaban el número característico de la especie.
Tanto Fleming como van Beneden comprendieron que eran los cromosomas del huevo los que determinaban las características del animal que se iba a formar, pero no podían saber el mecanismo por el que lo hacían.
Por entonces se empezó a llamar citoplasma vivo al conjunto de protoplasma vivo y orgánulos que están comprendidos entre el núcleo y la pared o membrana celular, y se empezaron a estudiar estos orgánulos.
Así, en 1898 el biólogo alemán Carl Benda descubrió las mitocondrias, que en griego significa hilos de cartílago. Ahora sabemos que son los órganos que se encargan de la obtención de energía a partir de azúcar y oxígeno. Ese mismo año Golgi descubrió el complejo que lleva su nombre.
Aminoácidos y azúcares de la vida están ahí presentes
Hoy día, ya hemos dado el salto del análisis de los procesos vitales a su reproducción, a su síntesis. De esta forma, combinando de manera precisa en una solución acuosa de azúcar, una veintena de fermentos distintos, obtenidos a partir de seres vivos, pueden reproducirse los fenómenos propios de la fermentación alcohólica. En este líquido, donde gran cantidad de proteínas distintas se hallan disueltas, los trastornos que sufre el azúcar son verificados en el mismo orden regular que siguen en la levadura viva, aunque aquí no existe ninguna estructura celular.
Todos estos procesos son, en realidad, terriblemente complejos y están expuestos a que, cualquier alteración del medio incida de manera directa en su devenir. Pero, por otra parte y en las circunstancias adecuadas, no existe ningún factor físico o químico, ni sustancia orgánica o sal inorgánica que, de alguna manera, puedan alterar el curso de las reacciones fermentativas. Cualquier aumento o disminución de la temperatura, alguna modificación de la acidez del medio, del potencial oxidativo y de la composición salina o de la presión osmótica, alterará la correlación entre las velocidades de las distintas reacciones de fermentación, y de esta forma cambia su sucesión temporal. Es aquí donde se asientan todas las premisas de esa unidad entre el organismo y el medio, tan característica de la vida.
Esta organización tan especial de la sustancia viva influye en gran manera, en las células de los organismos actuales, en el orden y la dirección de las reacciones fermentativas, las cuales son la base del proceso metabólico. Cuando se agrupan las proteínas entre sí pueden quedar aisladas de la solución general y conseguir diferentes estructuras protoplasmáticas de muy ágil movimiento. Con total seguridad, sobre la superficie de estas estructuras se encuentran concentrados gran cantidad de fermentos.
Está claro que el orden característico de la organización del protoplasma está basado en las distintas propiedades químicas de las sustancias integradoras de la materia viva.
1.-Todos los seres vivos están formados por células y sus productos. Por tanto la célula es la unidad anatómica del organismo.
2.-Todas las células proceden de otras células preexistentes y éstas, a su vez, de otras células. Esto lo certificaron los viejos científicos con el axioma omnis cellula e cellula, latinajo que significa lo que todos ustedes suponen, que toda célula procede de otra célula.
3.-La célula es la unidad funcional del organismo.
4.-La célula es también la unidad genética del organismo.
Básicamente la célula está formada por tres elementos:
• Núcleo
• Membrana y
• Citoplasma
La membrana envuelve la célula confiriéndole su individualidad. Dicho de otra manera, la célula es una unidad separada de otras células por su membrana.
El citoplasma está formado por un líquido llamado citosol (solución celular) y gran cantidad de gránulos que reciben el nombre genérico de organelos y que más adelante describiremos. Adelantemos que en estos organelos hay una gran actividad ya que se encargan de funciones digestivas y respiratorias.
El núcleo está separado del resto del citoplasma por otra membrana, la membrana nuclear. En su interior se encuentra el material genético que crea los patrones para producir nuevas células con las características de nuestra especie. Una célula humana siempre producirá otra célula humana.
Hablar de nosotros mismos es demasiado complejo para que, científicamente podamos abarcar todo lo que somos ym sólo poco a poco podemos ir comprendiendo la grandeza que en nosaotros está representada como esa parte del universo que piensa, tiene ideas y sentimientos y, en definitiva, es la materia del Universo evolucionada hasta su más alto grado hasta el momento conocido.
emilio silvera
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
El hombre se ha preguntado durante largo tiempo, “¿de qué está hecho el mundo?” Demócrito de Abdera nos hablaba del “átomo” y Empédocles de “elemenmtos”, otros, se referían a la sustancia cósmica a la que llamaban Ylem, aquella “semilla” primera que daría lugar a la venida de la materia. ¿No será el Ylem, lo que hoy llaman materia oscura?
Ahora sabemos que, no sólo nuestro mundo, sino todo el inmenso Universo, está hecho de pequeños objetos infinitesimales a las que hemos denominado partículas subatómicas y que forman varias familias. Unas son más elementales que otras y según, a qué familia pertenezcan, atienden o se rigen por una u otra fuerza elemental.
Son los constituyentes fundamentales de toda la materia del Universo (por lo menos de toda la materia conocida y que podemos detectar formando estrellas y mundos, galaxias o seres vivos). Hemos podido llegar a saber que, de esas briznas de materia se forman los núcleos que, rodeados de electrones conforman los átomos de la materia.
Todo lo grande está hecho de “cosas” pequeñas
Los grupos de átomos conforman las moléculas que son las unidades fundamentales de los compuestos químicos pero, comencemos por los núcleos atómicos:
Muchas son las veces que aquí mismo he podido explicar, que los quarks u y d se hallan en el interior de los nucleones y, por tanto, su habitat está en los núcleos atómicos donde se encuentran confinados y, en realidad, no intervienen directamente en las propiedades de los núcleos. Sin embargo, no podemos olvidar que la fuerza nuclear fuerte está ahí reteniendo a los quarks por medio de los gluones y, eso hace que, el núcleo sea estable.
Los núcleos atómicos constituyen un tipo de materia que, aisladamente, de forma individual (si exceptuamos el protón), siempre están en ambientes muy energéticos, por ejemplo, en el interior de las estrellas. En nuestro entorno terráqueo, es raro encontrar núcleos aislados, sino parcial o totalmente confinados dentro de los átomos.
Sabemos que el número de especímenes atómicos es limitado, existiendo ciertas razones para suponer que hacia el número atómico 173 los correspondientes núcleos serían inestables, no por razones intrínsecas de inestabilidad “radiactiva” nuclear, sino por razones relativistas. Ya señalé en otros escritos que, el número de especies atómicas, naturales y artificiales, es de unos pocos miles, en cambio, el número de moléculas conocidas hasta ahora comprenden unos pocos millones de especímenes, aumentando continuamente el número de ellas gracias a la síntesis que se lleva a cabo en numerosos laboratorios repartidos por todo el mundo.
Una molécula es una estructura, con individualidad propia, constituida por un conjunto de núcleos y sus electrones. La molécula más sencilla es la de Hidrógeno que tiene dos electrones, hasta las más complejas como las de las proteínas, con muchos miles de ellos, existen toda una gama de varios millones. Esta extraordinaria variedad de especies moleculares contrasta con la de las especies nucleares e incluso atómicas.
Desde el punto de vista de la información, las especies moleculares la poseen en mucho mayor grado que las nucleares o atómicas. Dejando aparte los núcleos, la información que soportan los átomos se podría atribuir a la distribución de su carga eléctrica, y en particular a los electrones más débilmente ligados. Concretando un poco más, se podría admitir que la citada información la aportan los orbitales atómicos, pues son precisamente estos orbitales los que introducen diferencias “geométricas” entre los diferentes electrones “corticales”.
Las partículas forman átomos, los átomos moléculas y las moléculas sustancias y cuerpos que están hechos por la diversa variedad de elementos que conforma la materia conocida y que, en definitiva, sólo son Quarks y Leptones.
Demos una vuelta por el Modelo Estándar.
El Modelo Estándar de partículas elementales, con los bosones gauge en la columna derecha.
Me quiero referir al Modelo estándar de la física de partículas y de las interacciones fundamentales y, algunos, han llegado a creer que sólo faltan algunos detalles técnicos y, con ellos, la física teórica está acabada. Tenemos un modelo que engloba todo lo que deseamos saber acerca de nuestro mundo físico. ¿Qué más podemos desear? Los pobres ilusos no caen en la cuenta de que el tal Modelo, al que no podemos negarle su valía como una herramienta muy valiosa para la física, no deja de estar incompleto y, además, ha sido construido con algunos parámetros aleatorios (unos veinte) que no tienen justificación. Uno de ellos era el Bosón de Higgs y, según nos han contado los del LHC, ha sido hallado. Sin embargo, esperamos que nos den muchas explicaciones que no han estado presente en todas las algaradas y fanfarrias que dicho “hallazgo” ha producido, incluidos los premios Principe de Asturias y el Nobel. ¡Veremos en que queda todo esto al final!
Bueno, lo que hasta el momento hemos logrado no está mal del todo pero, no llega, ni con mucho, a la perfección que la Naturaleza refleja y que, nosotros perseguimos sin llegar a poder agarrar sus múltiples entrecijos y parámetros que conforman ese todo en el que, sin ninguna clase de excusas, todo debe encajar y, de momento, no es así. Muchos son los flecos sueltos, muchas las incognitas, múltiples los matices que no sabemos perfilar.
Es cierto que, el Modelo estándar, en algunos momento, nos produce y nos da la sensación de que puede ser perfecto. Sin embargo, esa ilusoria perfección, no es permanente y en algunas casos efímera. En primer lugar, podríamos empezar a quejarnos de las casi veinte constantes que no se pueden calcular. Pero si esta fuese la única queja, habría poco que hacer. Desde luego, se han sugerido numerosas ideas para explicar el origen de estos números y se han propuesto varias teorías para “predecir” sus valores. El problema con todas estas teorías es que los argumentos que dan nunca llegan a ser convincentes.
¿Por qué se iba a preocupar la Naturaleza de una fórmula mágica si en ausencia de tal fórmula no hubiera contradicciones? Lo que realmente necesitamos es algún principio fundamental nuevo, tal como el proncipio de la relatividad, pero nos resistimos a abandonar todos los demás principios que ya conocemos; ¡esos, después de todo, han sido enormemente útiles en el descubrimiento del Modelo estándar! una herramienta que ha posibilitado a todos los físicos del mundo para poder construir sus trabajos en ese fascinante mundo de la mecánica cuántica, donde partículas infinitesimales interactúan con las fuerzas y podemos ver, como se comporta la materia en determinadas circunstancias. El mejor lugar para buscar nuevos principios es precisamente donde se encuentran los puntos débiles de la presente teoría.
“Colisión del Bosón de Higgs desintegrándose en fermiones”. Primeras evidencias de un nuevo modo de desintegración del bosón de Higgs. Las primeras evidencias de la desintegración del recién descubierto bosón de Higgs en dos partículas denominadas tau, pertenecientes a la familia de partículas que compone la materia que vemos en el Universo. Hasta ahora los experimentos del LHC habían detectado la partícula de Higgs mediante su desintegración en otro tipo de partículas denominadas bosones, portadoras de las fuerzas que actúan en la Naturaleza, mientras las evidencias de desintegraciones en fermiones no eran concluyentes. Esta es la primera evidencia clara de este nuevo modo de desintegración del bosón de Higgs.”
La regla universal en la física de partículas es que cuando las partículas chocan con energías cada vez mayores, los efectos de las colisiones están determinados por estructurtas cada vez menores, más pequeñas en el espacio y en el tiempo. Supongamos por un momento que tenemos a nuestra disposición un Acelerador de Partículas 10.000 veces más potente que el LHC, donde las partículas pueden adquirir esas tantas veces más energías de las alcanzadas actualmente. Las colisiones que tendrían lugar nos dirían algo acerca de los detalles estructurales de esas partículas que ahora no conocemos, que serían mucho más pequeñas que las que ahora podemos contemplar. En este punto se me ocurre la pregunta: ¿Seguiría siendo correcto el Modelo estándar? 0, por el contrario, a medida que nos alejemos en las profundidades de lo muy pequeño, también sus normas podrían variar al mismo tiempo que varían las dimensiones de los productos hallados. Recordad que, el mundo no funciopna de la misma manera en nuestro ámbirto macroscópico que ante ese otro “universo” cuántico de lo infinitesimal.
¿Podeis imaginar conseguir colisiones a 70.000 TeV? ¿Que podríamos ver? Y, entonces, seguramente, podríamos oir en los medios la algarada de las protestas de algunos grupos: “Ese monstruo creado por el hombre puede abrir en el espacio tiempo agujeros de gusano que se tragará el mundo y nos llevará hacia otros universos” Comentarios así estarían a la orden del día. Los hay que siempre están dispuestos a protestar por todo y, desde luego, no siempre llevan razón, toda vez que, la mayoría de las veces, ignoran de qué están hablando y juzgan si el conocimiento de causa necesario para ello. De todas las maneras, sí que debemos tener sumo cuidado con el manejo de fuerzas que… ¡no siempre entendemos! Cuando el LHC se vuelvsa a poner en marcha, se utilizarán energías que llegan hasta los 14 TeV, y, esas son palabras mayores.
¿Justifica el querer detectar las partículas que conforman la “materia oscura”, o, verificar si al menos, podemos vislumbrar la sombra de las “cuerdas” vibrantes de esa Teoria del Todo, el que se gasten ingentes cantidades de dinero en esos artilugios descomunales? Bueno, a pesar de todos los pesares, la respuesta es que SÍ, el rendimiento y el beneficio que hemos podido recibir de los aceleradores de partículas, justifica de manera amplia todo el esfuerzo realizado, toda vez que, no solo nos ha llevado a conocer muchos secretos que la Naturaleza celosamente guardaba, sino que, de sus actividades hemos tenido beneficios muy directos en ámbitos como la medicina, las comunicaciones y otros que la gente corriente desconocen.
Hoy, el Modelo estándar es una construcción matemática que predice sin ambigüedad cómo debe ser el mundo de las estructuras aún más pequeñas. Pero tenemos algunas razones para sospechar que tales predicciones resultan estar muy alejadas de la realidad, o, incluso, ser completamente falsas. Cuando tenemos la posibilidad de llegar más lejos, con sorpresa podemos descubrir que aquello en lo que habíamos creído durante años, era totalmente diferente. El “mundo” cambia a medida que nos alejamos más y más de lo grande y nos sumergimos en ese otro “mundo” de lo muy pequeño, allí donde habitan los minúsculos objetos que conforman la materia desde los cimientos mismos de la creación.
Encendamos nuestro supermicroscopio imaginario y enfoquemosló directamente en el centro de un protón o de cualquier otra partícula. Veremos hordas de partículas fundamentales desnudas pululando. Vistas a través del supermicroscopio, el modelo estándar que contiene veinte constantes naturales, describen las fuerzas que rigen la forma en que se mueven. Sin embargo, ahora esas fuerzas no sólo son bastante fuertes sino que también se cancelan entre ellas de una forma muy especial; están ajustadas para conspirar de tal manera que las partículas se comportan como partículas ordinarias cuando se vuelven a colocar el microscopio en la escala de ampliación ordinaria. Si en nuestras ecuaciones matemáticas cualquiera de estas constantes fueran reemplazadas por un número ligeramente diferente, la mayoría de las partículas obtendrían inmediatamente masas comparables a las gigantescas energías que son relevantes en el dominio de las muy altas energías. El hecho de que todas las partículas tengan masa que corresponden a energías mucho menores repentinamente llega a ser bastante poco natural.
¿Implica el ajuste fino un diseño con propósito? ¿Hay tantos parámetros que deben tener un ajuste fino y el grado de ajuste fino es tan alto, que no parece posible ninguna otra conclusión?
Antes decía: “El hecho de que todas las partículas tengan masa que corresponden a energías mucho menores repentinamente llega a ser bastante poco natural”. Es lo que se llama el “problema del ajuste fino”. Vistas a través del microscopio, las constantes de la Naturaleza parecen estar cuidadosamente ajustadas sin ninguna otra razón aparente que hacer que las partículas parezcan lo que son. Hay algo muy erróneo aquí. Desde un punto de vista matemático, no hay nada que objetar, pero la credibilidad del Modelo estándar se desploma cuando se mira a escalas de tiempo y longitud extremadamente pequeñas o, lo que es lo mismo, si calculamos lo que pasaría cuando las partículas colisionan con energías extremadamente altas.
¿Y por qué debería ser el modelo válido hasta ahí? Podrían existir muchas clases de partículas súper pesadas que no han nacido porque se necesitan energías aún inalcanzables, ellas podrían modificar completamente el mundo que Gulliver planeaba visitar. Si deseamos evitar la necesidad de un delicado ajuste fino de las constantes de la Naturaleza, creamos un nuevo problema:
Es cierto que nuestra imaginación es grande pero… No pocas veces ¡la realidad la supera!
¿Cómo podemos modificar el modelo estándar de tal manera que el ajuste-fino no sea necesario? Está claro que las moficiaciones son necesarias , lo que implica que muy probablemente hay un límite más allá del cual el modelo deja de ser válido. El Modelo estándar no será más que una aproximación matemática que hemos sido capaces de crear, tal que todos los fenómenos observados hasta el presente están de acuerdo con él, pero cada vez que ponemos en marcha un aparato más poderoso, debemos esperar que sean necesarias nuevas modificaciones para ir ajustando el modelo, a la realidad que descubrimos.
¿Cómo hemos podido pensar de otra manera? ¿Cómo hemos tenido la “arrogancia” de pensar que podemos tener la teoría “definitiva”? Mirando las cosas de esta manera, nuestro problema ahora puede muy bien ser el opuesto al que plantea la pregunta de dónde acaba el modelo estándar: ¿cómo puede ser que el modelo estándar funcione tan extraordinariamente bien? y ¿por qué aún no hemos sido capaces de percibir nada parecido a otra generación de partículas y fuerzas que no encajen en el modelo estándar? La respuesta puede estar en el hecho cierto de que no disponemos de la energía necesaria para poder llegar más lejos de lo que hasta el momento hemos podido viajar con ayuda de los aceleradores de partículas.
Los asistentes escuchan la presentación de los resultados del experimento ATLAS, durante el seminario del Centro Europeo de Física de Partículas (CERN) para presentar los resultados de los dos experimentos paralelos que buscan la prueba de la existencia de la “partícula de Higgs, base del modelo estándar de física que, por fín encontraron en 2.012.
La pregunta “¿Qué hay más allá del Modelo estándar”? ha estado facinando a los físicos durante años. Y, desde luego, todos sueñan con llegar a saber, qué es lo que realmente es lo que conforma el “mundo” de la materia, qué partículas, cuerdas o briznas vibrantes. En realidad, lo cierto es que, la Física que conocemos no tiene que ser, necesariamente, la verdadera física que conforma el mundo y, sí, la física que conforma “nuestro mundo”, es decir, el mundo al que hemos podido tener acceso hasta el momento y que no necesariamente tiene que coincidir con el mundo real que no hemos podido alcanzar.
O, como decía aquél: ¡Que mundo más hermoso, parece de verdad!
Siempre hay más de lo que el ojo ve
No todo lo que vemos es, necesariamente, un reflejo de la realidad de la Naturaleza que puede tener escondidos más allá de nuestras percepciones, otros escenarios y otros objetos, a los que, por ahora, no hemos podido acceder, toda vez que, físicamente tenemos carencias, intelectualmente también, y, nuestros conocimientos avanzar despacio para conseguir, nuevas máquinas y tecnologías nuevas que nos posibiliten “ver” lo que ahora nos está “prohibido” y, para ello, como ocurre siempre, necesitamos energías de las que no disponemos.
Hay dos direcciones a lo largo de las cuales se podría extender el Modelo estándar, tal lo conocemos actualmente, que básicamente se caraterizan así:
– Nuevas partículas raras y nuevas fuerzas extremadamente débiles, y
– nuevas partículas pesadas y nuevas estructuras a muy altas energías.
Podrían existir partículas muy difíciles de producir y de detectar y que, por esa razón, hayan pasado desapaercibidas hasta. La primera partícula adicional en la que podríamos pensar es un neutrino rotando a derecha. Recordaremos que si se toma el eje de rotación paralelo a la dirección del movimiento los neutrinos sólo rotan a izquierdas, pero… ¡esa sería otra historia!
Los neutrinos siempre me han fascinado. Siempre se han manifestado como si tuvieran masa estrictamente nula. Parece como si se movieran exactamente con la velocidad de la luz. Pero hay un límite para la precisión de nuestras medidas. Si los neutrinos fueran muy ligeros, por ejemplo, una cienmillonésima de la masa del electrón, seríamos incapaces de detectar en el laboratorio la diferencia éstos y los neutrinos de masa estrictamente nula. Pero, para ello, el neutrino tendría que tener una componente de derechas.
En este punto, los astrónomos se unen a la discusión. No es la primera vez, ni será la última, que la astronomía nos proporciona información esencial en relación a las partículas elementales. Por ejemplo, debido a las interacciones de corriente neutra (las interacciones débiles originadas por un intercambio Zº), los neutrinos son un facto crucial en la explosión supernova de una estrella. sabemos que debido a las interacciones por corriente neutra, pueden colisionar con las capas exteriores de la estrella y volarlas con una fuerza tremenda.
En realidad, los neutrinos nos tienen mucho que decir, todavía y, no lo sabemos todo acerca de ellos, sino que, al contrario, son muchos los y fenómenos que están y subyacen en ellos de los que no tenemos ni la menor idea que existan o se puedan producir. Nuestra ignorancia es grande, y, sin embargo, no nos arredra hablar y hablar de cuestiones que, la mayoría de las veces…ni comprendemos.
Aquí lo dejar´ñe por hoy, el tema es largo y de una fascinación que te puede llevar a lugares en los que no habías pensado al comenzar a escribir, lugares maravillosos donde reinan objetos exóticos y de fascinante porte que, por su pequeñez, pueden vivir en “mundos” muy diferentes al nuestro en los que, ocurren cosas que, nos llevan el asombro y también, a ese mundo mágico de lo fascinante y maravilloso.
Parece que el Modelo estándar no admite la cuarta fuerza y tendremos que buscar más profundamente, en otras teorías que nos hablen y describan además de las partículas conocidas de otras nuevas que están por nacer y que no excluya la Gravedad. Ese es el Modelo que necesitamos para conocer mejor la Naturaleza.
Dicen los expertos que en el Modelo de Cuerdas, y, sobre todo en la Teoría M que unifica todos los que se conocen hasta el momento, subyace la teoría cuántica de la gravedad, es decir, que allí cohabitan cómodamente las dos teorías, la cuántica de Planck y la Relatividad de Einstein. Así, cuando los físicos están desarrollando esta avanzada teoría, sin que nadie las llame, allí aparecen las ecuaciones de campo de Einstein de la Relatividad General.
emilio silvera
por Emilio Silvera ~ Clasificado en El origen, General ~ Comments (0)
La abiogénesis («origen/principio»’) se refiere al proceso natural del surgimiento u origen de la vida a partir de la no existencia de esta, es decir, de materia inerte, como simples compuestos orgánicos. Es un tema que ha generado en la comunidad científica un campo de estudio especializado cuyo objetivo es dilucidar cómo y cuándo surgió la vida en la Tierra. La opinión más extendida en el ámbito científico establece la teoría de que la vida comenzó su existencia en algún momento del período comprendido entre 4400 millones de años —cuando se dieron las condiciones para que el vapor de agua pudiera condensarse por primera vez— y 2700 millones de años atrás —cuando aparecieron los primeros indicios de vida.
Con el objetivo de reconstruir el evento o los eventos que dieron origen a la vida se emplean diversos enfoques basados en estudios tanto de campo como de laboratorio. Por una parte el ensayo químico en el laboratorio o la observación de procesos geoquímicos o astroquímicos que produzcan los constituyentes de la vida en las condiciones en las que se piensa que pudieron suceder en su entorno natural. En la tarea de determinar estas condiciones se toman datos de la geología de la edad oscura de la tierra a partir de análisis radiométricos de rocas antiguas, meteoritos, asteroides y materiales considerados prístinos, así como la observación astronómica de procesos de formación estelar. Por otra parte, se intentan hallar las huellas presentes en los actuales seres vivos de aquellos procesos mediante la genómica comparativa y la búsqueda del genoma mínimo. Y, por último, se trata de verificar las huellas de la presencia de la vida en las rocas, como microfósiles, desviaciones en la proporción de isótopos de origen biogénico y el análisis de entornos, muchas veces extremófilos semejantes a los paleoecosistemas iniciales.
Existe una serie de observaciones que intentan describir las condiciones fisicoquímicas en las cuales pudo emerger la vida, pero todavía no se tiene un cuadro razonablemente completo dentro del estudio de la complejidad biológica, acerca de cómo pudo ser este origen. Se han propuesto varias teorías, siendo la hipótesis del mundo de ARN y la teoría del mundo de hierro-sulfuro7 las más aceptadas por la comunidad científica.