Ene
11
Velocidades inimaginables
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
El núcleo atómico es la parte central de un átomo, tiene carga positiva., y concentra más del 99,9 % de la masa total del átomo. Pero además, y a pesar a su infinitesimal pequeñez (1/100.000), dentro se producen fenómenos que son difíciles de imaginar : Quark reunidos en tripletes que se juntan para formar los nucleones (protons y neutrones), la fuerza nuclear fuerte que mantiene confinados a los Quarks en las entrañas de los hadrones-bariones, un bosón emisor de la fuerza que impide que los Quarks se separen, como es el caso del Bosón llamado Gluón…
Es decir, que en el centro del átomo se encuentra un pequeño grano compacto aproximadamente 100.000 veces más pequeño que el propio átomo: el núcleo atómico. Su masa, e incluso más aún su carga eléctrica, determinan las propiedades del átomo del cual forma parte. Debido a la solidez del núcleo parece que los átomos, que dan forma a nuestro mundo cotidiano, son intercambiables entre sí, e incluso cuando interaccionan entre ellos para formar sustancias químicas (los elementos). Pero el núcleo, a pesar de ser tan sólido, puede partirse. Si dos átomos chocan uno contra el otro con gran velocidad podría suceder que los núcleos llegaran a chocar entre sí y entonces, o bien se rompen en trozos, o se funden liberando en el proceso partículas subnucleares. La nueva física de la primera mitad del siglo XX estuvo dominada por los nuevos acertijos que estas partículas planteaban.
Pero tenemos la mecánica cuántica; ¿es que no es aplicable siempre?, ¿Cuál es la dificultad? Desde luego, la mecánica cuántica es válida para las partículas subatómicas, pero hay más que eso. Las fuerzas con que estas partículas interaccionan y que mantienen el núcleo atómico unido son tan fuertes que las velocidades a las que tienen que moverse dentro y fuera del núcleo están cerca de la velocidad de la luz, c, que es de 299.792’458 Km/s. Cuando tratamos con velocidades tan altas se necesita una segunda modificación a las leyes de la física del siglo XIX; tenemos que contar con la teoría de la relatividad especial de Einstein.
Esta teoría también fue el resultado de una publicación de Einstein de 1905. en esta teoría quedaron sentadas las bases de que el movimiento y el reposo son conceptos relativos, no son absolutos, como tampoco habrá un sistema de referencia absoluto con respecto al cual uno pueda medir la velocidad de la luz.
Pero había más cosas que tenían que ser relativas. En este teoría, la masa y la energía también dependen de la velocidad, como lo hacen la intensidad del campo eléctrico y del magnético. Einstein descubrió que la masa de una partícula es siempre proporcional a la energía que contienen, supuesto que se haya tenido en cuenta una gran cantidad de energía en reposo de una partícula cualquiera, como se denota a continuación:
E = mc2 La masa y la energía son dos aspectos de la misma cosa.
Como la velocidad de la luz es muy grande, esta ecuación sugiere que cada partícula debe almacenar una cantidad enorme de energía, y en parte esta predicción fue la que hizo que la teoría de la relatividad tuviese tanta importancia para la física (¡y para todo el mundo!). Para que la teoría de la relatividad también sea autoconsistente tiene que ser holista, esto es, que todas las cosas y todo el mundo obedezcan a las leyes de la relatividad. No son sólo los relojes los que se atrasan a grandes velocidades, sino que todos los procesos animados se comportan de la forma tan inusual que describe esta teoría cuando nos acercamos a la velocidad de la luz. El corazón humano es simplemente un reloj biológico y latirá a una velocidad menor cuando viaje en un vehículo espacial a velocidades cercanas a la de la luz. Este extraño fenómeno conduce a lo que se conoce como la “paradoja de los gemelos”, sugerida por Einstein, en la que dos gemelos idénticos tienen diferente edad cuando se reencuentran después de que uno haya permanecido en la Tierra mientras que el otro ha viajado a velocidades relativistas.
Einstein comprendió rápidamente que las leyes de la gravedad también tendrían que ser modificadas para que cumplieran el principio relativista.
Para poder aplicar el principio de la relatividad a la fuerza gravitatoria, el principio tuvo que ser extendido de la siguiente manera: no sólo debe ser imposible determinar la velocidad absoluta del laboratorio, sino que también es imposible distinguir los cambios de velocidad de los efectos de una fuerza gravitatoria.
Einstein comprendió que la consecuencia de esto era que la gravedad hace al espacio-tiempo lo que la humedad a una hoja de papel: deformar la superficie con desigualdades que no se pueden eliminar. Hoy en día se conocen muy bien las matemáticas de los espacios curvos, pero en el época de Einstein el uso de estas nociones matemáticas tan abstractas para formular leyes físicas era algo completamente nuevo, y le llevó varios años encontrar la herramienta matemática adecuada para formular su teoría general de la relatividad que describe cómo se curva el espacio en presencia de grandes masas como planetas y estrellas.
Einstein tenía la idea en su mente desde 1907 (la relatividad especial la formuló en 1905), y se pasó 8 años buscando las matemáticas adecuadas para su formulación.
El Tensor métrico de Riemann
Leyendo el material enviado por un amigo al que pidió ayuda, Einstein quedó paralizado. Ante él, en la primera página de una conferencia dada ante el Sindicato de Carpinteros, 60 años antes por un tal Riemann, tenía la solución a sus desvelos: el tensor métrico de Riemann, que le permitiría utilizar una geometría espacial de los espacios curvos que explicaba su relatividad general.
No está mal que en este punto recordemos la fuerza magnética y gravitatoria que nos puede ayudar a comprender mejor el comportamiento de las partículas subatómicas.
El electromagnetismo, decíamos al principio, es la fuerza con la cual dos partículas cargadas eléctricamente se repelen (si sus cargas son iguales) o se atraen (si tienen cargas de signo opuesto).
El electrón es poseedor de una carga eléctrica negativa; y, al girar el electrón sobre su propio eje genera un campo magnético que denominamos espín.
La interacción magnética es la fuerza que experimenta una partícula eléctricamente cargada que se mueve a través de un campo magnético. Las partículas cargadas en movimiento generan un campo magnético como, por ejemplo, los electrones que fluyen a través de las espiras de una bobina.
Las fuerzas magnéticas y eléctricas están entrelazadas. En 1873, James Clerk Maxwell consiguió formular las ecuaciones completas que rigen las fuerzas eléctricas y magnéticas, descubiertas experimentalmente por Michael Faraday. Se consiguió la teoría unificada del electromagnetismo que nos vino a decir que la electricidad y el magnetismo eran dos aspectos de una misma cosa.
La interacción es universal, de muy largo alcance (se extiende entre las estrellas), es bastante débil. Su intensidad depende del cociente entre el cuadrado de la carga del electrón y 2hc (dos veces la constante de Planck por la velocidad de la luz). Esta fracción es aproximadamente igual a 1/137’036…, o lo que llamamos α y se conoce como constante de estructura fina.
En general, el alcance de una interacción electromagnética es inversamente proporcional a la masa de la partícula mediadora, en este caso, el fotón, sin masa.
La Gravedad mantiene unido los planetas alrededor del Sol
También antes hemos comentado sobre la interacción gravitatoria de la que Einstein descubrió su compleja estructura y la expuso al mundo en 1915 con el nombre de teoría general de la relatividad, y la relacionó con la curvatura del espacio y el tiempo. Sin embargo, aún no sabemos cómo se podrían reconciliar las leyes de la gravedad y las leyes de la mecánica cuántica (excepto cuando la acción gravitatoria es suficientemente débil).
La teoría de Einstein nos habla de los planetas y las estrellas del cosmos. La teoría de Planck, Heisemberg, Schrödinger, Dirac, Feynman y tantos otros, nos habla del comportamiento del átomo, del núcleo, de las partículas elementales en relación a estas interacciones fundamentales. La primera se ocupa de los cuerpos muy grandes y de los efectos que causan en el espacio y en el tiempo; la segunda de los cuerpos muy pequeños y de su importancia en el universo atómico. Cuando hemos tratado de unir ambos mundos se produce una gran explosión de rechazo. Ambas teorías son (al menos de momento) irreconciliables.
- La interacción gravitatoria actúa exclusivamente sobre la masa de una partícula.
- La gravedad es de largo alcance y llega a los más lejanos confines del universo conocido.
- Es tan débil que, probablemente, nunca podremos detectar esta fuerza de atracción gravitatoria entre dos partículas elementales. La única razón por la que podemos medirla es debido a que es colectiva: todas las partículas (de la Tierra) atraen a todas las partículas (de nuestro cuerpo) en la misma dirección.
El Gravitón es esquivo, no se ha dejado ver todavía
La partícula mediadora es el hipotético gravitón. Aunque aún no se ha descubierto experimentalmente, sabemos lo que predice la mecánica cuántica: que tiene masa nula y espín 2.
La ley general para las interacciones es que, si la partícula mediadora tiene el espín par, la fuerza entre cargas iguales es atractiva y entre cargas opuestas repulsiva. Si el espín es impar (como en el electromagnetismo) se cumple a la inversa.
Pero antes de seguir profundizando en estas cuestiones hablemos de las propias partículas subatómicas, para lo cual la teoría de la relatividad especial, que es la teoría de la relatividad sin fuerza gravitatoria, es suficiente.
Si viajamos hacia lo muy pequeño tendremos que ir más allá de los átomos, que son objetos voluminosos y frágiles comparados con lo que nos ocupará a continuación: el núcleo atómico y lo que allí se encuentra. Los electrones, que ahora vemos “a gran distancia” dando vueltas alrededor del núcleo, son muy pequeños y extremadamente robustos. El núcleo está constituido por dos especies de bloques: protones y neutrones. El protón (del griego πρώτος, primero) debe su nombre al hecho de que el núcleo atómico más sencillo, que es el hidrógeno, está formado por un solo protón. Tiene una unidad de carga positiva. El neutrón recuerda al protón como si fuera su hermano gemelo: su masa es prácticamente la misma, su espín es el mismo, pero en el neutrón, como su propio nombre da a entender, no hay carga eléctrica; es neutro.
La masa de estas partículas se expresa en una unidad llamada mega-electrón-voltio o MeV, para abreviar. Un MeV, que equivale a 106 electrón-voltios, es la cantidad de energía de movimiento que adquiere una partícula con una unidad de carga (tal como un electrón o un protón) cuando atraviesa una diferencia de potencial de 106 (1.000.000) voltios. Como esta energía se transforma en masa, el MeV es una unidad útil de masa para las partículas elementales.
El núcleo del átomo es solo una part de cien mil del propio átomo, y, sin embargo, ahí está todo lo esencial
La mayoría de los núcleos atómicos contienen más neutrones que protones. Los protones se encuentran tan juntos en el interior de un núcleo tan pequeño que se deberían repeles entre sí fuertemente, debido a que tienen cargas eléctricas del mismo signo. Sin embargo, hay una fuerza que los mantiene unidos estrechamente y que es mucho más potente e intensa que la fuerza electromagnética: la fuerza o interacción nuclear fuerte, unas 102 veces mayor que la electromagnética, y aparece sólo entre hadrones para mantener a los nucleones confinados dentro del núcleo. Actúa a una distancia tan corta como 10-15 metros, o lo que es lo mismo, 0’000000000000001 metros.
La interacción fuerte está mediada por el intercambio de mesones virtuales, 8 gluones que, como su mismo nombre indica (glue en inglés es pegamento), mantiene a los protones y neutrones bien sujetos en el núcleo, y cuanto más se tratan de separar, más aumenta la fuerza que los retiene, que crece con la distancia, al contrario que ocurre con las otras fuerzas.
La luz es una manifestación del fenómeno electromagnético y está cuantizada en “fotones”, que se comportan generalmente como los mensajeros de todas las interacciones electromagnéticas. Así mismo, como hemos dejado reseñado en el párrafo anterior, la interacción fuerte también tiene sus cuantos (los gluones). El físico japonés Hideki Yukawa (1907 – 1981) predijo la propiedad de las partículas cuánticas asociadas a la interacción fuerte, que más tarde se llamarían piones. Hay una diferencia muy importante entre los piones y los fotones: un pión es un trozo de materia con una cierta cantidad de “masa”. Si esta partícula está en reposo, su masa es siempre la misma, aproximadamente 140 MeV, y si se mueve muy rápidamente, su masa parece aumentar en función E = mc2. Por el contrario, se dice que la masa del fotón en reposo es nula. Con esto no decimos que el fotón tenga masa nula, sino que el fotón no puede estar en reposo. Como todas las partículas de masa nula, el fotón se mueve exclusivamente con la velocidad de la luz, 299.792’458 Km/s, una velocidad que el pión nunca puede alcanzar porque requeriría una cantidad infinita de energía cinética. Para el fotón, toda su masa se debe a su energía cinética.
Los físicos experimentales buscaban partículas elementales en las trazas de los rayos cósmicos que pasaban por aparatos llamados cámaras de niebla. Así encontraron una partícula coincidente con la masa que debería tener la partícula de Yukawa, el pión, y la llamaron mesón (del griego medio), porque su masa estaba comprendida entre la del electrón y la del protón. Pero detectaron una discrepancia que consistía en que esta partícula no era afectada por la interacción fuerte, y por tanto, no podía ser un pión. Actualmente nos referimos a esta partícula con la abreviatura μ y el nombre de muón, ya que en realidad era un leptón, hermano gemelo del electrón, pero con 200 veces su masa.
Antes de seguir veamos las partículas elementales de vida superior a 10-20 segundos que eran conocidas en el año 1970.
Nombre | Símbolo | Masa (MeV) | Carga | Espín | Vida media (s) |
Fotón | γ | 0 | 0 | 1 | ∞ |
Leptones (L = 1, B = 0) | |||||
Electrón | e– | 0’5109990 | – | ½ | ∞ |
Muón | μ– | 105’6584 | – | ½ | 2’1970 × 10-6 |
Tau | τ | ||||
Neutrino electrónico | νe | ~ 0 | 0 | ½ | ~ ∞ |
Neutrino muónico | νμ | ~ 0 | 0 | ½ | ~ ∞ |
Neutrino tauónico | ντ | ~ 0 | 0 | ½ | ~ ∞ |
Mesones (L = 0, B = 0) | |||||
Pión + | π+ | 139’570 | 2’603 × 10-8 | ||
Pión – | π– | 139’570 | 2’603 × 10-8 | ||
Pión 0 | π0 | 134’976 | 0’84 × 10-16 | ||
Kaón + | k+ | 493’68 | 1’237 × 10-8 | ||
Kaón – | k– | 493’68 | 1’237 × 10-8 | ||
Kaón largo | kL | 497’7 | 5’17 × 10-8 | ||
Kaón corto | kS | 497’7 | 0’893 × 10-10 | ||
Eta | η | 547’5 | 0 | 0 | 5’5 × 10-19 |
Bariones (L = 0, B = 1) | |||||
Protón | p | 938’2723 | + | ½ | ∞ |
Neutrón | n | 939’5656 | 0 | ½ | 887 |
Lambda | Λ | 1.115’68 | 0 | ½ | 2’63 × 10-10 |
Sigma + | Σ+ | 1.189’4 | + | ½ | 0’80 × 10-10 |
Sigma – | Σ– | 1.1974 | – | ½ | 7’4× 10-20 |
Sigma 0 | Σ0 | 0 | ½ | 1’48 × 10-10 | |
Ksi 0 | Ξ0 | 1.314’9 | 0 | ½ | 2’9 × 10-10 |
Ksi – | Ξ– | 1.321’3 | – | ½ | 1’64 × 10-10 |
Omega – | Ω– | 1.672’4 | – | 1½ | 0’82 × 10-10 |
Para cada leptón y cada barión existe la correspondiente antipartícula, con exactamente las mismas propiedades a excepción de la carga que es la contraria. Por ejemplo, el antiprotón se simboliza con y el electrón con e+. Los mesones neutros son su propia antipartícula, y el π+ es la antipartícula del π–, al igual que ocurre con k+ y k–. El símbolo de la partícula es el mismo que el de su antipartícula con una barra encima. Las masas y las vidas medias aquí reflejadas pueden estar corregidas en este momento, pero de todas formas son muy aproximadas.
Los símbolos que se pueden ver algunas veces, como s (extrañeza) e i (isoespín) están referidos a datos cuánticos que afectan a las partículas elementales en sus comportamientos.
En el “universo” cuántico ocurren cosas muy extrañas
Debo admitir que todo esto tiene que sonar algo misterioso. Es difícil explicar estos temas por medio de la simple palabra escrita sin emplear la claridad que transmiten las matemáticas, lo que, por otra parte, es un mundo secreto para el común de los mortales, y ese lenguaje es sólo conocido por algunos privilegiados que, mediante un sistema de ecuaciones pueden ver y entender de forma clara, sencilla y limpia, todas estas complejas cuestiones.
Si hablamos del espín (o, con más precisión, el momento angular, que es aproximadamente la masa por el radio por la velocidad de rotación) se puede medir como un múltiplo de la constante de Planck, h, dividido por 2π. Medido en esta unidad y de acuerdo con la mecánica cuántica, el espín de cualquier objeto tiene que ser o un entero o un entero más un medio. El espín total de cada tipo de partícula – aunque no la dirección del mismo – es fijo.
El electrón, por ejemplo, tiene espín ½. Esto lo descubrieron dos estudiantes holandeses, Samuel Gondsmit (1902 – 1978) y George Uhlenbeck (1900 – 1988), que escribieron sus tesis conjuntamente sobre este problema en 1972. Fue una idea audaz que partículas tan pequeñas como los electrones pudieran tener espín, y de hecho, bastante grande. Al principio, la idea fue recibida con escepticismo porque la “superficie del electrón” se tendría que mover con una velocidad 137 veces mayor que la de la luz, lo cual va en contra de la teoría de la relatividad general en la que está sentado que nada en el universo va más rápido que la luz, y por otra parte, contradice E=mc2, y el electrón pasada la velocidad de la luz tendría una masa infinita.
Hoy día, sencillamente, tal observación es ignorada, toda vez que el electrón carece de superficie.
Las partículas con espín entero se llaman bosones, y las que tienen espín entero más un medio se llaman fermiones. Consultado los valores del espín en la tabla anterior podemos ver que los leptones y los bariones son fermiones, y que los mesones y los fotones son bosones. En muchos aspectos, los fermiones se comportan de manera diferente de los bosones. Los fermiones tienen la propiedad de que cada uno de ellos requiere su propio espacio: dos fermiones del mismo tipo no pueden ocupar o estar en el mismo punto, y su movimiento está regido por ecuaciones tales que se evitan unos a otros. Curiosamente, no se necesita ninguna fuerza para conseguir esto. De hecho, las fuerzas entre los fermiones pueden ser atractivas o repulsivas, según las cargas. El fenómeno por el cual cada fermión tiene que estar en un estado diferente se conoce como el principio de exclusión de Pauli. Cada átomo está rodeado de una nube de electrones, que son fermiones (espín ½). Si dos átomos se aproximan entre sí, los electrones se mueven de tal manera que las dos nubes se evitan una a otra, dando como resultado una fuerza repulsiva. Cuando aplaudimos, nuestras manos no se atraviesan pasando la uno a través de la otra. Esto es debido al principio de exclusión de Pauli para los electrones de nuestras manos que, de hecho, los de la izquierda rechazan a los de la derecha.
En contraste con el característico individualismo de los fermiones, los bosones se comportan colectivamente y les gusta colocarse todos en el mismo lugar. Un láser, por ejemplo, produce un haz de luz en el cual muchísimos fotones llevan la misma longitud de onda y dirección de movimiento. Esto es posible porque los fotones son bosones.
Cuando hemos hablado de las fuerzas fundamentales que, de una u otra forma, interaccionan con la materia, también hemos explicado que la interacción débil es la responsable de que muchas partículas y también muchos núcleos atómicos exóticos sean inestables. La interacción débil puede provocar que una partícula se transforme en otra relacionada, por emisión de un electrón y un neutrino. Enrico Fermi, en 1934, estableció una fórmula general de la interacción débil, que fue mejorada posteriormente por George Sudarshan, Robert Marschak, Murray Gell-Mann, Richard Feynman y otros. La fórmula mejorada funciona muy bien, pero se hizo evidente que no era adecuada en todas las circunstancias.
En 1970, de las siguientes características de la interacción débil sólo se conocían las tres primeras:
La interacción débil, fue inventada por E. Fermin para describir la desintegración radiactiva de los núcleos, que era básicamente un fenómeno de …
- La interacción actúa de forma universal sobre muchos tipos diferentes de partículas y su intensidad es aproximadamente igual para todas (aunque sus efectos pueden ser muy diferentes en cada caso). A los neutrinos les afecta exclusivamente la interacción débil.
- Comparada con las demás interacciones, ésta tiene un alcance muy corto.
- La interacción es muy débil. Consecuentemente, los choques de partículas en los cuales hay neutrinos involucrados son tan poco frecuentes que se necesitan chorros muy intensos de neutrinos para poder estudiar tales sucesos.
- Los mediadores de la interacción débil, llamados W+, W– y Z0, no se detectaron hasta la década de 1980. al igual que el fotón, tienen espín 1, pero están eléctricamente cargados y son muy pesados (esta es la causa por la que el alcance de la interacción es tan corto). El tercer mediador, Z0, que es responsable de un tercer tipo de interacción débil que no tiene nada que ver con la desintegración de las partículas llamada “corriente neutra”, permite que los neutrinos puedan colisionar con otras partículas sin cambiar su identidad.
A partir de 1970, quedó clara la relación de la interacción débil y la electromagnética (electrodébil de Weinberg-Salam).
La interacción fuerte (como hemos dicho antes) sólo actúa entre las partículas que clasificamos en la familia llamada de los hadrones, a los que proporciona una estructura interna complicada. Hasta 1972 sólo se conocían las reglas de simetría de la interacción fuerte y no fuimos capaces de formular las leyes de la interacción con precisión.
Como apuntamos, el alcance de esta interacción no va más allá del radio de un núcleo atómico ligero (10-13 cm aproximadamente).
La interacción es fuerte. En realidad, la más fuerte de todas.
Lo dejaré aquí, en verdad, eso que el Modelo Estándar de la Física, es feo, complejo e incompleto y, aunque hasta el momento es una buena herramienta con la que trabajar, la verdad es que, se necesita un nuevo modelo más avanzado y que incluya la Gravedad.
Veremos que nos trae de nuevo el LHC.
emilio silvera
Jul
9
SUBFOTONES Y ONDAS ELECTROMAGNETICAS
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
Conclusiones.
1.- Las ondas de REM no son un continuo de energía, se encuentran discretizadas. Derivada de un fotón, cada onda va asociada a una partícula denominada subfotón. Éste está configurado como dipolo eléctrico de forma segmentaria a partir de energía magnética de alta densidad, mostrando en cada uno de sus dos extremos un campo eléctrico de forma lobular de diferente signo, como si de un imán recto se tratara. Este conjunto unitario de onda-partícula en movimiento, exhibe un cuerpo tridimensional. Su superficie o piel EM para sentido práctico suele esquematizarse con el contorno de una onda sinusoidal de interacción EM.
2.- Cuando oleadas de subfotones y sus respectivas ondas en fase atacan una antena vertical receptora “peinándola uniformemente”, cada uno de ellos resulta guiado con su cresta eléctrica positiva por delante. Esto es así debido a que los subfotones tienen que pasar entre las polarizantes cargas negativas de los electrones libres de un conductor-antena. Cada cresta positiva de los subfotones moviéndose rápidamente entre los electrones, desplaza en un sentido una corriente de ellos a lo largo del conductor. Dirección que va a cambiar cuando a continuación pase entre ellos la cresta eléctrica negativa correspondiente. Esto se debe a que las crestas positivas de las ondas atraen electrones y las crestas negativas los repelen dentro del conductor. Repitiéndose el ciclo oscilatorio electrónico de manera global cuando grandes cantidades de subfotones en fase atraviesan la antena. Esta corriente eléctrica oscilatoria de antena se amplifica en el receptor y se puede llevar a un osciloscopio para observar la oscilación electrónica generada. El efecto sinusoidal observado en la pantalla, fue provocado por la modulación de que fueron objeto los electrones en sus movimientos en el circuito de antena correspondiente, por parte de las ondas de REM que le estarían llegando.
Nota: La bobina de antena es otro caso de recepción EM no descrito aquí.
3.- Si a lo largo de una línea de desplazamiento de ondas EM se establece lateralmente frente a ellas un puesto de observación, limitado por una delgada rendija vertical para observar (con posibilidad de movimiento en cámara lenta) cómo se mueven cada una de sus secciones, se puede observar a través de ella sólo un punto de una onda bajo escrutinio. Un aparente punto se desplaza rítmicamente a lo largo de la rendija vertical, subiendo y bajando a medida que ondas van desplazándose alejándose de la fuente.
Si además de su desplazamiento horizontal a través de la línea de referencia, se usa la representación de la onda como una cuerda que es agitada desde un extremo, el observador no puede discernir mirando a través de la rendija, si el fenómeno de desplazamiento de ondas bajo observación ocurre de manera oscilatoria. Ya que, pudiera ocurrir, sin que él observador pudiera haberse enterado, de que la cuerda en cuestión pudo haberse congelado por un súbito descenso de temperatura. En este segundo caso, la cuerda se desplazaría ondulada como si de una sola pieza sólida se tratara.
Sería una experimentación de resultado ambiguo, ya que no se puede asegurar si se trata de un movimiento transversal de la onda en cuestión o de otro tipo de movimiento. Si este fuera verdaderamente transversal, la teoría que respalda el experimento mental de la cuerda que es agitada formando ondas, no podría deducir la existencia de un corpúsculo de radiación con sus intrínsecos campos de interacción, entrando en conflicto con la hipótesis del concepto dualidad onda-partícula que se podría aplicar a los fotones en movimiento a través del espacio. Quedando bloqueado el camino que podría ir más allá del sólo “comportamiento corpuscular” que se entiende manifiestan las REM, al considerar fotones en su interacción con la materia.
4.- “De modo semejante a la onda que se propaga en una cuerda, el campo eléctrico a lo largo de una línea trazada en el espacio muestra la historia pasada de la perturbación emitida por la fuente.”
Esta cita tomada de la obra Ciencias Físicas de F. Bueche de la Universidad de Dayton, páginas 185 y 186, permite evidenciar que una onda emitida por una fuente de radiación se conserva de manera permanente (la perturbación emitida). De otra manera no habría historia que considerar de la radiación indicada. Consecuentemente, cada onda de REM se traslada a través del espacio como un todo histórico invariable, incluso numerable. Y, si cada onda no varía su configuración en el espacio, la teoría moderna relativa está incompleta, pues no nos dice como se produce cada una de las ondas que hoy mismo viajan en cualquier parte del universo. La respuesta se da al considerar que cada onda se encuentra asociada a un corpúsculo de REM, nombrado subfotón en esta tesis. Particularmente cada uno de ellos puede ser emitido y/o absorbido por la materia sin perder su identidad numerable.
En alguna parte de la historia de un subfotón, podría estar a tu lado formando parte de un electrón cercano, más tarde en la Luna, o en alguna otra galaxia alejada formando parte de algún neutrón existente en ella. Este mismo subfotón en cualquier momento dado podría estar viajando con destino incierto a través del espacio a velocidad c, acompañado de otros subfotones, cada uno con número de identidad específico. Aun cuando individualmente no tienen ni firma ni huella, el hombre puede predecir como cantidades importantes de ellos van modificando el entorno físico del mundo y del universo en general, gracias a la comprensión de los procesos de absorción y emisión espontánea y manipulada a que se pueden ver sujetos.
Interacción materia-REM
5.- En síntesis, en el universo existe una cantidad exacta de subfotones de REM, cada uno de ellos con una onda asociada. Pueden estar en movimiento gracias a los procesos de emisión, o estacionados debido a la absorción a que son sujetos debido a la materia ya existente. Cada uno manifiesta un campo eléctrico de energía h conocida (la constante de Planck). Su magnitud eléctrica es independiente del componente magnético perpendicular que se le suma cuando se mueve al ser emitido al espacio. Fenómeno similar al campo magnético perpendicular que se genera alrededor de un alambre conductor recto cuando electrones se mueven a lo largo de su espacio atómico interno donde se encuentran confinados. Si los electrones libres no se mueven entrando en conducción, tampoco se genera el campo magnético alrededor del conductor. Subrayamos que los campos magnéticos generados tanto por electrones como por subfotones, se producen cuando ellos perturban la energía de vacío del universo donde se encuentran inmersos, que no es otra cosa que la estructura magnética del espacio-tiempo, identificado en esta tesis como campo de gravedad primario.
6.- La idea general está expuesta en mi tesis Física Global.
http://www.emiliosilveravazquez.com/blog/wp-content/uploads/FISICA%20GLOBAL.pdf
A la orden de las nuevas generaciones de físicos. Sus pensamientos serán fundamentales para moldear de mejor manera estos nuevos conocimientos. A pesar de un estira y afloja que se ha dado en el desarrollo de la ciencia, incluidos aciertos y desaciertos, todos estamos coludidos históricamente en un esfuerzo científico ya hecho. Como dijo Albert Einstein: La física es un sistema lógico de pensamiento en desarrollo. De esta idea se desprende que el avance científico sólo es posible con los esfuerzos humanos del pasado. El presente es sólo confusión, el futuro ni siquiera existe. Existe arduo trabajo pendiente para los investigadores científicos. Ellos son los que llevan la delantera en la brecha del trabajo hacia el porvenir.
Nadie ignora que el mundo ha entrado en el rápido deterioro de sus ecosistemas. Si científicamente no se domina la energía de nuestro entorno mundial, con tecnología apropiada, próximamente, la energía de las lágrimas, podrían ser los últimos vestigios de nuestra incapacidad para mantener la energía de la felicidad humana. No pocas de ellas, ya se derraman en diferentes regiones del planeta.
¡Saludos y buenos deseos para todos!
José Germán Vidal Palencia
Investigador independiente
México, D.F., a 25 de noviembre de 2015
Jul
6
Sobre la antimateria
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
Hasta 1928, en la física ni siquiera como concepto se había desarrollado la idea de antimateria y, mucho menos, la capacidad de producirla. Pero el estadio cambió cuando se empezaron a conocer los estudios del físico británico Paul Dirac.
En la práctica, todo comienza con los trabajos de Dirac que publicó en el año 1929, en una época que coincide con los tiempos que se descubrían los primeros secretos de la materia, se teorizaba sobre el comportamiento de las partículas que comportan la fuerza débil, y se profundizaban los estudios de los componentes de los átomos, especialmente en la teorización de lo que se llama fuerza fuerte. Fueron tiempo en que la audacia tuvo una preeminencia como rol intelectual dentro del mundo de la física, en el cual se plantearon conceptos como el de la mecánica ondulatoria, el principio de incertidumbre o, también, el descubrimiento del espín en los electrones. Se dice que fue una de las épocas más exotérica* de la física, en la cual hubo ejercitantes que concurrieron a simpáticas metáforas para hacer más accesibles sus teorías, como fue el caso del físico austríaco Erwin Schrödinger cuando apeló a la historia de los gatitos para exponer su principio de indeterminación, con el cual describía en síntesis que las partículas más pequeñas tienen un comportamiento que, dentro del razonamiento común, no es el mayormente aceptado por las personas.
La descripción anterior, implica ubicar el escenario en el cual Paul Dirac estaba inserto cuando planteó que donde había materia, también podía haber antimateria. Concretamente señaló, que si el átomo tenía partículas de carga negativas llamadas electrones, debía haber partículas que fueran «electrones antimateria», a los que se les llamó positrones y que debían tener la misma masa del electrón, pero de carga opuesta y que se aniquilarían al entrar en contacto, liberando energía. Este descubrimiento de Dirac fue tan revolucionario que lo hizo merecedor del premio Nobel en el año 1933.
Abr
8
La física no duerme
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
Ciencia-ABC
Hallan fuertes indicios de una partícula desconocida capaz de romper los esquemas de la Física. Lo cierto es que, los físicos experimentadores no dejan de buscar en el LHC y otros aceleradores de partículas sobre “cosas” que intuyen los teóricos y desean verificar.
Científicos del Gran Colisionador de Partículas, del CERN, han obtenido evidencias de una anomalía que podría ser la primera pieza de una nueva teoría global, más allá del Modelo Estándar
Experimento en el LHCb que ha encontrado estos indicios – CERN
Obtienen intrigantes resultados en este experimento
“El experimento LHCb, fue diseñado principalmente para realizar mediciones precisas de los elementos de la matriz de mezcla de quarks, especialmente las fases entre la segunda y la tercera generación.”
Los hallazgos más importantes realizados en el CERN (Organización Europea para la Investigación Nuclear) se anuncian primero en seminarios destinados a científicos y no en multitudinarias ruedas de prensa. Así ocurrió por ejemplo cuando se descubrió el bosón de Higgs. Y no es para menos: esta partícula completó por fin el Modelo Estándar de la Física, el marco teórico con el que se explica el comportamiento del Universo a través de cuatro fuerzas o interacciones fundamentales y de un puñado de partículas. Pero también se convocó uno de estos seminarios cuando los análisis sugirieron en 2016 la existencia de una nueva partícula que en realidad era una decepción.
“Un pentaquark es una partícula subatómica hipotética compuesta por un grupo de cinco, cuatro quarks y un antiquark ligados juntos, por lo que es rara respecto a los tres quarks normales de los bariones y a los dos de los mesones.”
Este mismo martes se celebró otro de estos seminarios en el CERN. Los científicos han sido tan cautelosos como siempre, y han dejado claro que serán necesarias más observaciones para confirmarlo. Pero los investigadores de uno de los experimentos del Gran Colisionador de Partículas (LHC), el LHCb, han anunciado el hallazgo de fuertes evidencias de la existencia de una discrepancia con el Modelo Estándar de la Física. Esto puede querer decir que en la materia existe una partícula desconocida que podría romper los esquemas de la Física actual.
«Sería la primera vez que logramos ver algo que va más allá del Modelo Estándar»
«Si esto se confirmara estaríamos ante la primera pieza de un nuevo gran puzle», ha explicado a ABC Joaquim Matias, un físico teórico de la Universidad Autónoma de Barcelona y del IFAE (Instituto de Física de Altas Energías). «Sería la primera vez que logramos ver algo que va más allá del Modelo Estándar. El impacto sería brutal».
A día de hoy el Modelo Estándar de la Física es incapaz de explicar cosas como el origen de la materia oscura o la asimetría entre materia y anti-materia. Por eso los físicos siguen empeñados en hacer chocar partículas a altas velocidades y en observar los efectos de su destrucción, en busca de nuevas partículas y fuerzas que puedan ayudar a completar el puzle.
Hacerlo requiere usar complejísimas instalaciones y modelos matemáticos. Los físicos han de trabajar con los resultados de millones de colisiones y fluctuaciones energéticas y desechar los posibles efectos del ruido o de los errores experimentales.
La clave, en los mesones B
En esta ocasión, el posible hallazgo de la revolucionaria partícula no se ha conseguido en los grandes detectores del LHC, los ATLAS y CMS, sino en el más pequeño LHCb. Este se encarga de estudiar a una familia de partículas muy concretas: los mesones B.
¿Qué son estos mesones? Son partículas compuestas a su vez por otras partículas fundamentales, conocidas como quarks, que son, entre otras cosas, los constituyentes de los más familiares protones. Pues bien, lo interesante de estos mesones es que se descomponen en apenas nanosegundos y que en el camino liberan energía y partículas que son muy interesantes para los físicos, porque quizás podrían dar información sobre lo que hay más allá del Modelo Estándar.
Este gran modelo predice qué debe ocurrir al descomponer un mesón B. Pero ahora, los investigadores han obtenido evidencias sólidas de que en su laboratorio los mesones no se han comportado como se esperaba. Eso podría querer decir que han cometido algún error o bien que han encontrado las huellas de una nueva partícula que contradice lo que se daba por sentado hasta ahora.
«Segun el Modelo Estándar, cuando se descompone un mesón B se desintegra en una particula vectorial llamada K* y en una pareja de muón (parecida a un electrón pero con más masa) y anti-muón (igual que un muón pero con carga opuesta) con la misma frecuencia que a una pareja electrón y positrón (igual que un electrón pero con carga opuesta», ha dicho Joaquim Matías.
Es decir, de acuerdo con una especie de principio democrático, conocido como «universalidad del sabor de los leptones», en un 50 por ciento de los casos se produciría una pareja y en otro 50 por ciento la otra. Pero los investigadores del CERN han visto que se suele formar más un tipo de dúo que el otro. Por eso se dice que han hallado indicios de una violación del principio de la universalidad de los leptones y, por ende, del Modelo Estándar.
Una posible nueva partícula: el bosón Z´
«Si confirmáramos esta violación, tendríamos una clara dirección en la que buscar la nueva Física. Tendríamos que descartar todos los modelos que cuentan con ese principio de la universalidad, lo que tendría un gran impacto», ha aclarado el investigador.
Además, esto incorporaría una nueva partícula al repertorio de los físicos, y que se llamaría bosón Z´. Sería cercana al bosón Z, una de las partículas fundamentales que explica la interacción débil, una fuerza que se manifiesta en los núcleos de los átomos. Al mismo tiempo, otros ya han propuesto una explicación alternativa, centrada en un lepton-quark, una nueva partícula que transmite información entre leptones y quarks, tal como ha informado Science.
¿Se debe dudar de esto?
¿Hasta qué punto se debe confiar o dudar de estos hallazgos? los científicos del CERN han evaluado la seguridad de que los resultados se deban a la existencia de un nuevo fenómeno por descubrir o a una jugarreta del azar. Después de hacerlo, han obtenido un nivel de significacion sigma de tres, lo que para los físicos quiere decir que están ante una evidencia de que están observando algo interesante. Sin embargo, los datos aún no han permitido llegar al nivel de significación de cinco, que es el que le corresponde a los descubrimientos, como el bosón de Higgs.
Pero hay más señales de que los físicos están ante algo grande. Otros experimentos realizados en 2013 y 2015 por parte del LHCb y por otros instrumentos, como el ATLAS, el CMS y el Belle (en Japón), también analizaron la descomposición de estos mesones B. Al considerar todos estos datos en conjunto, el equipo de Joaquim Matias ha obtenido un nivel sigma de cinco para estas anomalías, tal como han publicado este miércoles en arXiv.org, un portal donde se publican artículos científicos antes de ser revisados por editores de revistas.
Según Matias, hay varios motivos para esperar la importante confirmación o descarte de estos resultados este mismo año. Muchos experimentadores ya han dicho que tratarán de estudiarlo tan pronto como sea posible. Entre ellos están los científicos del LHCb. En su favor está el hecho de que obtuvieron las evidencias presentadas recientemente con datos recogidos entre 2011 y 2012, y que ahora tienen a su disposición la información recogida entre 2012 y 2013. De hecho, responsables del CERN anunciaron que van a tratar de profundizar en estos experimentos este mismo año. Por último, a partir del año que viene el experimento Belle 2, en Japón, contará con un instrumental muy sofisticado y sensible para hacer este tipo de experimentos.
La explosión científica ya se ha desatado. Algo muy grande podría descubrirse este mismo año.
Abr
2
La maravilla de… ¡los cuantos!
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (1)
La Física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menos intensidad, por los objetos más fríos. Planck escribió un artículo de ocho páginas y el resultado fue que cambió el mundo de la física y aquella páginas fueron la semilla de la futura ¡mecánica cuántica! que, algunos años más tardes, desarrollarían físicos como Einstein (Efecto fotoeléctrico), Heisenberg (Principio de Incertidumbre), Feynman, Bhor, Schrödinger, Dirac…
La expresión radiación se refiere a la emisión continua de energía de la superficie de todos los cuerpos. Los portadores de esta energía son las ondas electromagnéticas producidas por las vibraciones de las partículas cargadas que forman parte de los átomos y moléculas de la materia. La radiación electromagnética que se produce a causa del movimiento térmico de los átomos y moléculas de la sustancia se denomina radiación térmica o de temperatura.
Ley de Planck para cuerpos a diferentes temperaturas.
Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía.
Pero si usamos las leyes de la termodinámica para calcular la intensidad de la radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano, y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico o una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para longitudes menores. Esta longitud característica es inversamente proporcional a la temperatura absoluta del objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273 ºC bajo cero). Cuando a 1.000 ºC un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de la luz visible.
Acero al “rojo vivo”, el objeto está radiando en la zona de la luz visible.
Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda y, por lo tanto, proporcional a la frecuencia de la radiación emitida. La sencilla fórmula es:
E = hv
Donde E es la energía del paquete, v es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.
Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: el sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck.
El príncipe francés Louis Victor de Broglie, dándole otra vuelta a la teoría, que no sólo cualquier cosa que oscila tiene una energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta dirección del espacio, y que la frecuencia, v, de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilatorias de campos de fuerza.
Es curioso el comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de De Broglie. Poco después, en 1926, Edwin Schrödinger descubrió como escribir la teoría ondulatoria de De Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar los cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de onda cuántica”.
No hay duda de que la Mecánica Cuántica funciona maravillosamente bien. Sin embargo, surge una pregunta muy formal: ¿Qué significan realmente esas ecuaciones?, ¿Qué es lo que están describiendo? Cuando Isaac Newton, allá por el año 1687, formuló cómo debían moverse los planetas alrededor del Sol, estaba claro para todo el mundo lo que significaban sus ecuaciones: que los planetas están siempre en una posición bien definida en el espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades con el tiempo.
Pero para los electrones todo esto es muy diferente. Su comportamiento parece estar envuelto en la bruma. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?
Niels Bohr consiguió responder a esta pregunta de forma tal que con su explicación se pudo seguir trabajando y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la “interpretación de Copenhague” de la Mecánica Cuántica. En vez de decir que el electrón se encuentra en el punto x o en el punto y, nosotros hablamos del estado del electrón. Ahora no tenemos el estado “x” o el estado “y”, sino estados “parcialmente x” o “parcialmente y. Un único electrón puede encontrarse, por lo tanto, en varios lugares simultáneamente. Precisamente lo que nos dice la Mecánica Cuántica es como cambia el estado del electrón según transcurre el tiempo.
Un “detector” es un aparato con el cual se puede determinar si una partícula está o no presente en algún lugar pero, si una partícula se encuentra con el detector su estado se verá perturbado, de manera que sólo podemos utilizarlo si no queremos estudiar la evolución posterior del estado de la partícula. Si conocemos cuál es el estado, podemos calcular la probabilidad de que el detector registre la partícula en el punto x.
Las leyes de la Mecánica Cuántica se han formulado con mucha precisión. Sabemos exactamente como calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas simultáneamente. Por ejemplo, podemos determinar la velocidad de una partícula con mucha exactitud, pero entonces no sabremos exactamente dónde se encuentra; o, a la inversa. Si una partícula tiene “espín” (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.
No es fácil explicar con sencillez de dónde viene esta incertidumbre, pero hay ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar.
¿Onda o partícula? ¡Ambas a la vez! ¿Cómo es eso?
“La dualidad onda-corpúsculo, también llamada dualidad onda–partícula es un fenómeno cuántico, bien comprobado empíricamente, por el cual muchas partículas pueden exhibir comportamientos típicos de ondas en unos experimentos mientras aparecen como partículas compactas y localizadas en otros experimentos.”
Para que las reglas de la Mecánica Cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuanto más grande y más pesado es un objeto más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica.
Me gustaría referirme a esta exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por “holismo”, y que se podría definir como “el todo es más que la suma de las partes”.
Bien, si la Física nos ha enseñado algo, es justamente lo contrario: un objeto compuesto de un gran número de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (las partículas): basta que uno sepa sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que yo entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes.
Por ejemplo, la constante de Planck, h = 6,626075…x 10 exp. -34 julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.
Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los trucos ingeniosos descubiertos por Werner Heisenberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros tales como Edwin Schrödinger, siempre presentaron serias objeciones a esta interpretación.
Quizá funcione bien, pero ¿Dónde está exactamente el electrón, en el punto x o en el punto y? Em pocas palabras, ¿Dónde está en realidad?, ¿Cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.
Hasta hoy, muchos investigadores coinciden con la actitud pragmática de Bohr. Los libros de historia dicen que Bohr demostró que Einstein estaba equivocado. Pero no son pocos, incluyéndome a mí, los que sospechamos que a largo plazo el punto de vista de Einstein volverá: que falta algo en la interpretación de Copenhague. Las objeciones originales de Einstein pueden superarse, pero aún surgen problemas cuando uno trata de formular la mecánica cuántica para todo el Universo (donde las medidas no se pueden repetir) y cuando se trata de reconciliar las leyes de la mecánica cuántica con las de la Gravitación… ¡Infinitos!
La mecánica cuántica y sus secretos han dado lugar a grandes controversias, y la cantidad de disparates que ha sugerido es tan grande que los físicos serios ni siquiera sabrían por donde empezar a refutarlos. Algunos dicen que “la vida sobre la Tierra comenzó con un salto cuántico”, que el “libre albedrío” y la “conciencia” se deben a la mecánica cuántica: incluso fenómenos paranormales han sido descritos como efectos mecano-cuánticos.
Yo sospecho que todo esto es un intento de atribuir fenómenos “ininteligibles” a causas también “ininteligibles” (como la mecánica cuántica) dónde el resultado de cualquier cálculo es siempre una probabilidad, nunca una certeza.
Claro que, ahí están esas teorías más avanzadas y modernas que vienen abriendo los nuevos caminos de la Física y que, a mi no me cabe la menor duda, más tarde o más temprano, podrá explicar con claridad esas zonas de oscuridad que ahora tienen algunas teorías y que Einstein señalaba con acierto.
¿No es curioso que, cuando se formula la moderna Teoría M, surjan, como por encanto, las ecuaciones de Einstein de la Relatividad General? ¿Por qué están ahí? ¿Quiere eso decir que la Teoría de Einstein y la Mecánica Cuántica podrán al fin unirse en pacifico matrimonio sin que aparezcan los dichosos infinitos?
Bueno, eso será el origen de otro comentario que también, cualquier día de estos, dejaré aquí para todos ustedes.
emilio silvera