Jul
26
¡El paso del Tiempo!
por Emilio Silvera ~ Clasificado en El Universo y la Entropía ~ Comments (0)
Muchas veces he dejado aquí una reseña de lo que se entiende por entropía y así sabemos que la energía sólo puede ser convertida en trabajo cuando dentro del sistema concreto que se esté utilizando, la concentración de energía no es uniforme. La energía tiende entonces a fluir desde el punto de mayor concentración al de menor concentración, hasta establecer la uniformidad. La obtención de trabajo a partir de energía consiste precisamente en aprovechar este flujo.
En realidad, la Entropía, no nos debe resultar tan extraña como esa imagen de arriba. Es algo que está presente en toda nuestra vida cotidiana. Sus efectos los podemos ver y también sentir en nosotros mismos. Nada permanece igual, todo cambia y se transforma: Es la Entropía destructora que hace estragos en connivencia con el paso del tiempo.
Está claro que la madre ha sufrido más intensamente los efectos de la entropía que la graciosa niña que ahora está comenzando su andadura por la vida. ¡El Tiempo! Ese inexorable transcurrir de la fatídica flecha que nos lleva, desde el mismo instante del nacimiento, hasta el inevitable final: Es la Entropía destructora, ese mecanismo del que se vale nuestro Universo para renovarlo todo, incluso la vida que, de otra manera, no podría evolucionar.
El agua de un río está más alta y tiene más energía gravitatoria en el manantial del que mana en lo alto de la montaña y menos energía en el llano en la desembocadura, donde fluye suave y tranquila. Por eso fluye el agua río abajo hasta el mar (si no fuese por la lluvia, todas las aguas continentales fluirían montaña abajo hasta el mar y el nivel del océano subiría ligeramente. La energía gravitatoria total permanecería igual, pero estaría distribuida con mayor uniformidad).
Una rueda hidráulica gira gracias al agua que corre ladera abajo: ese agua puede realizar un trabajo. El agua sobre una superficie horizontal no puede realizar trabajo, aunque esté sobre una meseta muy alta y posea una energía gravitatoria excepcional. El factor crucial es la diferencia en la concentración de energía y el flujo hacia la uniformidad.
Y lo mismo reza para cualquier clase de energía. En las máquinas de vapor hay un depósito de calor que convierte el agua en vapor, y otro depósito frío que vuelve a condensar el vapor en agua. El factor decisivo es esta diferencia de temperatura. Trabajando a un mismo y único nivel de temperatura no se puede extraer ningún trabajo, por muy alta que sea aquella.
El término “entropía” lo introdujo el físico alemán Rudolf J. E. Clausius en 1.849 para representar el grado de uniformidad con que está distribuida la energía, sea de la clase que sea. Cuanto más uniforme, mayor la entropía. Cuando la energía está distribuida de manera perfectamente uniforme, la entropía es máxima para el sistema en cuestión.
Rudolf J. E. Clausius
Clausius observó que cualquier diferencia de energía dentro de un sistema tiende siempre a igualarse por sí sola. Si colocamos un objeto caliente junto a otro frío, el calor fluye de manera que se transmite del caliente al frío hasta que se igualan las temperaturas de ambos cuerpos. Si tenemos dos depósitos de agua comunicados entre sí y el nivel de uno de ellos es más alto que el otro, la atracción gravitatoria hará que el primero baje y el segundo suba, hasta que ambos niveles se igualen y la energía gravitatoria quede distribuida uniformemente.
Clausius afirmó, por tanto, que en la naturaleza era regla general que las diferencias en las concentraciones de energía tendían a igualarse. O dicho de otra manera:
que la entropía aumenta con el tiempo.
El estudio del flujo de energía desde puntos de alta concentración a otros de baja concentración se llevó a cabo de modo especialmente complejo en relación con la energía térmica. Por eso, el estudio del flujo de energía y de los intercambios de energía y trabajo recibió el nombre de “termodinámica”, que en griego significa “movimiento de calor”.
La termodinámica (significa “calor” y dinámico, que significa “fuerza”) es una rama de la física que estudia los fenómenos relacionados con el calor.
Motor de combustión interna: transferencia de energía. |
Específicamente, la termodinámica se ocupa de las propiedades macroscópicas (grandes, en oposición a lo microscópico o pequeño) de la materia, especialmente las que son afectadas por el calor y la temperatura, así como de la transformación de unas formas de energía en otras.
Con anterioridad se había llegado ya a la conclusión de que la energía no podía ser destruida ni creada. Esta regla es tan fundamental que se la denomina “primer principio de la termodinámica”.
La idea sugerida por Clausius de que la entropía aumenta con el tiempo es una regla general no menos básica, y que denomina “segundo principio de la termodinámica.”
Según este segundo principio, la entropía aumenta constantemente, lo cual significa que las diferencias en la concentración de energía también van despareciendo. Cuando todas las diferencias en la concentración de energía se han igualado por completo, no se puede extraer más trabajo, ni pueden producirse cambios.
¿Está degradándose el universo?
Pensemos en un reloj. Los relojes funcionan gracias a una concentración de energía en su resorte o en su batería. A medida que el resorte se destensa o la reacción química de la batería avanza, se establece un flujo de energía desde el punto de alta concentración al de baja concentración, y como resultado de este flujo anda el reloj. Cuando el resorte se ha destensado por completo o la batería ha finalizado su reacción química, el nivel de energía es uniforme en todo el reloj, no hay ya flujo de energía y la maquinaria se para. Podríamos decir que el reloj se ha “degradado”. Por analogía, decimos que el universo se “degradará” cuando toda la energía se haya igualado.
Si es cierto el segundo principio de la termodinámica, todas las concentraciones de energía en todos los lugares del universo se están igualando, y en ese sentido el universo se está degradando. La entropía alcanzará un máximo cuando la energía del universo esté perfectamente igualada; a partir de entonces no ocurrirá nada porque, aunque la energía seguirá allí, no habrá ya ningún flujo que haga que las cosas ocurran.
La situación parece deprimente (si el segundo principio es cierto), pero no es para alarmarse ahora, ya que el proceso tardará billones de años en llegar a su final y el universo, tal como hoy existe, no sólo sobrevivirá a nuestro tiempo, sino que con toda probabilidad también a la humanidad misma.
De todo esto podemos obtener una consecuencia clara y precisa; de acuerdo con el segundo principio de la termodinámica, la entropía del universo está en constante aumento, es decir, la energía que contiene tiende a igualarse en todas partes. Así que, como cualquier proceso que iguala las concentraciones de energía está aumentando el desorden en el sistema, nuestro universo cada vez tiene un mayor desorden con los movimientos aleatorios libres de las partículas que lo componen, cuyo comportamiento no es más que una especie de medida del desorden que en el universo se produce de manera continuada.
Las tres generaciones de arriba nos habla del tiempo quen pasa, de la entropía que es su compañera inseparable y, de los estragos que, en nosotros y en todas las cosas puede causar ese principio universal de que nada desaparece pero todo cambia.
La entropía está presente en la vida cotidiana: objetos que se descolocan, cosas que se desordenan, vestidos que se ensucian, un vaso que se cae y se rompe, los muebles que se llenan de polvo, el suelo que recoge las marcas de los pies que lo pisan, todo eso es entropía y, para arreglarla, tenemos que disponer bien las cosas, recoger los objetos caídos, lavar la ropa y limpiar el suelo o quitar el polvo, con lo cual, la entropía continúa estando presente en el esfuerzo que todo ello conlleva y deteriora la lavadora, la aspiradora y nos causa a nosotros por el esfuerzo realizado (deterioro-entropía).
La entropía está ineludiblemente unida al tiempo, ambos caminan juntos. En procesos elementales en los que intervienen pocos objetos es imposible saber si el tiempo marcha hacia delante o hacia atrás. Las leyes de la naturaleza se cumplen igual en ambos casos. Y lo mismo ocurre con las partículas subatómicas.
Un electrón curvándose en determinada dirección con el tiempo marchando hacia delante podría ser igualmente un positrón curvándose en la misma dirección, pero con el tiempo marchando hacia atrás. Si sólo consideramos esa partícula, es imposible determinar cuál de las dos posibilidades es la correcta.
En aquellos procesos elementales en que no se puede decir en que dirección marcha el tiempo, no hay cambio de entropía (o es tan pequeña la variación que podríamos ignorarla). Pero en los procesos corrientes, en las que intervienen muchas partículas, la entropía siempre aumenta. Que es lo mismo que decir que el desorden siempre aumenta.
Un saltador de trampolín cae en la piscina y el agua salpica hacia arriba; cae un jarrón al suelo y se hace añicos; las hojas caen de los árboles y se desparraman por el suelo. El paso de los años nos transforman de jovenes en viejos, ¿quién puede remediar eso?
El Universo no es infinito y se renueva cíclicamente a partir del Caos destructor para que surja lo Nuevo. ¡Qué me gustaría saber de donde surgió, en realidad, el Universo? ¿Será una fluctuación del vació que expulsó este universo nuestro de otro mayor? ¿Será, acaso, el mismo universo que se renueva una y otra ves? No parece que ese sea el caso. Lo cierto es que, sólo tenemos el Big bang y, sin la seguridad de que ese sea el comienzo cierto.
Se puede demostrar que todas estas cosas, y en general, todo cuanto ocurre normalmente en derredor nuestro, lleva consigo un aumento de entropía. Estamos acostumbrados a ver que la entropía aumenta y aceptamos ese momento como señal de que todo se desarrolla normalmente y de que nos movemos hacia delante en el tiempo. Si de pronto viésemos que la entropía disminuye, la única manera de explicarlo sería suponer que nos estamos moviendo hacia atrás en el tiempo: las salpicaduras de agua se juntan y el saltador saliendo del agua asciende al trampolín, los trozos del jarrón se juntan y ascienden hasta colocarse encima del mueble y las hojas desperdigadas por el suelo suben hacia el árbol y se vuelven a pegar en las ramas. Todas estas cosas muestran una disminución de la entropía, y sabemos que esto está tan fuera del orden de las cosas que la película no tiene más remedio que estar marchando al revés.
En efecto, las cosas toman un giro extraño cuando el tiempo se invierte, que el verlo nos hace reír. Por eso la entropía se denomina a veces “la flecha del Tiempo”, porque su constante aumento marca lo que nosotros consideramos el “avance del tiempo”.
Quizás, algún día, la imaginación de los seres humanos, tan poderosa, pueda idear la manera de deterner el Tiempo y con él, eliminar la Entropía destructora. Por disparatada que pueda parecer la idea, yo no la descartaría…del toto.
Todo esto me lleva a pensar que, si finalmente el universo en el que estamos es un universo con la densidad crítica necesaria para el universo curvo y cerrado que finaliza en un Big Crunch, en el que las galaxias se frenaran hasta parar por completo y comenzaran de nuevo a desandar el camino hacia atrás, ¿no es eso volver atrás en la flecha del tiempo y reparar la entropía?
emilio silvera
Jul
26
Algunas curiosidades de nuestro cerebro
por Emilio Silvera ~ Clasificado en Biologia ~ Comments (10)
Lo que en ese pequeño espacio de nuestro cuerpo pueda pasar… ¡No tiene explicación científica! El Cerebro y la Mente… ¡Un gran misterio!
No es fácil entender la complejidad que conlleva el enmarañado entramado de un cerebro humano, y, de hecho, hasta hace unos pocos años, no hemos comenzado a entender (parcialmente) sus mecanismos. La energía es la base principal del funcionamiento de todo lo que en el Universo es, y, nuestro cerebro, no podía ser menos. Así que, las células del cerebro invadidas por las mitocondrias reciben de estos invasores que parecen vivir pacificamente en simbiosis con la célula, lo que necesitamos.
Nuestra mente que está en contacto directo con el Universo del que forma parte, desarrolla funciones de inexplicable consecuencias, como por ejemplo la meditación, la comprensión, los pensamientos, y, en definitiva, podríamos decir que es el motor que nos mueve y hace posible nuestro desarrollo y evolución.
La Naturaleza de la mente es el misterio más profundo de la humanidad y, seguramente, del niverso. Se trata, además de un enigma de proporciones gigantescas, que se remonta a milenios atrás, y que se extiende desde el centro del cerebro hasta los confines del Universo. Es un secreto que provocó vértigo y depresión en alguna de las mentes más preclaras de algunos de los filósofos y pensadores más grandes que en el mundo han sido. Sin embargo, este amplio vacío de ignorancia está, ahora, atravesado, por varios rayos de conocimiento que nos ayudará a comprender cómo se regula la energía mental.
Aunque puede que no sepamos que es la mente, sabemos algunas cosas sobre el cerebro. Está formado por una red, una increíble maraña de “cables” eléctricos que serpentean a través de una gran cantidad de “sustancias” neuroquímicas. Existen quizás cien mil millones de neuronas en el cerebro humano, tantas como estrellas hay en la Vía Láctea, y, cada una de ellas recibe datos eléctricos de alrededor de mil neuronas, además de estar en contacto y en comunicación con unas cien mil neuronas más.
El suministro de datos que llega en forma de multitud de mensajes procede de los sentidos, que detectan el entorno interno y externo, y luego envía el resultado a los músculos para dirigir lo que hacemos y decimos. Así pues, el cerebro es como un enorme ordenador que realiza una serie de tareas basadas en la información que le llega de los sentidos. Pero, a diferencia de un ordenador, la cantidad de material que entra y sale parece poca cosa en comparación con la actividad interna. Seguimos pensando, sintiendo y procesando información incluso cuando cerramos los ojos y descansamos.
La unidad a partir de la cual se configuran todas las fabulosas actividades del cerebro es una célula del mismo, la neurona. Las neuronas son unas células fantásticamente ramificadas y extendidas, pero diminutas, tan diminutas son que, como hemos dicho tantas veces cada uno de nosotros poseemos unos cien mil millones de ellas, tantas, como estrellas hay en la Vía Láctea (lo repito de nuevo porque tal inmensidad, nunca dejará de asombrarme).
Jul
26
Rumores del saber del mundo
por Emilio Silvera ~ Clasificado en Rumores del Saber ~ Comments (0)
Los orígenes del saber de la Humanidad están dispersos a lo largo y a lo ancho del mundo y también del tiempo. Muchas han sido las Civilizaciones que nos dejaron sus logros, los personajes que, con su ingenio, hicieron posible que la Humanidad continuara, su eterno viaje hacia el futuro incierto.
Aquellas constelaciones del cielo a las que los antiguos dieron el nombre que todavía hoy, seguimos utilizando. Otras de aquellas grandes obras y pensamientos han quedado borrados por las brumas del tiempo y el hecho cierto de que, en aquellas épocas no existían las tecnologías adecuadas para preservar aquellos tesoros del pensamiento humano.
Civilizaciones pérdidas que poblaron nuestro planeta hace miles de años, dejaron algunas muestras de su grandeza que, muchos siglos después han sido desenterradas y estudiadas. De ellas hemos hablado aquí largamente en variados trabajos que trajeron el recuerdo de aquellos pueblos y sus logros: Los verdaderos cimientos de la Civilización moderna.
Jul
26
¡El conocimiento! No todos lo podemos tener
por Emilio Silvera ~ Clasificado en El Universo y los pensamientos ~ Comments (3)
El conocimiento es tener noción de saber, es inteligencia para adquirirlo.
El problema filosófico de las cuestiones relacionadas con el conocimiento, es decir, la forma del conocimiento de la realidad, las posibilidades existentes de que ese conocimiento responda exactamente a lo que ésta es en sí, no constituyó una preocupación fundamental para los filósofos hasta la llegada de Kant que, en el siglo XVIII, suscitó en gran escala estas dificultades. Con anterioridad a Kant, el problema se reducía al sujeto que conoce y objeto conocido, se fijaban fundamentalmente en el segundo de ellas, y la filosofía moderna, por el contrario, está centrada en el sujeto cognoscente.
La inquietud por este problema comienza con Descartes, Leibniz, Locke, Berkeley, Hume que influyó decisivamente en Kant en quien el problema a esta cuestión, como ya he comentado antes, en alguna parte de este mismo trabajo, la cuestión se formuló así: todo conocimiento arranca o nace de nuestras experiencias sensoriales, es decir, los datos que nos suministran nuestros cinco sentidos, pero no todo en él procede de estos datos. Dicho de otra manera, hay en nosotros dos fuentes o potencias distintas que nos capacitan para conocer, y son la sensibilidad (los sentidos) y el entendimiento o inteligencia. Ésta no puede elaborar ninguna idea sin los sentidos, pero también éstos son inútiles sin la ayuda del entendimiento. Es como un conjunto simétrico, algo perfectamente acoplado para formar un todo.
Me viene a la memoria en este punto la explicación que me dio una vez mi hija María, cuando por curiosidad le pregunté: ¿Qué es el contrapunto?
“Es la concordancia armónica de dos o más voces cada una con su línea melódica, de cuya superposición resulta la armonía de la obra musical.
Se aplica además el arte de conducir las voces con cierta independencia, sin incurrir en falta contra las reglas de la armonía. El contrapunto severo se atiene estrictamente a ellas, mientras que el libre admite cierta soltura, siempre que no incurra en desarmonía y cacofonía. En el doble las voces pueden ser intercambiadas. Los métodos empleados son la imitación de un motivo, el canon y la fuga, y estos últimos son complicados entre lanzamientos del motivo de la melodía.
La palabra contrapunto la utilizó por primera vez Philippe de Vitro, teórico del siglo XIV.
El contrapunto es la técnica compositiva por la cual, sobre una melodía dada, se construye un conjunto de una o varias contramelodías o contrapuntos, consiguiendo que, finalmente todo sea un conjunto armonioso.”
Cuando puse por primera vez esta pagina os contaba:
Mi hija María, estudia música desde los 8 años. Es pianista profesional, se ha licenciado en el Clave, instrumento parecido al piano con el que se toca la música antigüa, también toca el Órgano y se licenció en Pedagogía musical al mismo tiempo que estudiaba Clave, en el Real Conservatorio Superior de Música de Madrid,ha estado haciendo un Master en la Universidad dee Sevillla de Profesorado Musical y, como todos los jovenes de hoy en España, está a la espera de oportunidades y, mientras tantos, realiza algunos proyectos musicales que la puedan llevar hacia el futuro mejor soñado.
Aunque lo mío es la física y otras ramas del conocimiento, de vez en cuando recurro a María para preguntarle algunas cuestiones bajo el punto de vista musical que, no en pocas ocasiones, coincide con temas científicos. La respuesta que me dio sobre el contrapunto es aplicable a un sin fin de cuestiones y problemas científicos y cotidianos: buscar la armonía en la diferencia.
Podríamos aplicar el arte de combinar los sonidos de las voces humanas o los instrumentos, o de unos y otros a la vez para causar un efecto estético, a nuestra vida social y sobre todo a la política, procurando que unos y otros, voces discordantes y pensamientos distintos, guiados por una regla de ética y moral, pudieran reflejar un comportamiento estético.
La Música (como la Poesía y la Física) enaltece al ser humano, nos eleva y nos hace mejores. Una música que nos llega y es capaz de despertar nuestros sentimientos, nos puede transportar muy lejos, allí donde encontraremos el amor y la felicidad que, en este mundo nuestro, está escondida. En lo que se refiere a la Física, cuando podemos llegar a comprender cómo funciona el “mundo” no podemos dejar de asombrarnos ante tanta sencillez y, sin embargo, tánta maravilla. La poesía, es algo que sale del “Alma”, que trasciende a lo material para llevarnos a ese mundo mágico de la realidad soñada.
El término “música” procede del griego mousiké a través de la adaptación latina música. En el mundo griego se designaban con este nombre todas las ramas del arte que eran presididas por las Musas. Pitágoras fue el teórico musical más importante de la antigüedad.
Formuló el concepto de armonía y a partir de sus análisis sobre la naturaleza del sonido se creó el cálculo pitagórico de intervalos y las escalas modales, cuya importancia fue decisiva en el desarrollo de la música medieval.
Los principios teóricos de los griegos se transmitieron a la música litúrgica cristiana a través de autores como San Agustín, Boecio y Casiodoro. Durante los primeros siglos del cristianismo, la música se circunscribió al ámbito religioso, concretamente al canto litúrgico, cuyo fundamento está constituido por la síntesis entre el sistema modal griego y ciertas influencias de la tradición judía.
Como veo que esto se me va de las manos y puedo terminar este trabajo escribiendo una historia de la música, mejor lo dejo y me dedico a lo que en realidad me debo: el pensamiento y la búsqueda del saber, dado que, lo único cierto, es nuestra ignorancia.
emilio silvera
Jul
25
Los misterios de la Física cuántica, las partículas subatómicas
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (6)
Cuando hablamos del tiempo de vida de una partícula nos estamos refiriendo al tiempo de vida medio, una partícula que no sea absolutamente estable tiene, en cada momento de su vida, la misma probabilidad de desintegrarse. Algunas partículas viven más que otras, pero la vida media es una característica de cada familia de partículas.
También podríamos utilizar el concepto de “semivida”. Si tenemos un gran número de partículas idénticas, la semivida es el tiempo que tardan en desintegrarse la mitad de ese grupo de partículas. La semivida es 0,693 veces la vida media.
Si miramos una tabla de las partículas más conocidas y familiares (fotón, electrón muón tau, la serie de neutrinos, los mesones con sus piones, kaones, etc., y, los Hadrones bariones como el protón, neutrón, lambda, sigma, ksi y omega, en la que nos expliquen sus propiedades de masa, carga, espín, vida media (en segundos) y sus principales manera de desintegración, veríamos como difieren las unas de las otras.
Algunas partículas tienen una vida media mucho más larga que otras. De hecho, la vida media difiere enormemente. Un neutrón por ejemplo, vive 10¹³ veces más que una partícula Sigma⁺, y ésta tiene una vida 10⁹ veces más larga que la partícula sigma cero. Pero si uno se da cuenta de que la escala de tiempo “natural” para una partícula elemental (que es el tiempo que tarda su estado mecánico-cuántico, o función de ondas, en evolucionar u oscilar) es aproximadamente 10ˉ²⁴ segundos, se puede decir con seguridad que todas las partículas son bastantes estables. En la jerga profesional de los físicos dicen que son “partículas estables”.
Lo que resulta de una colisión de haces de partículas en el LHC
¿Cómo se determina la vida media de una partícula? Las partículas de vida larga, tales como el neutrón y el muón, tienen que ser capturadas, preferiblemente en grandes cantidades, y después se mide electrónicamente su desintegración. Las partículas comprendidas entre 10ˉ¹⁰ y 10ˉ⁸ segundos solían registrarse con una cámara de burbujas, pero actualmente se utiliza con más frecuencia la cámara de chispas. Una partícula que se mueve a través de una cámara de burbujas deja un rastro de pequeñas burbujas que puede ser fotografiado. La Cámara de chispas contiene varios grupos de de un gran número de alambres finos entrecruzados entre los que se aplica un alto voltaje. Una partícula cargada que pasa cerca de los cables produce una serie de descargas (chispas) que son registradas electrónicamente. La ventaja de esta técnica respecto a la cámara de burbujas es que la señal se puede enviar directamente a una computadora que la registra de manera muy exacta.
Una partícula eléctricamente neutra nunca deja una traza directamente, pero si sufre algún tipo de interacción que involucre partículas cargadas (bien porque colisionen con un átomo en el detector o porque se desintegren en otras partículas), entonces desde luego que pueden ser registradas. Además, realmente se coloca el aparato entre los polos de un fuerte imán. Esto hace que la trayectoria de las partículas se curve y de aquí se puede medir la velocidad de las partículas. Sin embargo, como la curva también depende de la masa de la partícula, es conveniente a veces medir también la velocidad de una forma diferente.
En un experimento de altas energías, la mayoría de las partículas no se mueven mucho más despacio que la velocidad de la luz. Durante su carta vida pueden llegar a viajar algunos centímetros y a partir de la longitud media de sus trazas se puede calcular su vida. Aunque las vidas comprendidas entre 10ˉ¹³ y 10ˉ²⁰ segundos son muy difíciles de medir directamente, se pueden determinar indirectamente midiendo las fuerzas por las que las partículas se pueden transformar en otras. Estas fuerzas son las responsables de la desintegración y, por lo tanto, conociéndolas se puede calcular la vida de las partículas, Así, con una pericia ilimitada los experimentadores han desarrollado todo un arsenal de técnicas para deducir hasta donde sea posible todas las propiedades de las partículas. En algunos de estos procedimientos ha sido extremadamente difícil alcanzar una precisión alta. Y, los datos y números que actualmente tenemos de cada una de las partículas conocidas, son los resultados acumulados durante muchísimos años de medidas experimentales y de esa manera, se puede presentar una información que, si se valorara en horas de trabajo y coste de los proyectos, alcanzaría un precio descomunal pero, esa era, la única manera de ir conociendo las propiedades de los pequeños componentes de la materia.
Que la mayoría de las partículas tenga una vida media de 10ˉ⁸ segundos significa que son ¡extremadamente estables! La función de onda interna oscila más de 10²² veces/segundo. Este es el “latido natural de su corazón” con el cual se compara su vida. Estas ondas cuánticas pueden oscilar 10ˉ⁸ x 10²², que es 1¹⁴ o 100.000.000.000.000 veces antes de desintegrarse de una u otra manera. Podemos decir con toda la seguridad que la interacción responsable de tal desintegración es extremadamente débil.
Aunque la vida de un neutrón sea mucho más larga (en promedio un cuarto de hora), su desintegración también se puede atribuir a la interacción débil. A propósito, algunos núcleos atómicos radiactivos también se desintegran por interacción débil, pero pueden necesitar millones e incluso miles de millones de años para ello. Esta amplia variación de vidas medias se puede explicar considerando la cantidad de energía que se libera en la desintegración. La energía se almacena en las masas de las partículas según la bien conocida fórmula de Einstein E = Mc². Una desintegración sólo puede tener lugar si la masa total de todos los productos resultantes es menor que la masa de la partícula original. La diferencia entre ambas masas se invierte en energía de movimiento. Si la diferencia es grande, el proceso puede producirse muy rápidamente, pero a menudo la diferencia es tan pequeña que la desintegración puede durar minutos o incluso millones de años. Así, lo que determina la velocidad con la que las partículas se desintegran no es sólo la intensidad de la fuerza, sino también la cantidad de energía disponible.
Si no existiera la interacción débil, la mayoría de las partículas serían perfectamente estables. Sin embargo, la interacción por la que se desintegran las partículas π°, η y Σ° es la electromagnética. Se observará que estas partículas tienen una vida media mucho más corta, aparentemente, la interacción electromagnética es mucho más fuerte que la interacción débil.
Durante la década de 1950 y 1960 aparecieron tal enjambre de partículas que dio lugar a esa famosa anécdota de Fermi cuando dijo: “Si llego a adivinar esto me hubiera dedicado a la botánica.”
Si la vida de una partícula es tan corta como 10ˉ²³ segundos, el proceso de desintegración tiene un efecto en la energía necesaria para producir las partículas ante de que se desintegre. Para explicar esto, comparemos la partícula con un diapasón que vibra en un determinado modo. Si la “fuerza de fricción” que tiende a eliminar este modo de vibración es fuerte, ésta puede afectar a la forma en la que el diapasón oscila, porque la altura, o la frecuencia de oscilación, está peor definida. Para una partícula elemental, esta frecuencia corresponde a su energía. El diapasón resonará con menor precisión; se ensancha su curva de resonancia. Dado que para esas partículas extremadamente inestable se miden curvas parecidas, a medida se las denomina resonancias. Sus vidas medias se pueden deducir directamente de la forma de sus curvas de resonancia.
Un ejemplo típico de una resonancia es la delta (∆), de la cual hay cuatro especies ∆ˉ, ∆⁰, ∆⁺ y ∆⁺⁺(esta última tiene doble carga eléctrica). Las masas de las deltas son casi iguales 1.230 MeV. Se desintegran por la interacción fuerte en un protón o un neutrón y un pión.
Existen tanto resonancias mesónicas como bariónicas . Las resonancias deltas son bariónicas. Las resonancias deltas son bariónicas. (También están las resonancias mesónicas rho, P).
Las resonancias parecen ser solamente una especie de versión excitada de los Hadrones estable. Son réplicas que rotan más rápidamente de lo normal o que vibran de diferente manera. Análogamente a lo que sucede cuando golpeamos un gong, que emite sonido mientras pierde energía hasta que finalmente cesa de vibrar, una resonancia termina su existencia emitiendo piones, según se transforma en una forma más estable de materia.
Por ejemplo, la desintegración de una resonancia ∆ (delta) que se desintegra por una interacción fuerte en un protón o neutrón y un pión, por ejemplo:
∆⁺⁺→р + π⁺; ∆⁰→р + πˉ; o п+π⁰
En la desintegración de un neutrón, el exceso de energía-masa es sólo 0,7 MeV, que se puede invertir en poner en movimiento un protón, un electrón y un neutrino. Un Núcleo radiactivo generalmente tiene mucha menos energía a su disposición.
Masa atómica
Una de las formas como los científicos miden el tamaño de algo es a través de su masa. Los científicos pueden incluso medir cosas muy minúsculas como los átomos. Una medida del tamaño de un átomo es su “masa atómica”. Casi toda la masa de un átomo (más del 99%) está en su núcleo, de manera que la “masa atómica” es realmente una medida del tamaño del núcleo de un átomo.
Los protones son practicamente del mismo tamaño que los neutrones, y ambos son mucho más grandes que los electrones. Un protón tiene una masa aproximadamente 1.836 veces mayor que la masa del electrón, pero las masas de los protones y neutrones se diferencian menos de uno por ciento. Un protón tiene una masa de 1.6726 x 10-24gramos. Los protones tienen una carga eléctrica positiva, conocida a veces como carga elemental, carga fundamental o carga de +1. Los electrones tienen una carga del mismo valor pero de polaridad opuesta, -1. La carga fundamental tiene un valor de 1.602 x 10-19 coulombios.
Núcleo atómico
El núcleo de un átomo contiene protones y neutrones. Cada elemento (como el carbono, oxígeno o el oro) tiene diferente número de protones en sus átomos. Los científicos tienen un nombre especial para el número de protones en un átomo. Lo llaman “número atómico”.
¿Por qué es importante el número atómico? Los átomos normales tienen el mismo número de electrones que protones. El número de electrones es lo que hace que cada elemento se comporte de cierta manera en reacciones químicas. De manera que el número atómico, que es el número de protones y electrones, es lo que hace que un elemento sea diferente a otro.
Hace algunos años ya que los físicos se preguntaban: ¿Podrían los protones ser puntos? Y, tratándo de saberlo, comenzaron a golpear los protones con otros protones de una energía muy baja (al principio) con el objeto de explorar la fuerza electromagnética entre los dos objetos cargados.
El Acelerador Lineal de Stanford. El SLAC, ubicado al sur de San Francisco, acelera electrones y positrones a lo largo de sus 2 millas de longitud (algo mas de tres kilómetros), hacia varios blancos, anillos y detectores ubicados en su finalización. Este acelerador hace colisionar electrones y positrones, estudiando las partículas resultantes de estas colisiones. Construido originalmente en 1962, se ha ido ampliando y mejorando para seguir siendo uno de los centros de investigación de física de partículas mas avanzados del mundo. El Centro ha ganado el premio Nobel en tres ocasiones.
El estudio de los componentes de la materia tiene una larga historia en su haber, y, muchos son los logros conseguidos y muchos más los que nos quedan por conseguir, ya que, nuestros conocimientos de la masa y de la energía (materia), es aún limitado.
Generalmente las llamamos partículas elementales pero, lo cierto es que, algunas son más elementales que otras. Los físicos experimentadores hicieron un buen trabajo en aquellos antiguos aceleradores de partículas por despejar la incognita y saber, de una vez por todas, de qué estava hecha la materia.
Los núcleos de los átomos están formados por protones y neutrones, alrededor de los cuales orbitan los electrones. Estos tres elementos (protones, neutrones y electrones) constituyen prácticamente toda la materia de la Tierra. Mientras que el electrón se considera como una partícula “sin tamaño”, el protón, que está compuesto de quarks, es un objeto con tamaño específico. Hasta ahora, sólo dos métodos se han utilizado para medir su radio. Basándose en el estudio de las interacciones entre un protón y un electrón, ambos métodos se centran en las colisiones entre uno y otro o sobre el átomo de hidrógeno (constituido por un electrón y un protón). El valor obtenido y que es el utilizado por los físicos, es 0,877 (+ / – 0,007) femtómetros.
Si los físicos experimentales de la década de los 60 hubieran podido tener a su disposición el moderno LHC… ¿Dónde estaríamos ahora?
La interacción fuerte es cien veces más intensa que la fuerza eléctrica de Coulomb, pero, al contrario que ésta, su alcance no es en absoluto infinito. Se extiende sólo hasta una distancia de unos 10-13 centímetros, y luego cae deprisa a cero. Al incrementar la energía de colisión, los experimentos desenterraron más y más detalles desconocidos de la interacción fuerte. A medida que aumenta la energía, la longitud de onda de los protones (acordémonos de De Broglie y Schrödinger) se encoge. Y, como se pudo ver, cuanto menor sea la longitud de onda , más detalles cabe discernir en la partícula que se estudie.
Robert Hofstadter, de la Universidad de Stantanford, tomó en los años cincuenta algunas de las mejores “imágenes” del protón. En vez de un haz de protones, la “luz” que utilizó fue un haz de electrones de 800 MeV que apuntó a un pequeño recipiente de hidrógeno líquido. Los electrones bombardearon los protones del hidrógeno y el resultado fue un patrón de dispersión, el de los electrones que salían en una variedad de direcciones con respecto a su movimiento original. No era muy diferente a lo que hizo Rutherford. Al contrario que el protón, el electrón no responde a la interacción nuclear fuerte. Responde sólo a la carga eléctrica del protón, y por ello los científicos de Stanford pudieron explorar la forma de la distribución de carga del protón. Y esto, de hecho, reveló el tamaño del protón. Claramente no era un punto.
Se midió que el radio del protón era de 2,8 x 10-13 centímetros; la carga se acumula en el centro, y se desvanece en los bordes de lo que llamamos el protón. Los experimentos se repitieron muchas veces y los resultados, siempre fueron parecidos al hacerlos con haces de muones, que también ignoran la interacción fuerte al ser leptones como los electrones. (Medidas más precisas llevadas a cabo en nuestro tiempo, han podido detectar, diminutos cambios en el radio del protón que tienen enormes implicaciones. El protón parece ser 0,00000000000003 milímetros más pequeño de lo que los investigadores habían pensado anteriormente, de hecho, y según han comentados los físicos del equipo que hizo el trabajo, las nuevas medidas podrían indicar que hay un hueco en las teorías existentes de la mecánica cuántica y algo falla en alguna parte.)
La imágen tomada en el SLAC, nos choca, todos tenemos en la mente las del LHC
Pero sigamos con la historia. Hallá por el año 1968, los físicos del Centro del Acelerador Lineal Stanford (SLAC), bombarderon los protones con electrones de mucha energía -de 8 a 15 GeV- y obtuvieron un conjunto muy diferente de patrones de dispersión. A esta “luz dura”, el protón presentaba un aspecto completamente distinto. Los electrones de energía relativamente baja que empleó Hofstadter podían ver sólo un protón “borroso”, una distribución regular de carga que hacía que el electrón pareciése una bolita musgosa. Los electrones del SLAC pudieron sondear con mayor dureza y dieron con algunos “personajillos” que “correteaban” dentro del protón. Aquella fue la primera indicación de la existencia real de los Quarks.
Hablando de partículas y de física cuántica nos podríamos llevar muchos días, meses y años y escribir todo lo que hasta el momento se ha descubierto en este campo sería una tarea imposible en un lugar como éste en el que los trabajos, son indicativos y particularmente sencillos para que, los lectores visitantes, tengan una sencilla idea de los temas que se comentan, así que, en relaciòn a éste, aquí lo dejamos.
emilio silvera