domingo, 24 de noviembre del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¿Cómo sujetar los pensamientos?

Autor por Emilio Silvera    ~    Archivo Clasificado en ¡Imaginación!    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 Dentro de nuestras mentes se crean torbellinos de pensamientos que debemos ordenar. Andamos sumergidos en la espesa niebla de nuestra ignorancia y no siempre, sabemos “ver” con la claridad sificiente y necesaria cómo es el mundo. En escritos míos anteriores, me he referido a la teoría expuesta de manera magistral por el reconocido físico teórico Kip S. Thorne. Él cree firmemente que en el futuro será posible viajar al pasado a través de un agujero de gusano. Para que las bocas de entrada aquí, y la de salida “allí” -pongamos por ejemplo, que el allí está en Andrómeda- se mantengan abiertas, es necesario que dispongamos de energía exótica como la que se produce en las placas del Efecto Casimir.

De la manera que vemos avanzar la ciencia, negar cualquier posibilidad futura, me parece al menos arriesgado y de tal maravilla, podría ser posible algún día muy lejos en el futuro, ¿quién sabe? si puede llegar a ser realidad. Sin embargo, hay que puntualizar algunas cosas.

  • Todos hemos oído contar, hemos leído o hemos visionado alguna película en la que el personaje principal viaja al pasado, se encuentra con su abuelo, se pelea con él y lo mata, y así, ni su padre ni él mismo pudieron nacer.
  • También se podría viajar al pasado, matar a Hitler y evitar el holocausto judío.
  • O impedir la crucifixión de Cristo.
  • O…

¡Pues va a ser que no! Los mecanismos del universo no permitirían tales acciones que cambiarían el curso de una historia que ya tuvo muchas consecuencias, y, como decía Hawking, alguna clase de censura cósmica, lo impedirá.

Si Thorne tiene razón y alguna vez vamos al pasado, a un mundo que fue y que no es el nuestro, creo que las leyes de la física impedirán que nuestra presencia fuese material y que nuestras acciones pudieran incidir en los hechos para cambiar su curso; eso es imposible.

Nuestra presencia allí sería incorpórea, holográfica, o, de cualquier otra manera en la que  podríamos ver, observar, mirar con fascinación de manera directa lo que allí pasó, ser testigos de hechos históricos (seguramente sería una forma de turismo del futuro), pero no nos estaría permitido intervenir. Además, si eso algún día fuese posible, también es dudoso que las personas de aquel lugar de época remota, pudieran vernos, ya que, en realidad, nosotros en aquel momento no estábamos allí.

Lo que ya pasó es irreversible. No podemos físicamente retrotraer el tiempo para borrar lo que pasó.

Cuando un astrofísico mira una galaxia que está a 1.000 millones de años-luz de nosotros, está mirando el pasado. La galaxia que ve es la galaxia que fue hace 1.000 millones de años, que es el tiempo que ha tardado su imagen en llegar a nosotros viajando a la velocidad de la luz. No estamos capacitados de ninguna manera para poder observar esa galaxia tal y como es ahora; la distancia que la separa de nosotros tiene que ser recorrida, y el viaje duró mil millones de años, así que cuando lleguemos allí, la galaxia habrá evolucionado y será muy diferente a como era cuando iniciamos el viaje.

Paradoja: ven la galaxia más lejana, pero ya no existe

Por Seth Borenstein – De la Agencia AP – Especial para Los Andes

 

Los astrónomos creen haber hallado el objeto más lejano jamás divisado en el universo: una galaxia muy distante en el tiempo y en el espacio.  Semioculto en una foto captada por el Telescopio Espacial Hubble y dado a conocer este año, se encuentra un corpúsculo de luz que los astrónomos europeos calculan es una galaxia de hace 13.100 millones de años. Es un momento en que el universo era muy joven, de apenas 600 millones de años. De confirmarse, será el objeto más antiguo y más distante hallado hasta la fecha y, la galaxia, probablemente ni exista ya.

El rayo de luz que es atraído por un agujero negro y desaparece en la singularidad, no puede volver para que lo podamos ver de nuevo. Allí, en ese lugar extraño y desconocido, se pierde toda la información y, si no explota y esparce todo su contenido, la información se perderá para siempre.

La entropía del universo es irreversible; el deterioro de los sistemas cerrados es imparable. Todo se transforma para convertir las cosas en otras diferentes. Son las leyes del universo, y a nosotros, simples mortales, sólo nos queda tratar de comprenderlas para obtener de ellas “tal como son” el mayor beneficio posible. Cuando la ambición o la inconsciencia nos lleva a querer cambiar las leyes del universo y de su naturaleza, el resultado no puede ser bueno. Somos nosotros los que tenemos que adaptarnos al medio y no al revés (excepto cuando por medios artificiales preparamos el medio para nuestro beneficio, pero simplemente adaptándolo y no cambiándolo).

Todas estas razones y muchas más que podrían exponerse aquí son las que impedirán algún día muy lejano de nuestro futuro, cambiar el pasado que, según mi opinión, es inamovible. ¡Ah!, y en contra de lo que dice en su libro Jean Bouchart, creo que todo lo que ocurre está causado por lo que ocurrió. Es lo que los físicos llaman causalidad. Nada ocurre porque sí, todo tiene su causa.

  • Si de verdad amas, te amarán.
  • Si estudias, aprenderás.
  • Si eres un vago, te llegará la miseria y la degradación.
  • Si haces lo que te gusta, serás más feliz.

Todo es la consecuencia de lo que hacemos. Igualmente, en nuestro mundo y en nuestro universo, rige la misma ley: si contaminas el planeta, se deteriorará el medio ambiente y morirá la atmósfera que ahora nos da la vida. Si una estrella agota su combustible nuclear, morirá, dejará de brillar y se convertirá en un objeto diferente. Todo es así.

Mi consejo: que nuestro comportamiento no sea nunca causante de males ajenos; que nos conformemos y sepamos valorar lo que tenemos; que tratemos cada día de ser mejores adquiriendo nuevos conocimientos, el verdadero sustento del ser. Cuanto más sabemos, más podemos ofrecer a los demás y a nuestro propio “espíritu”.

Seguramente, el verdadero amor es el único que nos salvará. En el último momento, surgirá en nosotros esa llama interior que llevamos dentro en la que se concentra todo lo bueno. El mal será rechazado y estaremos en un Universo mejor, más igual para todos, más justo y en el que, la dignidad de las personas estará asegurada. Quien trata de humillar a otro y despojarle de su dignidad, no es consciente de que en realidad, es su dignidiad la que se verá resentida por tan vil acción.

En mi transcurrir cotidiano, por mi trabajo, veo con mucha pena cómo las personas tratan de engañarse las unas a las otras. Es la forma general, y lo excepcional es el encontrar, muy de tarde en tarde, personas decentes y honradas, mejor o peor preparadas (qué más da) pero nobles de espíritu y limpias de corazón; cuando eso ocurre, es como una ráfaga de aire fresco y perfumado que inunda los sentidos.

Como lo normal es todo lo contrario, la fealdad interior, el engaño, la ausencia de moralidad y de ética, la traición de los “amigos” o familiares, etc., mi remedio es bien sencillo: me encierro en mi mundo particular de la física, la astronomía y, en definitiva, de cualquier rama del saber que esté presente en ese momento en mis pensamientos, y de esa forma, por unos momentos, me olvido de la fea verdad que nos rodea. La bondad y el amor sólo aparecen en efímeras ráfagas que rápidamente se esfuman y desaparecen, excepto en ámbitos como el seno famliar. Ahí, dentro de la familia -la esposa, los hijos, nietos hermanos y los padres… se desencadena un alto índice de ternura que hace florecer lo lo mejor de nosotros. En el seno familiar podemos sentir las bocanadas de aire puro  y perfumado inexistentes en otro lugar. En algunos casos, ese estado de amor y de ternura se extiende hacia todos los demás.

Estamos en un mundo frío, cada cual campa a lo suyo y, por lo general,  los demás sólo son instrumentos para conseguir nuestros objetivos. Nuestro mundo está cambiando, ya está regido por Ordenadores personalizados que atienden a nuestras instrucciones y se ocupan de necesidades cotidianas en la casa, en la oficina, en la fábrica y que son capaces de realizar planteamientos matemáticos en minutos, cosa que los seres vivos no pueden hacer a pesar de ser ellos los inventores del prodigio. No veo nada claro el devenir de la Humanidad.

Pasemos a otras cuestiones. En  enero de 2.007, comenzó y se celebró en la India el 20 International Joint Conference of Artificial Intelligence, un encuentro en el que se pusieron al día todos los avances en inteligencia artificial, y donde fue celebrado el 50 cumpleaños de su creación.

El incremento de los resultados en este campo (mucho hemos hablado aquí de ello), ha sido asombroso. Internet es una buena prueba de ello en la búsqueda de información por contenido, comercio electrónico, sistemas de recomendación, web semántica, etc. el futuro de Internet, de la industria y del comercio, de las ciudades futuras, de los viajes espaciales, de la medicina, etc., etc., etc., dependerán de los progresos que se realicen en el ámbito de la inteligencia artificial y en la nanotecnología; ahí parecen estar el progreso del futuro.

geminoids

Hemos llegado a fabricar “clones” artificiales que cuesta identificar de los originales y… ¡Esto no ha hecho más que empezar! ¿Dónde acabará todo?

La inteligencia artificial, entre otras cosas, podrá llevar y facilitar información a países subdesarrollados que, de esta manera, podrá ofrecer educación a sus habitantes, mejorará la salud de la población, su agricultura, etc. la calidad de vida, en definitiva.

Ya se están desarrollando en Japón los ordenadores inteligentes (los llamados de quinta generación), y el entusiasmo de empresas informáticas japonesas y estadounidenses por la inteligencia artificial aconsejó a Europa no quedarse atrás y acometer sus propios proyectos mediante programas de investigación en estas nuevas tecnologías del futuro.

El término de inteligencia artificial, si no me falla la memoria, se acuñó en la reunión de Dartmouth en 1.956, que fue un evento único e histórico. Único porque no se volvió a celebrar, es decir, no fue el primero de una serie como ocurre con los congresos internacionales de lo que,  se llevan celebrandos 20; y fue histórico por el hecho de que allí se acuñó el término que ha prevalecido de inteligencia artificial.

En DartMouth se presentó un único resultado: un programa llamado Logic Theorist, capaz de demostrar teoremas de lógica proporcional contenidos (según leí) en la famosa obra “Principia Matematica” de Bertrand Russell y Alfred Whitehead (la obra más famosa de Newton lleva el mismo título). El programa lo desarrollaron Herbert Simón (que en 1.978 recibió el premio Nobel de Economía), Alan Newell y Clifford Shaw. Sin embargo, en éste de enero en la India, se presentaron 470 resultados seleccionados entre los casi 1.400 que recibieron.

Alan Turing cropped.jpg

Estatua de Alan Turing y su retrato de fondo

Desde aquella reunión del 56, los hitos alcanzados en el campo de la IA han sido extraordinarios: desde jugar al ajedrez hasta diagnosticar enfermedades, comprender textos sobre temas concretos que implican conocimientos especializados… No obstante, el objetivo de desarrollar las inteligencias artificiales generales que los pioneros de esta ciencia, reunidos en 1.956, propusieron para ser alcanzados, quedan aún muy lejanos. Pero, todo llegará; todo es cuestión de ¡tiempo!

Esta ciencia le debe mucho a las matemáticas. Alan Turing es un ejemplo. Fue un gran matemático que formalizó conceptos tan básicos para la informática como el concepto de algoritmo y el concepto de calculabilidad mediante la denominada Máquina de Turing, lo que nos lleva a considerar a Turing como a uno de los “padres” de la informática y, más concretamente, de la informática teórica. En 1.950 publicó un ensayo, “Computing Machinery and Intelligence”, donde describió su famoso Test de Turing, según el cual se podría determinar si una máquina es o no inteligente. La IA le debe pues el test que lleva su nombre, pero la informática le debe más.

Estamos tratando de crear cerebros positrónicos en los que se desarrollen los pensamientos propios y… ¡hasta los sentimientos! ¿No estaremos queriendo ir demasiado lejos? Está claro que la IA se aliará y formará equipo con la biología y la nanotecnología, y de esta unión surgirán avances que ahora ni podemos imaginar en nuestra actual comprensión (limitada) de la inteligencia artificial.

Como siempre me ocurre, cuando me pongo a escribir mis pensamientos vuelan, parece que estoy estableciendo una conversación conmigo mismo y traslado lo que se ella surge a la pantalla del ordenador, donde quedan plasmados todos los pensamientos presentes en mi cerebro en ese momento. En esas líneas de letras quiero expresar lo que recuerdo, lo que he leído, lo que he estudiado del tema que en ese momento ocupa mi atención, y así ocurre que, no siendo infalible, los errores pueden ser muchos y algunas explicaciones o comentarios poco documentados (consulto muy poco escribiendo y me dejo llevar), por lo que pido disculpas. Sin embargo, mis lectores -que son buenos amigos-, ganan en frescura y espontaneidad; el texto es más natural y en él están ausentes las artificialidades. Creo que salen ganando.

Lo que quería decir antes -como otras veces me he ido por las ramas-, es que puedo comenzar hablando de una cuestión y terminar hablando de otra muy distinta. Me vienen a la mente temas diversos, y de manera natural, sigo mis pensamientos y así lo reflejo en la blanca pantalla.

¿No resulta más ameno? De todas formas, siempre trato de finalizar los temas. Básicamente soy un insaciable buscador de la razón de ser de las cosas; todo me parece interesante. Mi curiosidad es ilimitada y mi vehemencia y pasión me llevan, a veces, a olvidarme de comer o (más grave aún), de recoger a mi mujer, que en un pueblo cercano espera mi llegada como habíamos quedado. Son cosas corrientes de mi manera de ser, que cuando emprendo una tarea, una lectura, o un proyecto, lo quiero tener terminado antes de… ¡haberlo comenzado!

http://upload.wikimedia.org/wikipedia/commons/e/e4/DS4_Champollion_2.jpg

Leo cualquier titular en un periódico: “Instalan un observatorio bajo el hielo para estudiar los confines del cosmos. Cuando esté en marcha, los científicos esperan que detecte 1.000 colisiones diarias de neutrinos, partículas minúsculas que nos traen información del universo.” No puedo, a partir de ahí, evitar el comprar el periódico o la revista para leer todo el reportaje completo, aunque sé que no dirán nada que ya no sepa sobre los neutrinos y la manera de cazarlos en las profundidades de la Tierra, en profundas minas abandonadas en las que colocan tanques de agua pesada que, conectados a potentes ordenadores, detectan la presencia de estas diminutas partículas -al parecer- carentes de masa que pertenecen a la familia de los leptones.

Cada segundo que pasa, billones de estas minúsculas partículas invisibles llamadas neutrinos, atraviesan nuestros cuerpos, en muchos casos, después de haber recorrido de un confín a otro todo el universo. Sin que nos demos cuenta estamos conectados con el otro extremo del Cosmos por medio de las conexiones invisibles que su Naturaleza impone. De hecho, somos parte de ese inmenso Universo que tratamos de conocer.

Los neutrinos, al contrario que los fotones, viajan sin cesar de un lado a otro del universo sin que ningún campo magnético los desvíe de su camino, y sin ser destruidos tras colisionar con otras partículas, ya que apenas poseen carga eléctrica ni interaccionan con la materia. Por ello, estudiar de cerca un neutrino permitiría descubrir su procedencia y aportaría a los científicos una valiosa información sobre los rincones del universo de los que provienen.

El problema que se plantea es que agarrar un neutrino no es tarea nada fácil, y aunque se cree que el neutrino puede ser el mensajero cósmico ideal, primero habrá que retenerlo para poder hacer la comprobación. Esta partícula fue anunciada o prevista su existencia por Wolfgan Pauli, y su nombre, neutrino (pequeño neutro en italiano), se lo puso el físico Enrico Fermi. Pauli quiso quiso así, con la existencia del neutrino, explicar dónde estaba la masa perdida en la fusión nuclear de la materia, en los fenómenos producidos por la radiación inducida por la fuerza nuclear débil. El neutrino era la explicación: La masa “perdida” se eyectaba al espacio en forma de energía representada por los neutrinos.

Aunque parezca no venir a cuento, me viene a la mente que el fin de la Edad de Hielo, hace 300 millones de años fue precedido por bruscos cambios en el nivel de dióxido de carbono (CO2), alteraciones violentas del clima y efectos drásticos sobre la vegetación del planeta. Pero, ¡¿qué estamos haciendo ahora?! La irresponsabilidad de algunos seres humanos es ilimitada.

Hace 300 millones de años, el hemisferio sur del planeta estaba casi totalmente cubierto por el hielo; los océanos del norte eran una sola masa gélida y los trópicos estaban dominados por espesas selvas, pero 40 millones de años después, el hielo había desaparecido; el mundo era un lugar ardiente y árido. La vegetación era escasa y los vientos secos soplaban sobre una superficie donde casi no había vegetación. Sólo un reptil podría sobrevivir en aquellas condiciones.

Ahora parece que estamos decididos a repetirlo. ¿Qué hará Gaia para defenderse? Creo que hará lo que estime necesario para preservar su integridad, y si para ello es preciso eliminar a los molestos “bichitos” que causaron el mal, no creo que dude en hacerlo, ya que los acogió, les ofreció todos los recursos necesarios para la supervivencia, y el pago no fue, precisamente, el más adecuado. Lo peor de todo esto es que el comportamiento, el egoísmo de unos pocos lo pagaremos todos. Es como cuando un niño molesta en el colegio y el maestro castiga a toda la clase.

Franz Liszt dijo una vez la hermosa frase siguiente:

“Nuestras vidas son preludios; preludios de una desconocida canción cuya primera nota es la muerte.”

 

Liszt encabezó su referencia a un poema de Lamartine, en uno de sus más conocidos poemas sinfónicos, con esta memorable definición. Y se hizo la pregunta ¿Será verdad que la muerte es el comienzo?

Bueno, es mejor ser respetuoso con ciertos pensamientos. Hay ciertos temas sobre los que la ciencia no tiene potestades ni puede legislar. Yo, en este sentido, me parapeto tras mi ignorancia para no pronunciarme sobre lo que desconozco, y sobre temas que la ciencia no está en condiciones de explicar. Claro que, no por ello y para mi intimidad, no dejo de tener mi propio criterio sobre lo que vendrá luego de ese último momento por el que tenemos que pasar todos.

Llegados a este punto, recuerdo las palabras de mi hija María, pianista y clavecinista, que tiene una personal y artística interpretación de las cosas a través de argumentos musicales. Para ella, la música es algo más que un arte; es el todo, una manera de interpretar la vida y de ver las cosas. La música es para ella su esencia, su materia revelada y el camino elegido para vivir en un mundo aparte, de colores, lleno de notas musicales que forman melodías de una belleza infinita. Cuando habla de su música, se transporta y vive dentro de una suerte poética que la eleva a un plano superior y filosófico, casi místico o religioso, que la revitaliza, le da una fuerza especial y, sobre todo, le hace feliz al estar haciendo aquello que más le gusta. El que puede conseguir eso, es un elegido -yo no pude elegir-. Claro que, a veces pienso: ¿No será que María se sumerge en su música para no ver la fealdad del mundo?

emilio silvera

¡La complejidad! Si la miramos por parte…desaparece

Autor por Emilio Silvera    ~    Archivo Clasificado en Caos y Complejidad    ~    Comentarios Comments (26)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Todos hemos oído hablar, con más o menos frecuencia, de “Sistemas Complejos”, aquí mismo en estas páginas, la palabra sale a relucir con cierta frecuencia y, no me extraña que “la palabreja” cree una barrera, dado que, para muchas personas, “complejo” significa “complicado” y suponen automáticamente que, si un sistema es complicado, será difícil de comprender. La naturaleza posee una fuerte tendencia a estructurarse en forma de entes discretos excitables que interactúan y que se organizan en niveles jerárquicos de creciente complejidad, por ello, los sistemas complejos no son de ninguna manera casos raros ni curiosidades sino que dominan la estructura y función del universo.

Claro que, no siempre ese temor a lo difícil y complicado, está justificado y, tal suposición no es, necesariamente correcta. En realidad, un sistema complejo es tan solo un sistema que está formado por varios componentes más sencillos que ejercen entre sí una interacción mutua que, naturalmente, tiene sus consecuencias. Si miramos la imagen de arriba, vemos una inmensa y hermosa Nebulosa que está formada por una serie de “cosas” sencillas como lo son el gas hidrógeno y el polvo interestelar entre otros y, en presencia de energías, la gravedad y otros parámetros, ahí ocurren cosas tales como, el nacimiento de estrellas y la aparición de mundos…entre otras.

Los grandes triunfos de la Ciencia se han logrado, en gran medida, descomponiendo los sistemas complejos en sus componentes simples, es decir, estudiar por partes lo que allí está presente (en caso necesario, como primera aproximación, dando el paso suplementario de pretender que todos los componentes son más sencillos de lo que son en realidad) para llegar a comprender el todo.

En el ejemplo clásico del éxito que ha logrado este planteamiento para conocer el mundo que nos rodea, buena parte de la química puede entenderse mediante un modelo en el que los componentes simples son átomos, y para eso importa poco de qué están formados los núcleos. Ascendiendo un nivel, las leyes que describen el comportamiento del dióxido de Carbono encerrado en una caja pueden entenderse pensando en unas moléculas más o menos esféricas que rebotan unas contra otras y contra las paredes de su contenerdor, y poco importa que cada una de estas moléculas esté formada por un átomo de Carbono y dos de Oxígeno unidos entre sí. Ambos sistemas son complejos, en sentido científico, pero fáciles de entender.

Fijémonos, por ejemplo, en el Campo Magnético Terrestre. En esencia, los planetas generan un campo magnético por efecto dinámo. Para ello se requiere que el planeta rote; debe contener una región con un fluido conductor de la electricidad y debe existir convección en dicho fluido. No se puede asegurar pero parece ser que si en la Tierra no hubiese tectónica de placas el transporte convectivo hacia la superficie podría no tener lugar, la dinamo no funcionaría y el campo magnético terrestre sería prácticamente nulo o, al menos, mucho menor que el actual. Sin la protección que nos brinda el campo magnético, la atmósfera podría desaparecer a causa del continuo bombardeo de las partículas de alta energía procedentes del viento solar. Todos estos componentes son estudiados por separado y, más tarde, los juntamos en un todo que nos lleva a la comprensión de este Sistema Complejo.

Claro que la clave para poder llegar al conocimiento del “sistema complejo” consiste en saber elegir los componentes adecuados sencillos que conforman el todo para poder realizar el análisis necesario que nos lleve hasta las respuestas que buscamos. En muchas ocasiones hemos explicado aquí, lo que hay en  las  Nebulosas como la de arriba y lo que ocurre en ellas para que, finalmente, nazcan estrellas nuevas.

            Hermann Minkowski

Hay cuestiones, a un nivel más abstracto del que hemos oído hablar también con cierta frecuencia. Acordaos de que, poco después de que Einstein publicara sus trabajos sobre relatividad especial, el matemático alemán que arriba podeis ver se dio cuenta de que, en cierto modo, el tiempo debía ser considerado como la cuarta coordenada complementaria de las tres coordenadas del espacio. En su discurso de inauguración de la 80 reunión de la Asamblea general alemana de científicos naturales y físicos el 21 de septiembre de 1908 pronunció una célebre frase:

“Las ideas sobre el espacio y el tiempo que deseo mostrarles hoy descansan en el suelo firme de la física experimental, en la cual yace su fuerza. Son ideas radicales. Por lo tanto, el espacio y el tiempo por separado están destinados a desvanecerse entre las sombras y tan sólo una unión de ambos puede representar la realidad”.

Desde entonces el espacio-tiempo cuatridimensional pasó a llamarse espacio de Minkowski. Si empleamos x,y y z para las tres coordenadas del espacio, tomaremos ct para la cuarta coordenada de tiempo, siendo c la velocidad de la luz. Sin embargo debemos multiplicar ct por otro factor que, sin destrozar la armonía del sistema tetradimensional de las coordenadas haga a la coordenada de tiempo físicamente diferente de las tres coordenadas espaciales. La matemática nos suministra precisamente este factor conocido como una “unidad imaginaria” que se designa con el símbolo i (i= raíz cuadrada de -1).

Cono de luz en el espacio-tiempo de <a href=Minkowski

      “Es un hecho notorio que los procesos que ocurren en el universo observable son irreversibles, mientras que las ecuaciones que expresan las leyes fundamentales de la física son invariantes bajo inversión temporal. La emergencia de la irreversibilidad a partir de la física fundamental ha sido un tema que ha preocupado a físicos, astrónomos y filósofos desde que Boltzmann formulara su famoso teorema “H”.

            ¿Es un sistema complejo un fotón? La propiedad del fotón, de la luz, es que es algo que oscila tan rápidamente que en realidad es como si estuviera en dos sitios a la vez, o sea algo que está pero que no está?

      Cómo se entiende algo así


              “¿Tengo que reconocer que está ha sido la incógnita que más me ha costado despejar, todo un desafío a la lógica, a la matemática. Aunque en realidad era sencillo, porque lo cierto es que lo tenía en las narices. ¡Claro! esa es la esencia de nuestra mágica ecuación, e =m.c2, ¡”

          masa en movimiento

                  !,es decir, más de lo mismo. Digamos que la mecánica cuántica en realidad no es más que la Vida llevada a su mínima expresión.

              Los números complejos, con una parte real y otra imaginaria, también juegan un papel esencial en los formulismos de la mecánica cuántica. La propia probabilidad de los sucesos cuánticos llega a expresarse en función de números complejos llamados amplitudes de probabilidad. La probabilidad real se halla a partir de estos números, sumando el cuadrado de su parte real y el cuadrado de su parte imaginaria.

              Esto nos da una idea de la importancia de los estos números, tanto en la teoria de la relatividad como en la mecánica cuántica y nos ayuda a introducirnos en la teoría de Hartle-Hawking sobre los comienzos del universo, que supone un universo sin límites y con un tiempo imaginario, como se entiende la parte no real de un número complejo.

              En cierta forma los ceros y los infinitos que aparecen en la física clásica son suavizados por la mecánica cuántica: La energía más baja en el vacío no es nunca cero, como tampoco es nunca cero la extensión de un punto físico . La existencia del cuanto de acción impide una energía cero del vacío, como impide la medida exacta, a la vez, de una variación de energía y del tiempo asociado a dicha variación.El punto físico menor sería la llamada longitud de Planck, del orden de 10-35 metros, lo que también elimina el infinito que resultaría de considerar las partículas subatómicas como puntuales: su densidad sería infinita y resultarían microscópicos agujeros negros.

              Según alguna teoría que circula por ahí, si comenzamos en el momento presente y vamos hacia atrás en el tiempo, lo que aparentemente sería el punto origen de la descripción del tiempo real convencional, la naturaleza del tiempo cambia: la componente imaginaria del tiempo se hace más y más prominente hasta que, en último término, lo que debería ser la singularidad de la teoría clásica se desvanece. El Universo existiría porque es una estructura matemática autoconsistente. Puede imaginarse el tiempo real como una línea que va del principio al final del Universo. Pero también puede considerarse otra dirección del tiempo en ángulo recto al tiempo real. Esta última se denomina la dirección imaginaria del tiempo. En el tiempo imaginario, no habría ninguna singularidad en la que dejaran de regir las leyes de la Ciencia, ni ninguna frontera del Universo tras la cual tuviera que apelarse a Dios. El Universo no sería creado ni destruído. Simplemente existiría. Quizás el tiempo imaginario sea el auténtico tiempo real y lo que llamamos tiempo real sea sólo un producto de nuestra imaginación. En el tiempo real, el Universo tiene un principio y un fin. En el tiempo imaginario no hay singularidades ni límites.

              Hartle: “Tiempo imaginario no se refiere a la imaginación: hace referencia a los números complejos. Como demostraron Einstein y Minkowsky, el espacio-tiempo constituye una geometría cuatridimensional. Es posible ir aún más lejos de estos conceptos. Si se miden las direcciones del tiempo utilizando números complejos, se obtiene una simetría total entre espacio y tiempo, que es, matemáticamente, un concepto muy bello y natural”. Don N. Page: ” En la formulación de la ausencia de límites de Hartle-Hawking, el tiempo es imaginario, y en vez de tener un borde es como si se tratara de la superficie del planeta Tierra. Suponiendo tiempo imaginario, el Universo no tuvo comienzo, no tiene límite, es una totalidad en sí mismo”.

              He tenido la oportunidad de leer el Libro de Roger Penrose (uno de los físicos actuales más brillantes), titulado,  El camino a la realidad, y él nos comenta:  “… los números complejos componen una notable unidad con la naturaleza. Es como si la propia naturaleza estuviera tan impresionada por el alcance y consistencia del sistema de los números complejos como lo estamos nosotros, y hubiera confiado a estos números las operaciones detalladas de su mundo en sus escalas más minúsculas”. Se refiere a la mecánica cuántica, pero realmente su importancia se refleja en toda la naturaleza, porque la cosmología, en los primeros instantes del universo se confunde con el mundo microscópico de las partículas elementales.

              Claro que, los “Sistemas Complejos” están por todas partes y, tanto ers así que, nosotros mismos somos un buen ejemplo y llevamos con nosotros, el “sistema” más complejo de todos: Nuestro cerebro es, sin dudarlo y hasta donde puede llegar nuestros conocimientos actuales, el más complejo de los sistemas.

              Claro que, si hablamos de complejidad de sistemas, el universo sería el mejor de los ejemplos. Con respecto a sus propios patrones, el universo es viejo. El tiempo de vida natural de un mundo gobernado por la gravedad, la relatividad y la mecánica cuántica es el fugaz breve tiempo de Planck.  Parece que es mucho más viejo de lo que debería ser.

              Pero, pese a la enorme edad del universo en “tics” de Tiempo de Planck,  hemos aprendido que casi todo este tiempo es necesario para producir estrellas y los elementos químicos que traen la vida.

              [cerebro-artificial.jpg]

                      La vida que surgió en el planeta Tierra a partir del polvo de estrellas

              ¿Por qué nuestro universo no es mucho más viejo de lo que parece ser? Es fácil entender por qué el universo no es mucho más joven. Las estrellas tardan mucho tiempo en formarse y producir elementos más pesados que son las que requiere la complejidad biológica. Pero los universos viejos también tienen sus problemas. Conforme para el tiempo en el universo el proceso de formación de estrellas se frena. Todo el gas y el polvo cósmico que constituyen las materias primas de las estrellas habrían sido procesados por las estrellas y lanzados al espacio intergaláctico donde no pueden enfriarse y fundirse en nuevas estrellas. Pocas estrellas hacen que, a su vez, también sean pocos los sistemas solares y los planetas. Los planetas que se forman son menos activos que los que se formaron antes, la entropía va debilitando la energía del sistema para realizar trabajo. La producción de elementos radiactivos en las estrellas disminuirá, y los que se formen tendrán semividas más largas. Los nuevos planetas serán menos activos geológicamente y carecerán de muchos de los movimientos internos que impulsan el vulcanismo, la deriva continental y la elevación de las montañas en el planeta. Si esto también hace menos probable la presencia de un campo magnético en un planeta, entonces será muy poco probable que la vida evolucione hasta formas complejas.

                           En lugares como este se forman los elementos de la vida

              Las estrellas típicas como el Sol, emiten desde su superficie un viento de partículas cargadas eléctricamente que barre las atmósferas de los planetas en órbitas a su alrededor y, a menos que el viento pueda ser desviado por un campo magnético, los posibles habitantes de ese planeta lo podrían tener complicado soportando tal lluvia de radiactividad. En nuestro sistema solar el campo magnético de la Tierra ha protegido su atmósfera del viento solar, pero Marte, que no está protegido por ningún campo magnético, perdió su atmósfera hace tiempo.

              Probablemente no es fácil mantener una larga vida en un planeta del Sistema solar. Poco a poco hemos llegado a apreciar cuán precaria es. Dejando a un lado los intentos que siguen realizando los seres vivos de extinguirse a sí mismos, agotar los recursos naturales, propagar infecciones letales y venenos mortales y emponzoñar la atmósfera, también existen serias amenazas exteriores.

              ¿No es inmensamente complejo todo esto?

              En realidad, los sistemas complejos constituyen y se manifiestan en la inmensa mayoría de los fenómenos observables. Sin embargo, y aquí radica una de sus propiedades más interesantes, la abundancia y diversidad de los sistemas complejos (sean de tipo físicos, químicos, biológicos, sociales, etc.) no implica una innumerable e inclasificable diversidad de conductas dinámicas diferentes. Todo lo contrario, los sistemas complejos poseen propiedades genéricas, independientemente de los detalles específicos de cada sistema o de la base material del mismo. De esta manera, por ejemplo, una computadora construida con bulbos, otra con transistores y una más con relevadores electromagnéticos; serían capaces de realizar, en principio, las mismas tareas de procesamiento de datos. Podríamos incluso ir mas lejos con este ejemplo y agregar que el sistema nervioso humano posee propiedades tales como memoria difusa y reconocimiento de patrones que funcionan de la misma manera en como funciona una computadora de bulbos o de transistores. Lo que comparten, son una estructura interconectada y formada por elementos individuales (neuronas o circuitos electrónicos) que interactúan para intercambiar información y modificar sus estados internos. Ello hace posible la emergencia de fenómenos globales y colectivos semejantes, sin que los detalles materiales del sistema sean del todo relevantes. De esta manera, es posible identificar propiedades dinámicas similares entre una computadora, el sistema nervioso, el sistema inmunológico, la tectónica de placas, una sociedad de insectos, el crecimiento urbano, las economías de mercado, el tráfico vehicular, etc. a pesar de la aparente disparidad entre estos sistemas.

              La aportación fundamental de la ciencia de los sistemas complejos en la tarea de conocer y transformar nuestra realidad, es identificar los principios y fundamentos generales de la operación de dichos sistemas sin importar los detalles particulares de su realización material. Así por ejemplo, podemos imaginar un biólogo del futuro que estudiaría el fenómenos llamado “vida” desde una perspectiva de principios (tal vez leyes?) generales. Tal biólogo tendría conciencia de que el fenómeno “vida” tal y como existe en la Tierra es tan sólo un caso particular de como “la vida” se ha manifestado bajo las condiciones particulares de la Tierra, expresándose bajo la forma de una realización material muy específica (una bioquímica de carbono dominantemente levógira). Sin embargo, este biólogo estaría preparado para identificar el fenómeno “vida” si acaso fuera detectado en otro planeta o parte del universo bajo otras realizaciones materiales especificas, de la misma manera que un físico hoy en día sabe que la ley de gravitación lo mismo es valida para la superficie de la Tierra que para la superficie de Marte o cualquier otra parte del universo. El ejemplo puede ir aún más lejos. Podemos imaginar un sociólogo del futuro que será capaz de identificar los principios generales del fenómeno “social” independientemente de que este ocurra en grupos humanos, animales, microbios, plantas, robots o incluso, si su colega biólogo tiene suerte, en grupos sociales fuera de nuestro planeta.

              ¿Estaremos capacitados alguna vez determinar las partes “sencillas” de los “Sistemas Complejos” para llegar a saber?

              emilio silvera

              ¡Qué cosas! Recordemos cómo pasó.

              Autor por Emilio Silvera    ~    Archivo Clasificado en Rumores del Saber    ~    Comentarios Comments (0)

              RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios


              Detalle de El proceso de Galileo (siglo XVII. Col. particular).

              “Yo, Galileo, hijo del difunto Vincenzo Galilei, florentino, de setenta años de edad, citado personalmente ante este tribunal y arrodillado ante vuestras eminencias, señores cardenales inquisidores generales contra la corrupción herética en toda la comunidad cristiana, teniendo ante mis ojos y tocando con las manos las Sagradas Escrituras, juro que siempre he creído, creo, y con la ayuda de Dios creeré en el futuro todo lo que mantiene, predica y enseña la Santa Iglesia Católica y Apostólica. Pero, considerando que después que este Santo Oficio me hubiera hecho llegar un requerimiento judicial en el sentido de que abandonara completamente la falsa opinión de que el Sol es el centro del mundo…

              Por lo tanto, con el deseo de apartar de las mentes de vuestras eminencias y de todos los cristianos fieles esta vehemente sospecha concebida contra mí con todo fundamento, de todo corazón y con fe verdadera adjuro, execro y abomino los errores y herejías anteriormente citados…, y juro que en el futuro nunca volveré a decir o afirmar verbalmente ni por escrito nada que pueda causar una sospecha similar hacia mí; además, si conociera a alguna persona herética o sospechosa de herejía, la denunciaré a este Santo Oficio o al inquisidor u ordinario del lugar en que me encuentre… Yo, Galileo Galilei he abjurado, jurado y prometido y me he obligado; y certifico que es verdad que, con mi propia mano he escrito la presente cédula de mi abjuración y la he recitado palabra por palabra en Roma, en el convento de Minerva este 22 de junio de 1633. Yo, Galileo Galilei, he abjurado por propia voluntad.”

              Así, de esta manera humillante,  se expresó Galileo ante la “Santa Inquisición” para salvar su vida a cambio de ser confinado en una casa de Arcetri, en las afueras de Florencia. A partir de aquel momento, todo para él fue tristeza y confinamiento.

              Cuatro años más tarde Galileo produjo un libro que trataba de “Dos ciencias nuevas”, una que se ocupaba de la mecánica y otra de la resistencia de los materiales. También este libro fue escrito en italiano y adoptó la forma de un diálogo sostenido entre Salvati, Sagredo y Simplicio. Dado que la Inquisición había prohibido todos sus libros, la obra hubo de ser sacada furtivamente del país para que la publicaran los Elzevir en Leyden. Este fue el último libro de Galileo y en él ponía los cimientos sobre los cuales Huygens y Newton construirían la ciencia de la dinámica y, finalmente, una teoría de la gravitación universal.

              Pero, dejemos la historia del final de la vida de Galileo que resulta ser bastante triste y, será mejor que, sin olvidarlo del todo, hablemos de cosas más curiosas.

              El microscopio y el telescopio fueron ambos productos de la misma era, pero mientras que Copérnico y Galileo se han convertido en héroes populares, en los profetas de la modernidad, Hooke y Leeuwenhoek, sus equivalentes en el mundo microscópico, han quedado relegados al panteón de las ciencias especializadas. Copérnico y Galileo desempeñaron importantes papeles en la tan conocida batalla entre “ciencia” y “religión”; no sucedió lo mismo con Hooke y Leeuwenhoek.

              No sabemos quién inventó el microscopio. El principal candidato es Zacharias Jansen, humilde fabricante de anteojos de Midddelburg. Sí sabemos que el microscopio, como las gafas y el telescopio, se usaba mucho antes de que se comprendieran los principios de la óptica, y probablemente su invención fue tan accidental como la del telescopio. No podía haber sido inventado por nadie que ansiara echar un vistazo a un mundo microscópico nunca imaginado hasta entonces. Pero después de que se fabricaran los primeros telescopios, la gente los utilizaba para ver ampliados objetos cercanos. Al principio, el mismo término italiano, occhialino, o el latino perspicillum, servían tanto para el telescopio como para el microscopio. En noviembre de 1614, Galileo le decía a un visitante: “Con este tubo he visto moscas que parecían tan grandes como corderos, y he comprobado que están cubiertas de pelo y tienen unas uñas muy afiladas mediante las cuales se sostienen y andan sobre el cristal, aunque estén patas arriba, insertando la punta de las uñas en los poros del cristal”.

              Ya en 1625, un miembro de la Academia de Lincei, el médico naturalista John Faber (1574-1629), ideó un nombre para el nuevo aparato. “El tubo óptico… que me he complacido en llamar, tomando como modelo el telescopio, microscopio, aunque permite ver las cosas diminutas.”

              Las mismas sospechas que hicieron que los críticos de Galileo estuvieran poco dispuestos a mirar por el telescopio y luego se mostraban reacios a creer lo que veían, afectaron también al microscopio. El telescopio resultaba de evidente utilidad en el campo de batalla, pero no existían todavía batallas en las que pudiera intervenir el microscopio.

              Al no haber una ciencia de la óptica, la gente “sensata” era especialmente prudente ante las “ilusiones ópticas”. Esta desconfianza medieval respecto a todos los aparatos ópticos era el principal obstáculo para el desarrollo de una ciencia de la óptica. Se creía que cualquier artefacto que se interpusiera entre los sentidos y el objeto a percibir no podía hacer otra cosa que inducir al error de las facultades que Dios le había dado al hombre.

              Robert Hooke (1635-1703) publicó en 1665 Micrographia, una atractiva miscelánea en la que explicaba su teoría de la luz y el color y sus teorías sobre la combustión y la respiración, junto con una descripción del microscopio y de sus usos. Pero la extendida desconfianza respecto a las ilusiones ópticas perjudicaría también a Hooke. Al principio, el nuevo mundo que afirmaba ver a través de sus lentes fue motivo de escarnio general.

              Lo que el Sidereus Nuncius de Galileo había hecho por el telescopio y sus vistas del cielo, lo hizo la Micrographia de Hooke por el microscopio. Del mismo modo que Galileo no fue el inventor del telescopio, tampoco Hooke inventó el microscopio, pero lo que él declaró haber visto en su microscopio compuesto abrió los ojos de la Europa culta al maravilloso mundo interior. El propio Hooke presentó por primera vez en cincuenta y siete sorprendentes ilustraciones dibujadas por él mismo el ojo de una mosca, la forma del aguijón de una abeja, la anatomía de una pulga y de un piojo, la estructura de las plumas y la similitud con las plantas que presentaba el moho. Cuando descubrió que la estructura del corcho era como la de un panal, dijo que estaba compuesto por “celdas”. Las ilustraciones de Hooke se reimprimieron con gran frecuencia y siguieron apareciendo en los libros de texto hasta el siglo XIX.

              De la misma manera que el telescopio había unido la Tierra y los cuerpos celestes más distantes en un solo esquema de pensamiento, las imágenes del microscopio revelaban un mundo minúsculo que se asemejaba de modo sorprendente al que se veía diariamente a gran escala. En Historia Insectorum Generalis, Jan Swammerdam (1637-1680) demostraba que los insectos, como los animales “superiores”, poseían una intrincada anatomía y no se reproducían por generación espontánea. En el microscopio vio que los insectos se desarrollaban igual que el hombre, por epigénesis, o desarrollo gradual de un órgano después de otro. Con todo, sobrevivió la creencia de otras formas de generación espontánea. Ese dogma, no dejó de ser científicamente respetable hasta el siglo XIX, cuando Luis Pasteur realizó sus brillantes experimentos con la fermentación y aplicó en la práctica sus ideas a la conservación de la leche. Pero esa, es otra historia.

              Así, Antoni van Leeuwenhoek (1632-1723) fue con su microscopio el primer promotor de esta nueva ciencia de la exploración de otros mundos en ese “universo” de lo infinitesimal, donde existen otras criaturas que, como nosotros, en el macro-mundo, nacen, viven y mueren.

              Ambos, el telescopio y el microscopio, han sido de tanta importancia para el saber de la Humanidad que, sin ellos, estaríamos, seguramente, muy retrasados en el conocimiento del Universo y, en general, del mundo que nos rodea.

              Me he llevado más de dos horas con este trabajo intentando poner imágenes ilustrativas de los personajes y del mundo microscópico pero, cuando las he querido publicar, surgen los galimatias infinitos de letras inconexas que impiden plasmar las imágenes que, seguramente son de propiedad privada y no se dejan utilizar. Así que, así lo dejo, al menos os resultará curioso.

              emilio silvera

              Partículas, antipartículas, fuerzas…

              Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

              RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

              Bajo la “definición basada en quarks y leptones”, las partículas elementales y compuestas formadas de quarks (en púrpura) y leptones (en verde) serían la “materia”; mientras los bosones “izquierda” (en rojo) no serían materia. Sin embargo, la energía de interacción inherente a partículas compuestas (por ejemplo, gluones, que implica a los neutrones y los protones) contribuye a la masa de la materia ordinaria.

               

              File:Annihilation.png

               

              Esquema de una aniquilación electrónpositrón.

               

              Ya hemos descrito en trabajos anteriores las dos familias de partículas elementales: Quarks y Leptones. Pero hasta ahí, no se limita la sociedad del “universo” infinitesimal. Existen además las antifamilias. A quarks y electrones se asocian, por ejemplo, antiquarks y antielectrones. A cada partícula, una antipartícula.

              Uno de los primeros éxitos de la teoría relativista del campo cuántico fue la predicción de las antipartículas: nuevos cuantos que eran la imagen especular de las partículas ordinarias. Las antipartículas tienen la misma masa y el mismo spin que sus compañeras las partículas ordinarias, pero cargas inversas. La antipartícula del electrón es el positrón, y tiene, por tanto, carga eléctrica opuesta a la del electrón. Si electrones y positrones se colocan juntos, se aniquilan, liberando la energía inmensa de su masa según la equivalencia masa-energía einstrniana.

                                    Una partícula y su antipartícula no pueden coexistir: hay aniquilación de ambas.

              ¿Cómo predijeron los físicos la existencia de antipartículas? Bueno, por la «interpretación estadística» implicaba que la intensidad de un campo determinaba la probabilidad de hallar sus partículas correspondientes. Así pues, podemos imaginar un campo en un punto del espacio describiendo la creación o aniquilación de sus partículas cuánticas con una probabilidad concreta. Si esta descripción matemática de la creación y aniquilación de partículas cuánticas se inserta en el marco de la teoría relativista del campo cuántico, no podemos contar con la posibilidad de crear una partícula cuántica sin tener también la de crear un nuevo género de partícula: su antipartícula. La existencia de antimateria es imprescindible para una descripción matemáticamente coherente del proceso de creación y aniquilación según la teoría de la relatividad y la teoría cuántica.

              La misteriosa sustancia conocida como materia oscura puede ser en realidad una ilusión, creada por la interacción gravitacional entre partículas de corta vida de materia y antimateria. Un mar hirviente de partículas en el espacio puede crear la gravedad repulsiva.

              Puede ser posible que las cargas gravitacionales en el vacío cuántico podrían proporcionar una alternativa a la materia oscura. La idea se basa en la hipótesis de que las partículas y antipartículas tienen cargas gravitacionales de signo opuesto. Como consecuencia, los pares de partícula-antipartícula virtuales en el vacío cuántico y sus dipolos de forma gravitacional (una carga gravitacional positivos y negativos) pueden interactuar con la materia bariónica para producir fenómenos que se suele atribuir a la materia oscura. Fue el  físico del CERN, Dragan Slavkov Hajdukovic, quien propuso la idea, y demostró matemáticamente que estos dipolos gravitacionales podrían explicar las curvas de rotación de las galaxias observadas sin la materia oscura en su estudio inicial. Sin embargo,  señaló que quedaba mucho por hacer.

              Pero sigamos con la cuántica…

              El pionero en comprender que era necesario que existiesen antipartículas fue el físico teórico Paul Dirac, que hizo varías aportaciones importantes a la nueva teoría cuántica. Fue él quien formuló la ecuación relativista que lleva hoy su nombre, y a la que obedece el campo electrónico; constituye un descubrimiento comparable al de las ecuaciones del campo electromagnético de Maxwell. Cuando resolvió su ecuación, Dirac se encontró con que además de describir el electrón tenía soluciones adicionales que describían otra partícula con una carga eléctrica opuesta a la del electrón. ¿Qué significaría aquello? En la época en que Dirac hizo esta observación, no se conocían más partículas con esta propiedad que el protón. Dirac, que no deseaba que las partículas conocidas proliferasen, decidió que las soluciones adicionales de su ecuación describían el protón.

              Pero, tras un análisis más meticuloso, se hizo evidente que las partículas que describían las soluciones adicionales tenían que tener exactamente la misma masa que el electrón. Quedaba así descartado el protón, cuya masa es por lo menos, 1.800 veces mayor que la del electrón. Por tanto, las soluciones adicionales tenían que corresponder a una partícula completamente nueva de la misma masa que el electrón, pero de carga opuesta: ¡El antielectrón! Esto quedó confirmado a nivel experimental en 1932 cuando Carl Anderson, físico del Instituto de Tecnología de Calífornia, detectó realmente el antielectrón, que hoy se llama positrón.

               

               

              Antes de empezar, debemos recordar que el Premio Nobel de Física de 1936 se repartió a partes iguales entre Victor Franz Hess y Carl David Anderson. Merece la pena leer la Nobel Lecture de Carl D. Anderson, “The production and properties of positrons,” December 12, 1936, quien nos explica que en esta imagen un “electrón” de 63 MeV atraviesa un placa de plomo de 6 mm y emerge con una energía de 23 MeV, pero lo hace con la curvatura “equivocada” como si fuera una partícula de carga positiva, como si fuera un protón pero con la masa de un electrón. La Nobel Lecture muestra muchas otras fotografías de positrones y electrones. Anderson afirma: “The present electron theory of Dirac provides a means of describing many of the phenomena governing the production and annihilation of positrons.”

              Por otro lado, el Premio Nobel de Física de 1933 se repartió a partes iguales entre Erwin Schrödinger y Paul Adrien Maurice Dirac. También vale la pena leer la Nobel Lecture de Paul A. M. Dirac, “Theory of electrons and positrons,” December 12, 1933, aunque no cuente la historia de su descubrimiento, afirma que su ecuación predice el “antielectrón” de soslayo: ”There is one other feature of these equations which I should now like to discuss, a feature which led to the prediction of the positron.” (fuente: Francis (th)E mule Science’s News).

              La aparición de las antipartículas cambió definitivamente el modo de pensar de los físicos respecto a la materia. Hasta entonces, se consideraba la materia permanente e inmutable. Podían alterarse las moléculas, podían desintegrarse los átomos en procesos radiactivos, pero los cuántos fundamentales se consideraban invariables. Sin embargo, tras el descubrimiento de la antimateria realizado por Paul Dirac hubo que abandonar tal criterio. Heisenberg lo expresaba así:

              “Creo que el hecho de que Dirac haya descubierto partículas y antipartículas, ha cambiado toda nuestra visión de la física atómica… creo que, hasta entonces, todos los físicos habían concebido las partículas elementales siguiendo los criterios de la filosofía de Demócrito, es decir, considerando esas partículas elementales como unidades inalterables que se hallan en la naturaleza como algo dado y son siempre lo mismo, jamás cambian, jamás pueden transmutarse en otra cosa. No son sistemas dinámicos, simplemente existen en sí mismas. Tras el descubrimiento de Dirac, todo parecía distinto, porque uno podía preguntar: ¿por qué un protón no podría ser a veces un protón más un par electrón-positrón, etc.?… En consecuencia, el problema de la división de la materia había adquirido una dimensión distinta.”

              Dado que la antimateria tiene la misma masa que la materia, es decir son de la misma magnitud y signo (la definición de masa es positiva siempre), el efecto gravitacional de la antimateria no debe ser distinto de la materia, es decir, siempre sera un efecto atractivo. Pero, ¿acaso no importa la equivalencia establecida de antipartícula viajando al futuro = partícula viajando al pasado?

                  Existe un “universo” que se nos escapa de la comprensión

               

              La respuesta es sí. Dicha equivalencia proviene de algo llamado simetría CPT (Charge-Parity-Time), y nos dice que la equivalencia entre las partículas y antipartículas no solo corresponde a realizar una transformación sobre la carga, sino también sobre la paridad y el tiempo. La carga no afecta la gravedad, pero la paridad y el tiempo si la afectan. En otras palabras, al modificarse el tiempo (poner el tiempo al reves) y el espacio (la paridad es “girar” el espacio), estamos alterando el espacio-tiempo, y como la teoría general de la relatividad lo afirma, es la geometría de este el que determina la gravedad.

              El carácter mutable de la materia se convirtió en piedra angular de la nueva física de partículas. El hecho de que partículas y antipartículas puedan crearse juntas a partir del vacío si se aporta energía suficiente, no sólo es importante para entender cómo se crean las partículas en aceleradores de alta energía, sino también para entender los procesos cuánticos que se produjeron en el Big Bang.

              File:Classical-quantum.svg

              Partículas y campos, clásicos y cuánticos. Las nociones clásicaqs de partícula y campo comparadas con su contrapartida cuántica. Una partícula cuántica está deslocalizada: su posición se reparte en una distribución de probabilidad. Un campo cuántico es equivalente a un colectivo de partículas cuánticas.

              Como ya lo hemos expresado, el conocimiento que se obtuvo sobre la existencia de antifamilias de partículas o familias de antipartículas es una consecuencia de la aplicación de la teoría relativista del campo cuántico, para cada partícula existe una partícula que tiene la misma masa pero cuya carga eléctrica (y otras llamadas cargas internas) son de signo opuesto. Estas son las antipartículas. Así, al conocido electrón, con carga negativa, le corresponde un «electrón positivo» como antipartícula, llamado positrón, descubierto en 1932. El antiprotón, descubierto en 1956, tiene la misma masa que el protón, pero carga eléctrica negativa de igual valor. El fotón, que no tiene masa ni carga eléctrica, puede ser considerada su propia antipartícula.

              Un agujero negro es un objeto que tiene tres propiedades: masa, espin y carga eléctrica. La forma del material en un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como Singularidad, de densidad infinita.

              Un agujero negro tiene tres propiedades: masa, espín y carga eléctrica. La forma del material de un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como singularidad, de densidad infinita.

              Cada partícula está caracterizada por un cierto número de parámetros que tienen valores bien definidos: su masa, carga eléctrica, spin o rotación interna y otros números, conocidos como cuánticos. Estos parámetros son tales que, en una reacción, su suma se mantiene y sirve para predecir el resultado. Se dice que hay conservación de los números cuánticos de las partículas. Así, son importantes el número bariónico, los diversos números leptónicos y ciertos números definidos para los quarks, como la extrañeza, color, etc. Estos últimos y sus antipartículas tienen cargas eléctricas (± 1/3 o ± 2/3) y números bariónicos (±1/3) fraccionarios. No todos los números asociados a cada partícula han sido medidos con suficiente precisión y no todas las partículas han sido detectadas en forma aislada, por lo menos de su ligamento, como el caso de los quarks y de los gluones.

              Los gluones son una especie de «partículas mensajeras» que mantienen unidos a los quarks. Su nombre proviene del término inglés “glue”, que significa pegamento, en español quizás podría ser gomón. Ahora, en cuanto a los quarks, ya hicimos referencia de ellos anteriormente. Pero recordemos aquí, que fueron descubiertos en 1964 por Murray Gell-Mann, como los componentes más reducidos de la materia. Hasta entonces se pensaba que los átomos consistían simplemente en electrones rodeando un núcleo formado por protones y electrones.

              En estado natural, quarks y gluones no tienen libertad. Pero si se eleva la temperatura a niveles 100.000 veces superiores, como se ha hecho en aceleradores de partículas, a la del centro del Sol, se produce el fenómeno del desconfinamiento y por un brevísimo tiempo quedan libres. En ese preciso momento aparece lo que se suele llamar plasma, «una sopa de quarks y gluones» que equivale al estado en que se podría haber encontrado la naturaleza apenas una milésima de segundo luego del Big Bang.

              11-three_quarks 11-heart2quarks_small

              Recientemente se ha descubierto un nuevo estado de la materia, esta vez a niveles muy altos de energía, que los científicos han denominado Plasma Gluón-Quark. La transición ocurre a temperaturas alrededor de cien mil millones de grados y consiste en que se rompen las fuertes ligaduras que mantienen unidos los quarks dentro de los núcleos atómicos. Los protones y neutrones están formados, cada uno, por 3 quarks que se mantienen unidos gracias a los gluones (El gluón es la partícula portadora de interacción nuclear fuerte, fuerza que mantiene unida los núcleos atómicos). A temperaturas superiores se vence la fuerza nuclear fuerte y los protones y neutrones se dividen, formando esta sopa denominada plasma Gluón-Quark.

              Pero por ahora aquí, nos vamos a quedar con los quarks al natural. Normalmente, los quarks no se encuentra en un estado separados, sino que en grupos de dos o tres. Asimismo, la duración de las vidas medias de las partículas, antes de decaer en otras, es muy variable (ver tablas).

              Por otra parte, las partículas presentan una o más de las siguientes interacciones o fuerzas fundamentales entre ellas. Por un lado se tiene la gravitación y el electromagnetismo, conocidas de la vida cotidiana. Hay otras dos fuerzas, menos familiares, que son de tipo nuclear y se conocen como interacciones fuertes y débiles.

              La gravitación afecta a todas las partículas, es una interacción universal. Todo cuerpo que tiene masa o energía está sometido a esta fuerza. Aunque es la más débil de las interacciones, como las masas son siempre positivas y su alcance es infinito, su efecto es acumulativo. Por ello, la gravitación es la fuerza más importante en cosmología.

                                          Los campos magnéticos están presentes por todo el Universo

              La fuerza electromagnética se manifiesta entre partículas con cargas eléctricas. A diferencia de las demás, puede ser de atracción (entre cargas de signos opuestos) o de repulsión (cargas iguales). Esta fuerza es responsable de la cohesión del átomo y las moléculas. Mantiene los objetos cotidianos como entidades con forma propia. Un vaso, una piedra, un auto, el cuerpo humano. Es mucho más fuerte que la gravitación y aunque es de alcance infinito, las cargas de distinto signo se compensan y sus efectos no operan a grandes distancias. Dependiendo de las circunstancias en que actúen, estas interacciones pueden manifestarse como fuerzas eléctricas o magnéticas solamente, o como una mezcla de ambos tipos.

              La Fuerza Nuclear Débil: otra fuerza nuclear, considerada mucho más débil que la Fuerza Nuclear Fuerte. El fenómeno de decaimiento aleatorio de la población de las partículas subatómicas (la radioactividad) era difícil de explicar hasta que el concepto de esta fuerza nuclear adicional fue introducido.

              La interacción nuclear débil es causa de la radioactividad natural y la desintegración del neutrón. Tiene un rol capital en las reacciones de fusión del hidrógeno y otros elementos en el centro de las estrellas y del Sol. La intensidad es débil comparada con las fuerzas eléctricas y las interacciones fuertes. Su alcance es muy pequeño, sólo del orden de 10-15 cm.

              Archivo:CNO Cycle.svg

              La interacción fuerte es responsable de la cohesión de los núcleos atómicos. Tiene la intensidad más elevada de todas ellas, pero es también de corto alcance: del orden de 10-13 cm. Es posible caracterizar las intensidades de las interacciones por un número de acoplamiento a, sin dimensión, lo que permite compararlas directamente:

              Fuerte as = 15

              Electromagnéticas a = 7,3 x 10-3

              Débil aw 3,1 x 10-12

              Gravitacional aG = 5,9 x 10-39

              Por otro lado, la mecánica cuántica considera que la interacción de dos partículas se realiza por el intercambio de otras llamadas «virtuales». Tienen ese nombre porque no son observables: existen por un tiempo brevísimo, tanto más corto cuanto mayor sea su masa, siempre que no se viole el principio de incertidumbre de Heisenberg de la teoría cuántica (que en este contexto dice que el producto de la incertidumbre de la energía por el tiempo de vida debe ser igual o mayor que una constante muy pequeña). Desaparecen antes de que haya tiempo para que su interacción con otras partículas delate su existencia.

              Monografias.com

                                                 El fotón  virtual común se desplaza hacia la partícula menos energética.

              Dos partículas interactúan al emitir una de ellas una partícula virtual que es absorbida por la otra. Su emisión y absorción cambia el estado de movimiento de las originales: están en interacción. Mientras menos masa tiene la partícula virtual, más lejos llega, mayor es el rango de la interacción. El alcance de la interacción es inversamente proporcional a la masa de la partícula portadora o intermedia. Por ejemplo, la partícula portadora de la fuerza electromagnética es el fotón, de masa nula y, por lo tanto, alcance infinito. La interacción gravitacional también tiene alcance infinito y debe corresponder a una partícula de masa nula: se le denomina gravitón. Naturalmente tiene que ser neutro. (Aún no ha sido vistos ni en pelea de perros).

              Como ya hicimos mención de ello, a las fuerzas nucleares se les asocian también partículas portadoras. Para la interacción débil estas partículas se llaman bosones intermedios, expresados como W+, W- y Z0 (neutro). El W- es antipartícula del W+. Los W tienen masas elevadas comparadas con las otras partículas elementales. Lo de bosones les viene porque tienen spin entero, como el fotón y el gravitón, que también los son, pero que tienen masas nulas. Las fuerzas fuertes son mediadas por unas partículas conocidas como gluones, de los cuales habría ocho. Sin embargo, ellos no tienen masa, pero tienen algunas de las propiedades de los quarks, que les permiten interactuar entre ellos mismos. Hasta ahora no se han observado gluones propiamente tal, ya que lo que mencionamos en párrafos anteriores corresponde a un estado de la materia a la que llamamos plasma. Claro está, que es posible que un tiempo más se puedan detectar gluones libres cuando se logre aumentar, aún más, la temperatura, como está previsto hacerlo en el acelerador bautizado como “Relativistic Heavy Ion Collider”, empotrado en Estados Unidos de Norteamérica.

              TABLA DE LAS PRINCIPALES PROPIEDADES DE LAS PARTÍCULAS PORTADORAS DE LAS INTERACCIONES FUNDAMENTALES

              tabla3

              Una partícula y su antipartícula no pueden coexistir si están suficientemente cerca como para interactuar. Si ello ocurre, ellas se destruyen mutuamente: hay aniquilación de las partículas. El resultado es radiación electromagnética de alta energía, formada por fotones gamma. Así, si un electrón está cercano a un positrón se aniquilan en rayos gamma. Igual con un par protón-antiprotón muy próximos.

              La reacción inversa también se presenta. Se llama «materialización o creación de partículas» de un par partícula-antipartícula a partir de fotones, pero se requieren condiciones físicas rigurosas. Es necesario que se creen pares partícula-antipartícula y que los fotones tengan una energía mayor que las masas en reposo de la partículas creadas. Por esta razón, se requieren fotones de muy alta energía, de acuerdo a la relación de Einstein E=mc2 . Para dar nacimiento a electrones/positrones es necesario un campo de radiación de temperaturas mayores a 7×109 °K. Para hacer lo mismo con pares protón/antiprotón es necesario que ellas sean superiores a 2×1012 °K. Temperaturas de este tipo se producen en los primeros instantes del universo.

              Los rayos gamma están presentes en explosiones de supernovas, colisión de estrellas de neutrones… Todos los sucesos de altas energías los hace presente para que nuestros ingenios los detecten y podamos conocer lo que la materia esconde en lo más profundo de sus “entrañas”. Aún no hemos podido conocer en profundidad la materia ni sabemos, tampoco, lo que realmente es la luz.

              emilio silvera

               

              Enigmas de la Naturaleza

              Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

              RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

              Imagen: Phys Org

              El problema de si las constantes físicas son constantes se las trae. Aparte del trabalenguas terminológico arrastra tras de sí unas profundas consecuencias conceptuales. Lo primero, uno de los pilares fundamentales de la relatividad especial es el postulado de que las leyes de la física son las mismas con independencia del observador. Esto fue una generalización de lo que ya se sabía cuando se comenzó a estudiar el campo electromagnético, pero todo lo que sabemos en la actualidad nos lleva a concluir que este postulado es bastante razonable.

              En alguna ocasión se explicó aquí el desdoblamiento de las líneas espectrales del hidrógeno, lo que se ha dado en llamar alfa (α). León Lederman (premio Nobel de Física), nos dice que se denota por esa letra griega y que al efectuar sus cálculos, Sommerfeld introdujo una “nueva abreviatura” de algunas constantes. Se trataba de 2πe2 / hc, que abrevió con la letra griega “α” (alfa). Sigue  diciéndonos: “No prestéis atención a la ecuación. Lo interesante es esto: cuando se meten los números conocidos de la carga del electrón, e‾ la constante de Planck, h, y la velocidad de la luz, c, sale α = 1/137.  Otra vez 137 número puro.

              Las constantes fundamentales (constantes universales) están referidas a los parámetros que no cambian a lo largo del universo. La carga de un electrón, la velocidad de la luz en el espacio vacío, la constante de Planck, la constante gravitacional, la constante eléctrica y magnética se piensa que son todos ejemplos de constantes fundamentales.

              Las fuerzas de la naturaleza que gobiernan la electricidad, el magnetismo, la radiactividad y las reacciones nucleares están confinadas a un “mundobrana” tridimensional, mientras que la gravedad actúa en todas las dimensiones y es consecuentemente más débil.

              Las fuerzas fundamentales

              Tipo de Fuerza Alcance en m Fuerza relativa Función
              Nuclear fuerte <3×10-15 1041 Une Protones y Neutrones en el núcleo atómico por medio de Gluones.
              Nuclear débil < 10-15 1028 Es responsable de la energía radiactiva   producida de manera natural.  Portadoras W y Z
              Electromagnetismo Infinito 1039 Une los átomos para formar moléculas; propaga la luz y las ondas de radio y otras formas de energías eléctricas y magnéticas por medio de los fotones.
              Gravitación Infinito 1 Mantiene unidos los planetas del Sistema Solar, las estrellas en las galaxias y, nuestros pies pegados a la superficie de la Tierra. La transporta el gravitón.

              Leer más