Feb
26
Teorías, masas, partículas, dimensiones…
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
Una nos habla del Cosmos y de como el espacio se curva ante la presencia de masas, la otra, nos habla de funciones de ondas, entrelazamientos cuánticos, de diminutos objetos que conforman la materia y hacen posibles los átomos y la vida.
Entre los teóricos, el casamiento de la relatividad general y la teoría cuántica es el problema central de la física moderna. A los esfuerzos teóricos que se realizan con ese propósito se les llama “supergravedad”, “súpersimetría”, “supercuerdas” “teoría M” o, en último caso, “teoría de todo o gran teoría unificada”.
Ahí tenemos unas matemáticas exóticas que ponen de punta hasta los pelos de las cejas de algunos de los mejores matemáticos del mundo (¿y Perelman? ¿Por qué nos se ha implicado?). Hablan de 10, 11 y 26 dimensiones, siempre, todas ellas espaciales menos una que es la temporal. Vivimos en cuatro: tres de espacio (este-oeste, norte-sur y arriba-abajo) y una temporal. No podemos, ni sabemos o no es posible instruir, en nuestro cerebro (también tridimensional), ver más dimensiones. Pero llegaron Kaluza y Klein y compactaron, en la longitud de Planck las dimensiones que no podíamos ver. ¡Problema solucionado!
La longitud de Planck (ℓP) u hodón (término acuñado en 1926 por Robert Lévi) es la distancia o escala de longitud por debajo de la cual se espera que el espacio deje de tener una geometría clásica. Una medida inferior previsiblemente no puede ser tratada adecuadamente en los modelos de física actuales debido a la aparición de efectos de Gravedad Cuántica.
¿Quién puede ir a la longitud de Planck para verla? A distancias comparables con la longitud de Planck, se cree que están sucediendo cosas muy curiosas que rebasan ampliamente los límites de nuestra imaginación. A diferencia de la filosofía reduccionista que propone que lo más complejo está elaborado -axiomáticamente- a partir de lo más elemental, lo que está sucediendo en la escala de Planck no parece tener nada de elemental o sencillo. Se cree que a esta escala la continuidad del espacio-tiempo en vez de ir marchando sincronizadamente al parejo con lo que vemos en el macrocosmos de hecho stá variando a grado tal que a nivel ultra-microscópico el tiempo no sólo avanza o se detiene aleatoriamente sino inclusive marcha hacia atrás, una especie de verdadera máquina del tiempo. Las limitaciones de nuestros conocimientos sobre las rarezas que puedan estar ocurriendo en esta escala en el orden de los 10-35 metros, la longitud de Planck, ha llevado a la proposición de modelos tan imaginativos y tan exóticos como la teoría de la espuma cuántica que supuestamente veríamos aún en la ausencia de materia-energía si fuésemos ampliando sucesivamente una porción del espacio-tiempo plano
No pocos han tratado de encontrar la puerta para acceder a esas dimensiones extras que pregonan algunas teorías. Sin embargo, hasta el momento, nadie ha dado con el camino para poder llegar a ellas y traspasarlas para ver, lo que puedaxistir más alla de las dimensiones que rigen en nuestro propio mundo.
La puerta de las dimensiones más altas quedó abierta y, a los teóricos, se les regaló una herramienta maravillosa. En el Hiperespacio, todo es posible. Hasta el matrimonio de la relatividad general y la mecánica cuántica, allí si es posible encontrar esa soñada teoría de la Gravedad cuántica.
Así que, los teóricos, se han embarcado a la búsqueda de un objetivo audaz: buscan una teoría que describa la simplicidad primigenia que reinaba en el intenso calor del universo en sus primeros tiempos, una teoría carente de parámetros, donde estén presentes todas las respuestas. Todo debe ser contestado a partir de una ecuación básica.
¿Dónde radica el problema?
El problema está en que la única teoría candidata no tiene conexión directa con el mundo de la observación, o no lo tiene todavía si queremos expresarnos con propiedad. La energía necesaria para ello, no la tiene ni el LHC que ha trabajado a 14 TeV, y, necesitaria disponer de la energía de Planck, es decir 1019 GeV, y dicha energía, queda lejos, muy lejos de nuestro alcance en el presente y, si alguna vez podemos disponer de ella esrtaría situada muy lejos en el futuro.
La verdad es que, la teoría que ahora tenemos, el Modelo Estándar, concuerda de manera exacta con todos los datos a bajas energías y contesta cosas sin sentido a altas energías.
¡Necesitamos algo más avanzado!
Cada partícula tiene encomendada una misión, la de Higgs, ya sabemos lo que dicen por ahí.es la dadora de masa a las demás partículas (cosa que -particularmente- no tengo nada claro).
Se ha dicho que la función de la partícula de Higgs es la de dar masa a las Cuando su autor lanzó la idea al mundo, resultó además de nueva muy extraña. El secreto de todo radica en conseguir la simplicidad: el átomo resulto ser complejo lleno de esas infinitesimales partículas electromagnéticas que bautizamos con el nombre de electrones, resultó que tenía un núcleo que contenía, a pesar de ser tan pequeño, casi toda la masa del átomo. El núcleo, tan pequeño, estaba compuesto de otros objetos más pequeños aún, los quarks que estaban instalados en nubes de otras partículas llamadas gluones y, ahora, queremos continuar profundizando, sospechamos, que después de los quarks puede haber algo más.
Bueno, la idea nueva que surgió es que el espacio entero contiene un campo, el campo de Higgs, que impregna el vacío y es el mismo en todas partes. Es decir, que si miramos a las estrellas en una noche clara estamos mirando el campo de Higgs. Las partículas influidas por este campo, toman masa. Esto no es por sí mismo destacable, pues las partículas pueden tomar energía de los campos (gauge) de los que hemos comentado, del campo gravitatorio o del electromagnético. Si llevamos un bloque de plomo a lo alto de la Torre Eiffel, el bloque adquiriría energía potencial a causa de la alteración de su posición en el campo gravitatorio de la Tierra.
Cuando los físicos hablan de la belleza de algunas ecuaciones, se refieren a las que, como ésta, dicen mucho con muy pocos caracteres. De hecho, puede que ésta sea la ecuación más famosa conocida en nuestro mundo.
Como E=mc2, ese aumento de la energía potencial equivale a un aumento de la masa, en este caso la masa del Sistema Tierra-bloque de plomo. Aquí hemos de añadirle amablemente un poco de complejidad a la venerable ecuación de Einstein. La masa, m, tiene en realidad dos partes. Una es la masa en reposo, m0, la que se mide en el laboratorio cuando la partícula está en reposo. La partícula adquiere la otra parte de la masa en virtud de su movimiento (como los protones en el acelerador de partículas, o los muones, que aumentan varias veces su masa cuando son lanzados a velocidades cercanas a c) o en virtud de su energía potencial de campo. Vemos una dinámica similar en los núcleos atómicos. Por ejemplo, si separamos el protón y el neutrón que componen un núcleo de deuterio, la suma de las masas aumenta.
Pero la energía potencial tomada del campo de Higgs difiere en varios aspectos de la acción de los campos familiares. La masa tomada de Higgs es en realidad masa en reposo. De hecho, en la que quizá sea la versión más apasionante de la teoría del campo de Higgs, éste genera toda la masa en reposo. Otra diferencia es que la cantidad de masa que se traga del campo es distinta para las distintas partículas.
Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan éstas al campo de Higgs.
La influencia de Higgs en las masas de los quarks y de los leptones, nos recuerda el descubrimiento por Pieter Zeeman, en 1.896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo. El campo (que representa metafóricamente el papel de Higgs) rompe la simetría del espacio de la que el electrón disfrutaba.
Hasta hace bien poco no teniamos ni idea de que reglas controlan los incrementos de masa generados por el Higgs (de ahí la expectación creada por el nuevo acelerador de partículas LHC cuando la buscaba). Pero el problema es irritante: ¿por qué sólo esas masas -Las masas de los W+, W–, y Zº, y el up, el down, el encanto, el extraño, el top y el bottom, así como los leptones – que no forman ningún patrón obvio?
Las masas van de la del electrón 0’0005 GeV, a la del top, que tiene que ser mayor que 91 GeV. Deberíamos recordar que esta extraña idea (el Higgs) se empleó con mucho éxito para formular la teoría electrodébil (Weinberg-salam). Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnéticas y débiles. En la unidad hay cuatro partículas mensajeras sin masa -los W+, W–, Zº y fotón que llevan la fuerza electrodébil. Además está el campo de Higgs, y, rápidamente, los W y Z chupan la esencia de Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébil se fragmenta en la débil (débil porque los mensajeros son muy gordos) y la electromagnética, cuyas propiedades determina el fotón, carente de masa. La simetría se rompe espontáneamente, dicen los teóricos. Prefiero la descripción según la cual el Higgs oculta la simetría con su poder dador de masa.
Las masas de los W y el Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil. Y las relajadas sonrisas de los físicos teóricos nos recuerdan que Gerard ^t Hooft y Veltman dejaron sentado que la teoría entera esta libre de infinitos.
Pero, encierra tantos misterios la materia que, a veces me hace pensar en que la podríamos denominar de cualuquier manera menos de inerte ¡Parece que la materia está viva!
Son muchas las cosas que desconocemos y, nuestra curiosidad nos empuja continuamente a buscar esas respuestas.
El electrón y el positrón son notables por sus pequeñas masas (sólo 1/1.836 de la del protón, el neutrón, el antiprotón o antineutrón), y, por lo tanto, han sido denominados leptones (de la voz griega lentos, que significa “delgado”).
Aunque el electrón fue descubierto en 1.897 por el físico británico Josepth John Thomson (1856-1940), el problema de su estructura, si la hay, no está resuelto. Conocemos su masa y su carga negativa que responden a 9,1093897 (54) x 10-31 Kg la primera y, 1,602 177 33 (49) x 10-19 culombios, la segunda, y también su radio clásico: r0 = e2/mc2 = 2’82 x 10-13 m. No se ha descubierto aún ninguna partícula que sea menos cursiva que el electrón (o positrón) y que lleve una carga eléctrica, sea lo que fuese (sabemos como actúa y cómo medir sus propiedades, pero aun no sabemos qué es), tenga asociada un mínimo de masa, y que esta es la que se muestra en el electrón.
Lo cierto es que, el electrón, es una maravilla en sí mismo. El Universo no sería como lo conocemos si el electrón (esa cosita “insignificante”), fuese distinto a como es, bastaría un cambio infinitesimal para que, por ejemplo, nosotros no pudiéramos estar aquí ahora.
¡No por pequeño, se es insignificante!
Recordémoslo, todo lo grande está hecho de cosas pequeñas.
En realidad, existen partículas que no tienen en absoluto asociada en ellas ninguna masa (es decir, ninguna masa en reposo). Por ejemplo, las ondas de luz y otras formas de radiación electromagnéticas se comportan como partículas (Einstein en su efecto fotoeléctrico y De Broglie en la difracción de electrones*.
Esta manifestación en forma de partículas de lo que, de ordinario, concebimos como una onda se denomina fotón, de la palabra griega que significa “luz”.
El fotón tiene una masa de 1, una carga eléctrica de o, pero posee un espín de 1, por lo que es un bosón. ¿Cómo se puede definir lo que es el espín? Los fotones toman parte en las reacciones nucleares, pero el espín total de las partículas implicadas antes y después de la reacción deben permanecer inmutadas (conservación del espín). La única forma que esto suceda en las reacciones nucleares que implican a los fotones radica en suponer que el fotón tiene un espín de 1. El fotón no se considera un leptón, puesto que este termino se reserva para la familia formada por el electrón, el muón y la partícula Tau con sus correspondientes neutrinos: Ve, Vu y VT.
Existen razones teóricas para suponer que, cuando las masas se aceleran (como cuando se mueven en órbitas elípticas en torno a otra masa o llevan a cabo un colapso gravitacional), emiten energía en forma de ondas gravitacionales. Esas ondas pueden así mismo poseer aspecto de partícula, por lo que toda partícula gravitacional recibe el nombre de gravitón.
La fuerza gravitatoria es mucho, mucho más débil que la fuerza electromagnética. Un protón y un electrón se atraen gravitacionalmente con sólo 1/1039 de la fuerza en que se atraen electromagnéticamente. El gravitón (aún sin descubrir) debe poseer, correspondientemente, menos energía que el fotón y, por tanto, ha de ser inimaginablemente difícil de detectar.
De todos modos, el físico norteamericano Joseph Weber emprendió en 1.957 la formidable tarea de detectar el gravitón. Llegó a emplear un par de cilindros de aluminio de 153 cm. De longitud y 66 de anchura, suspendidos de un cable en una cámara de vacío. Los gravitones (que serían detectados en forma de ondas), desplazarían levemente esos cilindros, y se empleó un sistema para detectar el desplazamiento que llegare a captar la cienmillonésima parte de un centímetro.
Han llevado años captarlas, las ondas gravitatorias llevadas por el gravitón son débiles
Las débiles ondas de los gravitones, que producen del espacio profundo, deberían chocar contra todo el planeta, y los cilindros separados por grandes distancias se verán afectados de forma simultánea. En 1.969, Weber anunció haber detectado los efectos de las ondas gravitatorias. Aquello produjo una enorme excitación, puesto que apoyaba una teoría particularmente importante (la teoría de Einstein de la relatividad general). Desgraciadamente, nunca se pudo comprobar mediante las pruebas realizadas por otros equipos de científicos que duplicaran el hallazgo de Weber.
De todas formas, no creo que, a estas alturas, nadie pueda dudar de la existencia de los gravitones, el bosón mediador de la fuerza gravitatoria. La masa del gravitón es o, su carga es o, y su espín de 2. Como el fotón, no tiene antipartícula, ellos mismos hacen las dos versiones.
Tenemos que volver a los que posiblemente son los objetos más misteriosos de nuestro Universo: Los agujeros negros. Si estos objetos son lo que se dice (no parece que se pueda objetar nada en contrario), seguramente serán ellos los que, finalmente, nos faciliten las respuestas sobre las ondas gravitacionales y el esquivo gravitón.
La onda gravitacional emitida por el agujero negro produce una ondulación en la curvatura del espacio-temporal que viaja a la velocidad de la luz transportada por los gravitones.
Hay aspectos de la física que me dejan totalmente sin habla, me obligan a pensar y me transporta de este mundo material nuestro a otro fascinante donde residen las maravillas del Universo. Hay magnitudes asociadas con las leyes de la gravedad cuántica. La longitud de Planck-Wheeler, es la escala de longitud por debajo de la cual el espacio tal como lo conocemos deja de existir y se convierte en espuma cuántica. El tiempo de Planck-Wheeler (1/c veces la longitud de Planck-Wheeler o aproximadamente 10-43 segundos), es el intervalo de tiempo más corto que puede existir; si dos sucesos están separados por menos que esto, no se puede decir cuál sucede antes y cuál después. El área de Planck-Wheeler (el cuadrado de la longitud de Planck-Wheeler, es decir, 2,61×10-66cm2) juega un papel clave en la entropía de un agujero negro.
Me llama poderosamente la atención lo que conocemos como las fluctuaciones de vacío, esas oscilaciones aleatorias, impredecibles e ineliminables de un campo (electromagnético o gravitatorio), que son debidas a un tira y afloja en el que pequeñas regiones del espacio toman prestada momentáneamente energía de regiones adyacentes y luego la devuelven.
Ordinariamente, definimos el vacío como el espacio en el que hay una baja presión de un gas, es decir, relativamente pocos átomos o moléculas. En ese sentido, un vacío perfecto no contendría ningún átomo o molécula, pero no se puede obtener, ya que todos los materiales que rodean ese espacio tienen una presión de vapor finita. En un bajo vacío, la presión se reduce hasta 10-2 pascales, mientras que un alto vacío tiene una presión de 10-2-10-7 pascales. Por debajo de 10-7 pascales se conoce como un vacío ultraalto.
No puedo dejar de referirme al vaciotheta (vació θ) que, es el estado de vacío de un campo gauge no abeliano (en ausencia de campos fermiónicos y campos de Higgs).
El vacío theta es el punto de partida para comprender el estado de vacío de las teoría gauge fuertemente interaccionantes, como la cromodinámica cuántica. En el vacío theta hay un número infinito de estados degenerados con efecto túnel entre estos estados. Esto significa que el vacío theta es análogo a una fundón de Bloch* en un cristal.
Se puede derivar tanto como un resultado general o bien usando técnicas de instantón. Cuando hay un fermión sin masa, el efecto túnel entre estados queda completamente suprimido.
Cuando hay campos fermiónicos con masa pequeña, el efecto túnel es mucho menor que para campos gauge puros, pero no está completamente suprimido.
Nos podríamos preguntar miles de cosas que no sabríamos contestar. Nos maravillan y asombran fenómenos naturales que ocurren ante nuestros ojos pero que tampoco sabemos, en realidad, a que son debidos. Si, sabemos ponerles etiquetas como, por ejemplo, la fuerza nuclear débil, la fisión espontánea que tiene lugar en algunos elementos como el protactinio o el torio y, con mayor frecuencia, en los elementos que conocemos como transuránidos.
A medida que los núcleos se hacen más grandes, la probabilidad de una fisión espontánea aumenta. En los elementos más pesados de todos (einstenio, fermio y mendelevio), esto se convierte en el método más importante de ruptura, sobre pasando a la emisión de partículas alfa.
emilio silvera
Feb
25
La Física de Partículas al Servicio de la Salud
por Emilio Silvera ~ Clasificado en Las nuevas tecnologías ~ Comments (0)
En realidad, en el CERN, se trabaja en algo más que en las partículas subatómicas y se buscan nuevas respuestas y remedios para paliar el dolor en el mundo. También, se ha contribuido de manera notable a las comunicaciones y, el mundo es tal como lo conocemos hoy gracias a Ingenios como el LHC que, por desconocimiento de muchos, en su mpomento, fue tan denostado.
Transferencias tecnológicas del CERN a la Biomedicina.
Partículas y mucho más
Seguramente la mayoría de los lectores de la Revista Española de Física han oído más de una vez hablar del CERN. Fundado en 1954, constituye el mayor laboratorio de física de partículas del mundo, con veinte países miembros y un personal de unas 3.000 personas entre físicos, ingenieros y personal técnico y administrativo de todo tipo. Seguramente están también al tanto de los grandes experimentos que se están preparando en este centro como el Large Hadron Collider (LHC), situado en un túnel circular de 27 km de longitud, destinado a elucidar el origen de la llamada ruptura de la simetría electrodébil y en última instancia el origen de las masas de las partículas elementales (no de la masa del protón o del neutrón como erróneamente se dice a veces en los medios de comunicación), o del proyecto CERN Neutrino Gran Sasso (CNGS), que consiste en enviar un haz de neutrinos de alta energía desde el CERN al laboratorio subterráneo italiano del Gran Sasso que se encuentra a 730 km, para estudiar las oscilaciones de estas huidizas partículas.
También es muy probable que muchos lectores asocien de manera natural la palabra acelerador de partículas a los instrumentos que utilizan los físicos modernos para estudiar y comprender mejor la estructura y el comportamiento de la materia a pequeñas escalas. Sin embargo, de los 17.000 aceleradores de partículas que se estima existen en la actualidad en todo el mundo, aproximadamente la mitad de ellos se usan en medicina y sólo una parte muy pequeña se usan para investigación fundamental. Por este y otros motivos que se discutirán más adelante, en este número especial de la Revista Española de Física dedicado a la física y las ciencias de la vida, ha parecido conveniente incluir un artículo en el que, al menos brevemente, se describieran algunas de las transferencias tecnológicas (spinoffs) importantes que la actividad del CERN aporta a dichas ciencias.
Mucho de lo que aquí se descubre, se aplica a nuestra Salud
Es bastante razonable que, como ocurre con las ciencias del espacio, mucha gente se pregunte cuál es la utilidad social de la física de partículas más allá de la adquisición de conocimientos fundamentales de la naturaleza. Sin embargo, es preciso señalar que los aceleradores y detectores de partículas del CERN y otros laboratorios similares requieren el uso, y muchas veces el desarrollo, de tecnologías de punta que obligan a una estrecha colaboración con la industria que redunda en beneficio de ambas partes. Las transferencias tecnológicas que se producen en este proceso se incorporan inmediatamente a nuestra vida diaria en áreas tales como la electrónica, procesamiento industrial y médico de imágenes, manejo y usos de la radiación , metrología, nuevos materiales, tecnologías de la computación y la información, tratamiento del cáncer, etc. En este artículo se pondrá el énfasis en aquellas actividades del CERN que han redundado de una forma más clara en beneficio de las ciencias biomédicas.
PET/TC o más allá de los rayos X
En el ámbito de la medicina los aceleradores de partículas se utilizan con dos finalidades; una para la formación de imágenes con propósitos diagnósticos y otra, para terapia, principalmente oncológica. Desde el descubrimiento de los rayos X por Röntgen en 1895, este tipo de radiación electromagnética ha proporcionado una información de valor incalculable y aún sigue proporcionándola. Sin embargo, mucho más recientemente, se han desarrollado otras técnicas complementarias de diagnóstico basadas en los llamados radiofármacos. Estas sustancias radiactivas presentan idealmente la propiedad de poder ser inyectadas en el organismo humano de forma segura y de fijarse exclusivamente a determinados tejidos. Posteriormente, a medida que van desintegrándose, emiten ciertas partículas que pueden ser detectadas y analizadas produciendo de esta forma imágenes estáticas o incluso dinámicas de los órganos en los que se depositaron los radiofármacos y, en definitiva, proporcionando información no solamente sobre la morfología de aquellos, sino también, en muchos casos, sobre su función y metabolismo.Los radiofármacos se producen utilizando haces de protones de alta intensidad y, como tienen una vida media muy baja, deben utilizarse cerca de donde se han creado. Se calcula que unos 20 millones de personas son diagnosticadas cada año mediante el uso de este tipo de sustancias.
Son técnicas no invasivas que dejan al descubierto lo que interesa ver y eliminar.
Una de las técnicas de este tipo más utilizada en la actualidad es la Positron Emission Tomography (PET). En su aplicación se utiliza normalmente un ciclotrón para irradiar alguna sustancia que se convierte en radiactiva por desintegración beta positiva (emisora de positrones). Esta sustancia se une por ejemplo a la glucosa y se inyecta al paciente. Los positrones producidos se aniquilan con los electrones circundantes dando lugar a dos fotones de energía muy bien definida, emitidos en direcciones opuestas. Estos fotones interaccionan con un material escintilador dando lugar a la emisión de otros fotones que pueden ser detectados por fotomultiplicadores o fotodiodos para formar la imagen de los tejidos que se pretenden estudiar en función de la distribución de la glucosa radiactiva. Por ejemplo, en el caso del diagnóstico del cáncer las células cancerosas suelen consumir más glucosa que las células sanas debido a su mayor vascularización y a su mayor actividad metabólica y reproductiva, produciendo por tanto una mayor emisión de fotones. Por el contrario, las zonas donde el tejido presente mayor número de células muertas brillarán menos debido a la menor concentración de glucosa radioactiva, lo cual puede ser muy útil para el diagnóstico de infartos y otras lesiones.
Tecnológias que llegan más allá
De acuerdo con David Townsend, uno de los pioneros en el desarrollo de la tecnología PET, aunque ésta no fue inventada en el CERN, una cantidad esencial e inicial de trabajo desarrollado en el CERN a partir de 1977 contribuyó de forma significativa al desarrollo del PET 3D. La tecnología PET alcanza su grado más alto de utilidad diagnóstica cuando se combina con la Computed Tomography (CT). La CT es un método de formación de imágenes tridimensionales a partir del procesamiento digital de un gran número de imágenes bidimensionales de rayos X. Inicialmente, las diferentes imágenes se obtenían alrededor de un solo eje de rotación y de ahí su nombre original de Computed Axial Tomography (CAT).
La técnica combinada PET/CT es uno de los desarrollos más excitantes de la medicina nuclear y la radiología modernas. Las reconstrucciones de imágenes CT permiten el diagnóstico precoz de tumores basándose en sus características morfológicas, mientras que la tecnología PET es capaz de diferenciar con grane eficiencia los tejidos malignos de los benignos. La fusión PET/CT permite ahora integrar las imágenes morfológica y fisiológica en una única imagen. El prototipo del scanner ART, el Partial Ring Tomograph (PRT), fue desarrollado en el CERN en 1980 y 1990 por David Townsend, Martín Wensveen y Henri Tochon-Danguy, y evaluado clínicamente en el departamento de medicina nuclear del Hospital Cantonal de Ginebra. ART puede considerarse como el precursor de la parte PET del moderno scanner PET/CT, que ha producido un impacto extraordinario en la tecnología de imágenes con fines médicos. Además, el CERN continua hoy en día contribuyendo a este campo fundamental de la medicina moderna mediante proyectos como Clear PET, Clear PEM, HPD PET etc.
Sin embargo, la importancia del CERN en el desarrollo de las tecnologías PET o CT, y en general de todo tipo de scanner, va mucho más allá. En efecto, todo este tipo de dispositivos se basa, de una forma u otra, en los detectores desarrollados a finales de los sesenta en el CERN por George Charpak. Su trabajo fue reconocido en 1992 con la concesión del Premio Nobel de Física por su invención y desarrollo de detectores de partículas, en particular de la cámara proporcional multihilos, que produjo una revolución en la técnica de exploración de las partes más íntimas de la materia. Los detectores desarrollados por Charpak se usan aún para todo tipo de investigaciones médicas y biológicas y podrían eventualmente sustituir completamente a las placas fotográficas en la radio-biología aplicada. La velocidad creciente con la que permiten registrar las imágenes en radio medicina conducen a una menor tiempo de exposición y a menores dosis de radiación indeseada recibida por los pacientes.
Hadronterapia, o las partículas contra el cáncer
Como es bien sabido, una de las herramientas terapéuticas esenciales en el campo de la oncología es la radioterapia. Dicho tratamiento se aplica hoy en día aproximadamente a la mitad de los pacientes de cáncer. En cierto modo se puede considerar como una forma sutil de cirugía donde el bisturí es reemplazado por un haz colimado de partículas capaz de esterilizar las células malignas mediante la inactivación de su ADN, impidiendo así su reproducción. Tradicionalmente, la radioterapia se ha basado en el uso de rayos X (fotones), electrones y, más recientemente, hadrones, es decir, partículas capaces de interaccionar fuerte o nuclearmente, si bien no es ésta la propiedad más interesante de estas partículas para las aplicaciones radioterapeúticas. Los haces de rayos X y los electrones se obtienen normalmente a partir de aceleradores lineales como los del CERN, aunque mucho más pequeños, y se apuntan hacia los tumores con la energía, dirección y colimación apropiadas para optimizar su efecto destructivo sobre los mismos. Por su parte, los neutrones pierden energía en el interior del organismo de una forma diferente, lo cual les hace más indicados para el tratamiento de ciertos tipos especiales de tumores. Se obtienen a partir de las colisiones de protones, previamente acelerados en un ciclotrón, con núcleos de berilio. Este hecho hace que esta terapia sea bastante más cara que las anteriores, pero a cambio el ciclotrón puede ser usado también para la producción de radiofármacos.
Cintíficos del CERN aplivcan antimateria contra el Cáncer
El estudio de las posibilidades de utilización de haces de hadrones en la terapia del cáncer tuvo su origen en el trabajo seminal de R.R Wilson titulado Radiological Use of Fast Protons (Radiology 47, 1946). En dicho artículo se ponía de manifiesto que los protones, así como otras partículas cargadas pesadas, presentan la propiedad única de que al penetrar en el cuerpo humano depositan la mayor parte de su energía a una preofundidad que depende de su energía inicial. Este hecho permite seleccionar cuidadosamente el área que se quiere irradiar, preservando de dicha radiación al tejido sano que pudiera encontrarse a menor profundidad. Además, como las partículas se detienen a una distancia de la superficie bien definida por la energía del haz, tampoco resultarían dañadas las células situadas detrás del blanco seleccionado.
En contraste, la energía depositada por los rayos X alcanza su máximo cerca de la superficie de entrada y decae exponencialmente hasta que abandona el cuerpo humano en el lado opuesto, haciendo por tanto muy difícil seleccionar la zona que quiere irradiarse sin dañar otras áreas de células sanas. El trabajo de Wilson de 1946 condujo a toda una nueva línea de investigación experimental, principalmente en el Lawrence Berkeley Laboratory, que ha dado lugar al desarrollo de una nueva clase de terapias antitumorales basadas en la irradiación con protones y más recientemente con iones de carbono. Estas técnicas han sido aplicadas en más de 40 centros de todo el mundo, y de ellas se han beneficiado hasta la fecha más de 50.000 pacientes. No obstante, continúan investigándose nuevas formas de intentar mejorar el ratio entre la energía depositada en las células tumorales y en el tejido sano.
En la actualidad, el CERN se encuentra involucrado en diversos proyectos relacionados con la hadronterapia. Por ejemplo, en el diseño de un acelerador de protones e iones de carbono dedicado exclusivamente a usos médicos conocido como Proton Ion Medical Machine Study (PIMMS). Otro proyecto interesante es la realización de las pruebas del Linear Booster ( LIBO), capaz de acelerar una haz de protones hasta 200 Mev (los hospitales habiualmente utilizan energías en torno a los 65 MeV) y que estaría especializado en el tartamiento de tumores profundos.
Finalmente, y situándonos en un plano de investigación a un nivel más básico, es interesante señalar que en octubre de 2006 se presentaron los primeros resultados de un experimento llevado a cabo en el CERN con potencial para futuras aplicaciones en la terapia del cáncer. Se trataba del Antiproton Cell Experiment (ACE), que constituye la primera investigación realizada hasta la fecha sobre efectos biológicos de los antiprotones. Los antiprotones se comportan como los protones cuando entran en el organismo, pero generan mucha más energía en el blanco seleccionado debido a du aniquilación con los protones existentes en los núcleos de los átomos de las células, y además depositan esta energía de una forma biológicamente más efectiva.
Se busca antimateria contra el Cáncer. Los resultados muestran que los antiprotones son cuatro veces más efectivos que los protones para destruir células vivas. (Foto: Especial CERN )
Evaluando la fracción de células supervivientes después de la irradiación con el haz de antiprotones, el experimento ACE ha encontrado que a eficiencia de éstos es unas cuatro veces mayor que la de los protones, mientras que el daño producido a las células situadas antes del blanco era básicamente el mismo. De acuerdo con Michael Holzscheiter, portavoz del experimento ACE, este hecho podría ser extremadamente importante para el tratamiento de casos de cáncer recurrente, donde este tipo de propiedad es vital. La tecnología desarrollada previamente en el CERN para la obtención de haces de antiprotones de buena calidad a la energía apropiada es esencial para este prometedor experimento, que difícilmente podría haberse realizado en ningún otro laboratorio. Éste es por tanto un magnífico ejemplo de cómo la investigación en física de partículas desarrollada en el CERN puede generar soluciones innovadores con excelentes beneficios médicos potenciales.
Los investigadores de ACE, en colaboración con otras instituciones de todo el mundo, están realizando en la actualidad nuevos tests para comprobar la eficacia de este método en el caso de tumores situados a mayor profundidad, y comparando sus resultados con los de otros métodos más convencionales como la irradiación mediante iones de carbono. Si todo sale como se espera, los beneficios clínicos de esta nueva técnica podrían empezar a producirse dentro de la próxima década.
Otro ejemplo importante de tecnología creada en el CERN con aplicaciones a la terapia del cáncer es el Neutron Driven Element Trasmuter. Se trata de un sistema de producción de radioisótopos específicos específicos a partir de un acelerador de protones cuyo desarrollo fue liderado por Carlo Rubbia, Premio Nobel de Física en 1984 por el descubrimiento de los bosones W y Z y ex director general del CERN. La idea es utilizar el haz de protones para producir neutrones los cuales provocan reacciones en un ambiente apropiado donde ciertos elementos son convertidos en los isótopos deseados.
La diferencia principal entre este método, seguro y barato, y el método más tradicional de utilizar los neutrones provenientes de un reactor nuclear, es que no requiere el uso de material fisionable ni funciona críticamente, es decir las reacciones se detienen en el momento en el que el acelerador es apagado. Más aún, el método tiene la ventaja de que sólo se producen los isótopos requeridos, lo que redunda en una importante reducción de impacto ambiental. Normalmente, el blanco utilizado es plomo, elemento idóneo por presentar el menor ritmo de captura de neutrones. Los neutrones se producen por espalación a partir del haz de protones y permanecen en el interior del blanco de plomo, que está rodeado de un deflector de grafito, hasta que su espectro se suaviza suficientemente para cubrir un gran rango de energías que permiten su utilización para la transmutación de los elementos necesarios para la obtención de los isótopos deseados.
El Neutron Driven Element Trasmuter ha permitido, entre otras cosas, la producción de radioisótopos beta emisores como el 166Ho, 186 Re o el 188Re que son de gran importancia en braquiterapia. Dicha técnica, muy utilizada en el tratamiento de cánceres ginecológicos y en el de cáncer de próstata, es un tipo de radioterapia de proximidad donde la fuente radiactiva se sitúa dentro o muy cerca de los tejidos que requieren irradiación. Típicamente, la fuente radiactiva, de alta actividad y corta vida media, se encapsula en una semilla, filamento o tubo y se implanta en quirófano en la zona deseada. Las diferentes dosis requeridas en cada caso hacen que sea fundamental disponer del mayor muestrario posible de radioisótopos con la actividad y vida media apropiadas, lo cual convierte al Neutron Driven Element Trasmuter en una herramienta valiosísima para el futuro de este tipo de técnica terapéutica.
Información y computación sin fronteras
CERN, … where the web was born; éste es uno de los reclamos publicitarios que suelen utilizarse para hacer ver al público la importancia de los retornos tecnológicos que en este laboratorio tienen lugar. Y en efecto, fue a finales de los ochenta cuando Tim Berners-Lee desarrolló estándar de Hyper Text Transfer Protocol (HTTP) e implementó los primeros servidores web en el CERN. Su esfuerzo permitió la comunicación fácil y segura y el intercambio de todo tipo de información entre todos los ordenadores del mundo conectados a internet, dando lugar de esta forma a una de las revoluciones tecnológicas más importantes de las últimas décadas. Las repercusiones científicas, tecnológicas, culturales, comerciales y de ocio de la web son ya tan conocidas que apenas merecen comentario alguno.
El término Grid fue acuñado por Ian Foster and Carl Kesselman en su libro The Grid, Blueprint for new Computing Infraestructure (Morgan Kaufman, 1998), aunque las ideas básicas habían sido consideradas con anterioridad. No existe un acuerdo general sobre cual debería ser la definición precisa de las tecnologías Grid, pero hay un amplio concenso en que esta debería contener elementos tales como recursos compartidos, virtualización, abstracción del acceso a los recursos y estandarización. La filosofía Grid consistería, no sólo en compartir información entre diferentes usuarios, sino también recursos, como por ejemplo, procesadores, tiempo de CPU, unidades de almacenamiento, así como otros aparatos e instrumentos, de tal forma que eventualmente cada usuario tendría acceso virtual, por ejemplo, a la capacidad de cálculo de todos los demás usuarios de esa Grid. En los primeros tiempos de esta tecnología de la información se llegó a hablar de la Grid, refiriéndose a la posibilidad de existencia de una única World Wide Grid.
Todo surgió del CERN
Hasta el momento, sin embargo, este concepto no es una realidad y más bien lo que se encuentra es que diferentes grupos de proyectos crean su propia Grid usando sus propias implementaciones, estándares y protocolos y dando acceso restringido solamente a una cierta comunidad de usuarios autorizados. Así, aunque se siguen realizando importantes esfuerzos en cuanto a la estandarización de los protocolos, no está claro cual será el camino que este tipo de tecnología seguirá en el futuro en lo que se refiere a la futura existencia de un única Grid.
En cualquier caso es importante resaltar que una vez más el CERN ha sido pionero en este tipo de tecnología. Los detectores que se están instalando (a estas alturas, todos instalados y en marcha) en el LHC (ATLAS, CMS, ALICE, LHCb, SUSY, etc.), son tan complejos, que han requerido cada uno de ellos el concurso de muchas instituciones de todo el mundo para su construcción, y lo seguirán requiriendo para su mantenimiento cuando el acelerador empiece a funcionar (ya está en marcha), y, como no, para el análisis de los datos que se obtengan. Para hacerse una idea de la dimensión y complejidad de estos análisis baste mencionar que el compact Muon Selenoid (CMS), una vez pasado su primer filtro, deberá almacenar información sobre el resultado de las colisiones producidas en su interior a un ritmo del orden de 100 a 200 MB por segundo durante un tiempo esperado de unos cien días por año. Resulta obvio que sólo una tecnología tipo Grid puede afrontar con posibilidades de éxito un reto semejante y de hecho el CERN ha inspirado varios proyectos Grid multinacionales por este motivo. Posiblemente, el más grande de ellos hasta la fecha sea el EGEE (Enablinbg Grids for E-Science), que conecta más de 150 paises y ofrece 20 000 CPUs y más de 10 Petabytes de memoria.
De manera análoga a como ocurrió con las tecnologías de la detección y aceleración, las tecnologías Grid tendrán, y de hecho ya empiezan a tener, un fuerte impacto en las ciencias de la vida y de la salud. En este sentido, uno de los campos obvios de aplicación es la bioinformática. Gracias a los espectaculares avances llevados a cabo en los últimos años en el campo de la biología molecular, se dispone hoy en día de cantidades crecientes de información genética de diferentes especies e individuos. Dicha información codificada en el ADN en forma de secuencia de tripletes o codones de ácidos nucleicos, que constituyen los genes que contienen la estructura primaria de las diferentes proteínas, ha sido y está siendo obtenida por centenares de grupos diferentes distribuidos por todo el mundo y debe almacenarse en gigantescas bases de datos de forma eficiente para su compartición, contrastación y análisis.
Ejemplos típicos serían la búsqueda de determinadas secuencias, comparaciones, búsqueda de determinadas mutaciones o alelos, etc. Resulta evidente que esta ingente labor puede verse enormemente beneficiada por el uso de tecnologías Grid. De hecho, la Bioinformática, y en particular sus aplicaciones biomédicas, han sido una parte importante del proyecto EGEE desde el comienzo del mismo.
Finalmente, y como última muestra de cómo puede revertir en la sociedad las tecnologías de la información y la computación provenientes de la física de partículas, es interesante mencionar el Proyecto Mammogrid y su continuación Mammogrid Plus. Liderado por el CERN, dicho proyecto de la UE utiliza la tecnología Grid para crear una base de datos de mamografías que pueda ser usada para investigar un gran conjunto de datos e imágenes que, aparte de otras aplicaciones sanitarias, sea útil para estudiar el potencial de esta tecnología para servir de soporte a la colaboración entre los profesionales de la salud de la UE.
Ciencia, Tecnología y Sociedad
A estas alturas debería haber quedado claro que los centros científicos de élite internacionales como el CERN, no sólo nos proporcionan un conocimiento más profundo de la naturaleza, sino que las tecnologías de punta que en ellos se desarrollan acaban permeando a la Sociedad y se incorporan a nuestras vidas cotidianas. El autor del artículo, Antonio Dobado, del Departamento de Física Teórica I de la Universidad Complutense de Madrid, ha pretendido ilustrar el hecho innegable de la conexión existente entre temas tan aparentemente dispares como el de la Física de Partículas y la Biomedicina, pero ejemplos semejantes podrían haberse encontrado en prácticamente cualquier área de la actividad humana.
La Sociedad no puede permanecer por más tiempo ajena a la Ciencia y a todo lo que trae consigo. Precisamente por eso la RSEF dedica un gran esfuerzo a la difícil tarea de convencer al público de la importancia de la Física como valor científico, cultural y social, como una forma rigurosa y profunda del acercamiento al conocimiento de la naturaleza, y a la vez como generadora de nuevas tecnologías. En este sentido, es una espléndida noticia la inminente creación de un nuevo Grupo especializado en el seno de la RSEF denominado Física Médica. Y, desde aquí, aprovechamos la oportunidad para darles la bienvenida y desearles el mayor éxito en sus futuras andaduras en la búsqueda de la verdad científica.
Fuente: Revista Española de FÍSICA.
Publicada por la RSEF con el Nº 3 Volumen 21 de 2007
La presente transcripción es de: Emilio Silvera
Miembro numerario de la RSEF y adscrito a los Grupos Especializados de Física Teórica y Astrofísica.
Feb
25
¿La Conciencia? ¡Qué complejidad!
por Emilio Silvera ~ Clasificado en conciencia ~ Comments (6)
“Nada es tan difícil como evitar el autoengaño” Decía Ludwig Wittgestein
La conciencia emerge de procesos cerebrales
Nuestra estrategia para explicar la base neuronal de la conciencia consiste en centrarse en las propiedades más generales de la experiencia consciente, es decir, aquellas que todos los estados conscientes comparten. De estas propiedades, una de las más importantes es la integración o unidad. La integración se refiere a que el sujeto de la experiencia no puede en ningún momento dividir un estado consciente en una serie de componentes independientes. Esta propiedad está relacionada con nuestra incapacidad para hacer conscientemente dos cosas al mismo tiempo, como por ejemplo, estar ahora escribiendo este comentario para ustedes y al mismo tiempo mantener una conversación sobre el Universo con otros amigos.
Muchas y variadas son las opciones que tenempos a nuestro alcance. No pocas veces nos encontramos en una encrucijada entre la razón y el corazón y nos perdemos sin saber cuál es la decisión correcta. No siempre resulta fácil elegir el camino a seguir y… ¡Es tan importante acertar!
Otra propiedad clave de la experiencia consciente, y una que aparentemente contrasta con la anterior, es su extraordinaria diferenciación o informatividad: En cada momento podemos seleccionar uno entre miles de millones de estados conscientes posibles en apenas una fracción de segundo. Nos enfrentamos, pues, a la aparente paradoja de que la unidad encierra la complejidad: el cerebro tiene que afrontar la sobreabundancia sin perder la unidad o coherencia. La tarea de la ciencia consiste en mostrar de qué manera la consigue.
Los últimos pensamientos sobre la mente y la conciencia están centrados en el constructivismo y nos viene a decir que cada cual, se fabrica su propia realidad, y, al hilo de ese pensamiento se me vienen a la mente algunas lecciones de neuropsicología y lo que es la integración bajo tensión, me explico:
Algunas de las indicaciones más sobresalientes de la ineludible unidad de la experiencia consciente provienen del examen de ciertos fenómenos patológicos. Muchos trastornos neuropsicológicos demuestran que la conciencia puede doblarse o encogerse y, en ocasiones, incluso dividirse, pero que nunca tolera que se rompa la coherencia. Por ejemplo, aunque un derrame cerebral en el hemisferio derecho deja a muchas personas con ese lado del cuerpo paralizado y afectado por una pérdida sensorial completa, algunas personas niegan su parálisis, un fenómeno que se conoce como anosognosia.
Ella también pasó por la experiencia de un derrame cerebral
“Perdí bastante visión durante dos años, también la audición, no podía escribir, me costaba caminar, no podía hablar bien y perdí mucha memoria”. y
“me llevó mucho tiempo volver a funcionar, me costaba por el tema de la memoria, en el set, solo en los últimos dos años puedo decir que estoy recuperada totalmente”.
Sin embargo, algunos, cuando se le presentan pruebas de que su brazo y su pierna derecha no pueden moverse, llegan incluso a negar que se trate de sus extremidades y las tratan como si fuesen cuerpos extraños. Otras personas con daños bilaterales masivos en la región occipital no pueden ver nada y, sin embargo, no reconocen que estén ciegos (síndrome de Antón).
Todo está en nuestros cerebros
Las personas con cerebro dividido ofrecen una demostración más de que la conciencia siente horror por los vacíos o las discontinuidades. Las personas con hemi-inantención, un complejo síndrome neuropsicológico que se suele dar cuando se producen lesiones en el lóbulo parietal derecho, no son conscientes del lado izquierdo de las cosas, a veces incluso de toda la parte izquierda del mundo.
El cerebro izquierdo es objetiva y racional. Con la parte izquierda de nuestro cerebro, tratamos de ser objetivos y racionales. Podemos centrarnos en los detalles y hechos analíticos y tratamos de ser razonable y práctico. La parte izquierda del cerebro es responsable de procesar números y palabras, así que ahí es donde logramos por ejemplo la aritmética, ciencias e idiomas. Se podría decir que en esta parte del cerebro está la realidad de nuestro mundo consciente.
El cerebro derecho es subjetivo e intuitivo. La parte derecha de nuestro cerebro es más bien subjetiva. En lugar de tomar decisiones racionales y conscientes, esta parte se basa en la intuición. Nuestro pensamiento en el lado derecho es espontáneo e influido por las emociones, tales como nuestro estado de ánimo, o disparadores emocionales externos. Con esta parte del cerebro, usamos nuestra imaginación, la fantasía y las creencias personales para decidir por nosotros. Estamos dispuestos a asumir riesgos y centrarse en objetivos más que el proceso que se necesita para llegar allí. Apreciamos imágenes y elementos emocionales, en lugar de información objetiva.
Pongo estos ejemplos para que podamos ver la complejidad de lo que el cerebro encierra. No es fácil llegar a saber lo que ahí se cuece.
Asisto con otras muchas personas a un mismo lugar para escuchar y ser testigos de una conferencia de Física. Tal reunión dará lugar a una multitud de pensamientos, los suyos y los míos, algunos mutuamente coherentes, otros no. Son tan poco individuales y recíprocamente independientes como son un todo coherente al estar oyendo todos el mismo tema, sim embargo, casi nadie coincide al clasificar la manera de encajar lo que allí se expone, así que, no son ni lo uno ni lo otro: ninguno de ellos está separado, sino que cada uno pertenece al ámbito de los otros pero además al de ninguno. Mi pensamiento pertenece a la totalidad de mis otros pensamientos, y el de cada uno, a la totalidad de pensamientos de cada uno…los únicos estados de conciencia que de forma natural experimentamos se encuentran en las consciencias personales, en las mentes, en todos los yo y tu particulares y concretos…el hecho consciente universal no es “los sentimientos y los pensamientos existen”, sino “yo pienso” y “yo siento”. De ahí, sin lugar a ninguna duda surge, la idea de que cada cual, dentro de su mente, se inventa su realidad del mundo que le rodea.
Algunos se montan en barco y se ven cayendo por una catarata
Otros creen viajar hacia fantásticos mundos
Otros se limitan a disfrutar del paisaje y disfrutar de su tiempo libre
No todos, ante la misma situación, vemos lo mismo. Es un buen reflejo de la arrogancia humana el hecho de que se hayan erigido sistemas filosóficos enteros sobre la base de una fenomenología subjetiva: la experiencia consciente de un solo individuo con inclinaciones filosóficas. Tal como Descartes reconoció y estableció como punto de partida, esta arrogancia es justificada, por cuanto nuestra experiencia consciente es la única ontología sobre la cual tenemos evidencia directa. La inmensa riqueza del mundo fenoménico que experimentamos -la experiencia consciente como tal- parece depender de una nimiedad del menaje de ese mundo, un trozo de tejido gelatinoso del interior del cráneo.
Sí, estamos condicionados por el entorno, las experiencias, la información…¡Los sentidos!
Nuestro cerebro, un actor “secundario” y “fugaz” que casi ninguno llega a ver sobre el escenario de la conciencia, parece ser el guardián del teatro entero. Como a todos se nos hace dolorosamente obvio cuando nos vemos ante una escena de desgracia humana, en un ser querido cercano, supondrá una agresión al cerebro y puede modificar permanentemente todo nuestro mundo. De ahí, el hecho cierto, de que las sensaciones tales como los sentimientos o el dolor, inciden de manera directa, a través de los sentidos, en nuestra consciencia que, como decimos, siempre es particular e individualizada, nadie podrá nunca compartir su consciencia y, sin embargo ésta, estará también siempre, supeditada al mundo que la rodea y de la que recibe los mensajes que, aún siendo los mismos, cada cual nos interpretará a su manera muy particular y, al mismo tiempo, dentro de unos cánones pre-establecidos de una manera común de ver y entender el mundo al que pertenecemos.
Amigos, tenemos una jungla en la cabeza, y, su enmarañada ramificación es tan descomunalmente compleja que, de momento, lo único que podemos hacer es ir abriéndonos camino a machetazos de la ciencia que, sin duda alguna, finalmente nos permitirá deambular por esa intrincada selva que llamamos cerebro y que es la residencia de nuestras mentes ese lugar donde generan las ideas, los pendsamientos y los sentimientos.
En un trabajo anterior debajo de esta imagen decía:
“Los procesos científicos que comentamos en este lugar, los fenómenos del Universo que hemos debatido y, también, los misterios y secretos que el inmenso Cosmos nos oculta han contribuido, aunque inadvertidamente, a comprometer e involucrar a nuestra especie en la vastedad del universo. La astronomía ha venido a descorrer el velo, que supuestamente, aislaban la Tierra de los ámbitos etéreos que están situados mucho más allá de la Luna, todo eso, nos llevó lejos al auténtico Universo que ahora, sí -parece que- conocemos. La Física cuántica llegó para destruir esa barrera invisible que separaba lo grande de lo muy pequeño y que supuestamente, separaba al observador distante del mundo observado; descubrimos que estamos inevitablemente enredados en aquello que estudiamos.”
No siempre es conveniente un exceso de información
Como veréis, aquello que aquí decía, viene a corroborar que, nuestras mentes, están inmersas en el “mundo” que nos rodea, en el Universo que nos acoge y del que queremos saber a través de la información que nos transmiten los sentidos y, siendo consciente de la inmensa tarea que hemos echado sobre nuestras espaldas, también hemos llegado a saber que será “casi” imposible cumplirla. Sin embargo, esa otra parte del cerebro que intuye y siembra en nuestras mentes ilusiones, hace que no desfallezcamos, sino que, al contrario, cada día y con cada nuevo descubrimienro, nuestra fuerza crece y se ve revitalizada en esa ilusión de saber…¡cómo puede ser el mundo, la Naturaleza, el Universo!
¡Ah! Eso sí, algunos tienen una conciencia acomodaticia, ya que, en caso contrario, ¿cómo explicar sus comportamientos?
emilio silvera
Feb
22
El placer de Descubrir: Aventurarse por nuevos caminos.
por Emilio Silvera ~ Clasificado en El Universo asombroso ~ Comments (2)
Es posible que lo que nosotros llamamos materia inerte, no lo sea tanto, y, puede que incluso tenga memoria que transmite por medios que no sabemos reconocer. Esta clase de materia, se alía con el tiempo y, en cada momento adopta una forma predeterminada y de esa manera sigue evolucionando hasta llegar a su máximo ciclo o nivel en el que, de “materia inerte” llega a la categoría de “materia viva”, y, por el camino, ocupará siempre el lugar que le corresponda. No olvidemos de aquel sabio que nos dijo: “todas las cosas son”. El hombre, con aquellas sencillas palabras, elevó a todas las cosas a la categoría de SER.
¡Ah! ¿Pero sabemos?
¿Qué nos separa de otras especies? ¿Somos acaso unos privilegiados? Lo cierto es que, al no entender a esos otros seres, no podemos opinar sobre los que ellos puedan ser en realidad, ni en qué mundo viven.
Neuronas sin fin (cien mil millones) que generan conexiones e impulsos eléctricos que, como vehículos lúmínicos transportan ideas y sentimientos
La vida, también ha ocupado una buena de nuestro tiempo en este lugar y hemos hablado de ella, de la que está presente en nuestro planeta y, de la posible “vida extraterrestre”, posibilidad enorme en este universo nuestro, y, con esas y otras cuestiones de interés, hemos hecho camino juntos, en armonía y siempre tratando de conseguir ese saber que es el sustento de nuestra enorme curiosidad. Claro que, la Física, esa disciplina que nos dice como funciona la Naturaleza, ocupó una gran parte del recorrido.
Hemos construido un Modelo del Universo que podría, o no, ser el real
Para s seguir avanzando es importante reconocer que, no sabemos tanto como creemos saber. Nuestras Teorías de hoy, serán mañana sustituidas por otras nuevas teorías que se implantarán en nuestras vidas cotidianas a medida que vayamos descubriendo cómo es la Naturaleza y desvelando sus secretos. Todavía, son muchas más las preguntas que las respuestas.
El ADN transporta la información que nos habla del pasado y del origen
Mediante el estudio y la observación se pudo comprobar que la cantidad de ADN era la misma para todas las células somáticas de los individuos de una determinada especie, mientras que los gametos sólo tenían la mitad. Así mismo, los estudios de Erwin Chargaff sobre las similitudes en las proporciones de bases nitrogenadas presentes en el ADN de los individuos de la misma especie parecían confirmar la relación existente entre esta molécula y la información genética.
La prueba definitiva fue obtenida en 1952 por Alfred Hershey y Martha Chase, quienes demostraron de forma concluyente que el ADN, y no una proteína, era el material genético del bacteriófago T2. Al año siguiente, James Watson y Francis Crick elaboraron su famoso modelo de doble hélice
El Universo, la Ciencia…Nosotros.
Científicos que estudian cómo podría ser la vida vegetal en un planeta similar a la Tierra con dos o tres ‘soles’ han encontrado que podría verse negra o gris, si el sistema está dominado por una enana roja.
Las maravillas del universo son inagotables, y muy lentamente tenemos acceso a ellas. Hay lugares con tres soles de distintos colores: amarillo (como el nuestro), azul y verde, o blanco y rojo. Hay dos que casi se están tocando, sólo los separa una ligera y brillante materia cósmica que parece pura luz. Hay un mundo que tiene miles de lunas, y no muy lejos de él brilla un Sol que no es mayor que nuestro planeta Tierra. He podido ver un núcleo atómico de 3.000 m de diámetro que gira 160 veces por segundo. Hay soles que se desplazan por el universo a velocidades enormes y bacterias que escapan de las galaxias y vagan por el cosmos hasta encontrar un planeta donde instalarse. Las nubes de gas y polvo inundan los espacios entre las galaxias, y después de girar durante miles de millones de años, se juntan y forman nuevas galaxias de estrellas y planetas.
Es ampliamente sabido que el planeta Tierra actúa como un gran imán cuyas líneas de campo geomagnético surgen de un polo (el polo sur magnético) y convergen en el otro polo (polo norte magnético). El eje longitudinal de este imán tiene una desviación de aproximadamente 11^o con respecto al eje de rotación. Por ello, los polos del campo magnético generado no coinciden exactamente con los polos geográficos.
Este campo geomagnético es producido por la combinación de varios campos generados por diversas fuentes, pero en un 90% es generado por la parte exterior del núcleo de la Tierra (llamado Campo Principal o “Main Field”).
Por otra parte, la interacción de la ionosfera con el viento solar y las corrientes que fluyen por la corteza terrestre componen la mayor parte del 10% restante. Sin embargo, durante las tormentas solares (eventos de actividad solar exacerbada) pueden introducirse importantes variaciones en el campo magnético terrestre.
“Quien ha visto las cosas presentes ha visto todo, todo lo ocurrido desde la eternidad y todo lo que ocurrirá en el tiempo sin fin; pues todas las cosas son de la misma clase y la misma manera ”.
Marco Aurelio
Claro que él, quería significar que todo, desde el comienzo del mundo, ha sido igual, sigue unos patrones que se repiten una y otra vez a lo largo del transcurso de los tiempos: el día y la noche, las estaciones, el frío y el calor, el río muerto por la sequía o aquel que, cantarino y rumoroso ve correr sus aguas cristalinas hasta que desembocan en la Mar. La Bondad y la maldad… Y, también, el Hombre y la Mujer. Así ha sido desde que podemos recordar y, así continuará siendo.
Para fugarnos de la Tierra
un libro es el mejor bajel;
y se viaja mejor en el poema
que en más brioso corcel.
Whitman
“Todo presente de una sustancia simple es naturalmente una consecuencia de su estado anterior, de modo que su presente está cargado de su futuro.”
Leibniz
Niels Bohr, citando a Gohete preguntaba: ¿Cuál es el camino? No hay ningún camino. Está claro el mensaje que tal pregunta y tal respuesta nos quiere hacer llegar, el camino, tendremos que hacerlo nosotros mediante la exploración hacia el futuro en el que está lo que deseamos encontrar. Hay que explorar y arriesgarse para tenemos que ir más allá de las regiones habituales y conocidas que nos tienen estancados siempre en el mismo lugar. ¡Arrisguémosno!
Ulises de Ítaca se arriesgó a oír el canto de las sirenas amarrado al palo de la vela mayor de su embarcación.
Personajes mitológicos que se mezclaban con la realidad al contar las epopeyas
Pero, no cabe duda alguna de que, el acto de exploración modifica la perspectiva del explorador; Ulises, Marco Polo y Colón habían cambiado cuando volvieron a sus lugares de partida . Lo mismo ha sucedido en la investigación científica de los extremos en las escalas, desde la grandiosa extensión del espacio cosmológico hasta el mundo minúsculo y enloquecido de las partículas subatómicas.
Una bella galaxia espiral de cien mil años-luz de diámetro que podemos comparar con…Un átomo.
En ambos “universos” existe una descomunal diferencia en los extremos de las escalas. Sin embargo, la inmensa galaxia de arriba no sería posible sin la existencia de infinitesimal átomo de abajo. ¡Todo lo grande está hecho de cosas pequeñas!
Así que, cuando hacemos esos viajes, irremediablemente nos cambian, y, desde luego, desafían muchas de las concepciones científicas y filosóficas que, hasta ese momento, más valorábamos. Algunas tienen que ser desechadas, como el bagaje que se deja atrás en una larga travesía por el desierto. Otras tienen que ser modificadas y reconstruidas hasta quedar casi irreconocibles, ya que, lo que hemos podido ver en esos viajes, lo que hemos descubierto, nos han cambiado por completo el concepto y la perspectiva que del mundo teníamos, conocemos y sabemos.
La exploración del ámbito de las galaxias extendió el alcance de la visión humana en un factor de 1026 veces mayor que la escala humana, y produjo la revolución que identificamos con la relatividad, la cual reveló que la concepción newtoniana del mundo sólo era un parroquianismo en un universo más vasto donde el espacio es curvo y el tiempo se hace flexible.
La exploración del dominio subatómico nos llevó lejos en el ámbito de lo muy pequeño, a 10-15 de la escala humana, y también significó una revolución. fue la Física cuántica que, transformó todo lo que abordó.
La teoría cuántica nació en 1900, Max Planck comprendió que sólo podía explicar lo que llamaba la curva del cuerpo negro -el espectro de energía que genera un objeto de radiación perfecta- si abandonaba el supuesto clásico de que la emisión de energía es continua, y lo reemplazó por la hipótesis sin precedentes de que la energía se emite en unidades discretas. Planck llamó cuantos a estas unidades.
1) Figura animada que representa un rayo de luz incidiendo sobre un cuerpo negro hasta su total absorción. 2) En la gráfica se representa la intensidad de la radiación emitida por el cuerpo negro en función de la longitud de onda a diferentes temperaturas. El máximo de la curva aumenta al ir hacia menores longitudes de onda (Ley de Wien). Se compara con el modelo clásico de Rayleigh-Jeans a altas temperaturas (5000 K) comprobándose la llamada catástrofe del ultravioleta
La constante de Planck es una constante física que desempeña un papel central en la teoría de la mecánica cuántica y recibe su nombre de su descubridor, Max Plancc, uno de los padres de dicha teoría. Denotada como , es la constante que frecuentemente se define como el cuanto elemental de acción. Planck la denominaría precisamente «cuanto de acción»
Fue inicialmente propuesta como la constante de proporcionalidad entre la energía de un fotón y la frecuencia de su onda electromagnética asociada. Esta relación entre la energía y la frecuencia se denomina «relación de Planck»:
Dado que la frecuencia , la longitud de onda y la velocidad de la luz cumplen lambda la relación de Planck se puede expresar como:
- lambda}.
Otra ecuación fundamental en la que interviene la constante de Planck es la que relaciona el momento lineal de una partícula con la longitud de onda de De Broglie λ de la misma:
En aplicaciones donde la frecuencia viene expresada en términos de radianes por segundo o frecuencia angular, es útil incluir el factor 1/2 dentro de la constante de Planck. La constante resultante, «constante de Planck reducida» o «constante de Dirac», se expresa como ħ (“h barra“):
De esta forma la energía de un fotón con frecuencia angular omega” />, donde omega = 2 \pi . f”
Por otro lado, la constante de Planck reducida es el cuanto del momento angular en mecánica cuántica.
Planck definió a “sus”0 cuantos en términos del “cuanto de acción”, simbolizado por la letra h que ahora, se ha convertido en el símbolo de una constante, la constante de Planck, h. Planck no era ningún revolucionario – a la edad de cuarenta y dos años era un viejo, juzgado por patrones de la ciencia matemática y, además, un pilar de la elevada cultura alemana del siglo XIX-, pero se percató fácilmente de que el principio cuántico echaría abajo buena de la física clásica a la que había dedicado la mayor parte de su carrera. “Cuanto mayores sean las dificultades -escribió-…tanto más importante será finalmente para la ampliación y profundización de nuestros conocimientos en la física.”
Sus palabras fueron proféticas: cambiando y desarrollándose constantemente, modificando su coloración de manera tan impredecible como una reflexión en una burbuja de , la física cuántica pronto se expandió practicamente a todo el ámbito de la física, y el cuanto de acción de Planck, h llegó a ser considerado una constante de la Naturaleza tan fundamental como la velocidad de la luz, c, de Einstein.
Dos buenos amigos, dos genios
Max Planck es uno de los científicos a los que más veces se le han reconocido sus méritos y, su , está por todas partes: La Constante de Planc, las Unidades de Planck, El cuanto de Planck, la Radiación de Planck, El Teimpo de Planck, la masa de Planck, la Energía de Plancik, la Longitud de Planck… ¡Todo merecido!
Confinados en nuestro pequeño mundo, una mota de polvo en la inmensidad de una Galaxia grandiosa que, a su vez, forma parte de un universo “infinito”, hemos podido darnos traza para poder saber, a pesar de las enormes distancias, sobre lo que existe en regiones remotas del Universo. Un Universo formado por Supercúmulos de galaxias que formadas en grupos conforman la materia visible, y, dentro de cada una de esas galaxias, como si de universos se tratara, se reproducen todos los objetos y fenómenos que en el Universo son.
The Scale of the Universe 2 – HTwins.net
Sigamos con la escala del Universo conocido y hagamos un pequeño esquema que lo refleje: El Universo Observable, la mayor escala que abarca más de 100 mil trillones de kilómetros (según nos cuenta Timothy Ferris:
Radio en metros Objetos característicos
1026 Universo observable
1024 Supercúmulos de Galaxias
1023 Cúmulos de Galaxias
1022 Grupo de Galaxias (por ejemplo el Grupo Local)
1021 Galaxia La Vía Láctea
Nube Molecular gigante muy masiva, de gas y polvo compuesta fundamentalmente de moléculas con diámetro típico de 100 a.l. Tienen masa de diez millones de masas solares (moléculas de Hidrógeno (H2) el 73% en masa), átomos de Helio (He, 25%), partículas de polvo (1%), Hidrógeno atómico neutro (H I, del 1%) y, un rico coctel de moléculas interestelares. En nuestra galaxia existen al menos unas 3000 Nubes Moleculares Gigantes, estando las más masivas situadas cerca de la radiofuente Sagitario B en el centro Galáctico.
1018 Nebulosas Gigantes, Nubes Moleculares
1012 Sistema Solar
1011 Atmósfera externa de las Gigantes rojas
Aunque a una Unidad Astronómica de distancia (150 millones de Kilómetros de la Tierra), el Sol caliente el planeta y nos da la vida
109 El Sol
108 Planetas Gigantes Júpiter
107 Estrellas enanas, planetas similares a la Tierra
105 Asteroides, núcleos de cometas
104 Estrellas de Neutrones
Los seres humanos son parte del Universo que queremos descubrir.
1 Seres Humanos
10-2 Molécula de ADN (eje largo)
10-5 Células vivas
Células vivas
10-9 Molécula de ADN (eje corto)
10-10 Átomos
10-14 Núcleos de átomos pesados
10-15 Protones y Neutrones
10-35 Longitud de Planck: cuanto de espacio; radio de
partículas sin dimensiones = la cuerda.
Es la escala de longitud a la que la descripción clásica de la Gravedad cesa de ser válida y debe ser tenida en la mecánica cuántica. Está dada por la ecuación de arriba, donde G es la constante gravitacional, ħ es la constante de Planck racionalizada y c es la velocidad de la luz. El valor de la longitud de Planck es del orden de 10-35 m (veinte órdenes de magnitud menorque el tamaño del protón 10-15 m).
Me llama la atención y me fascina la indeterminación que está inmersa en el mundo cuántico. La indeterminación cuántica no depende del aparato experimental empleado investigar el mundo subatómico. Se trata, en la medida de nuestro conocimiento, de una limitación absoluta, que los más destacados sabios de una civilización extraterrestre avanzada compartirían con los más humildes físicos de la Tierra.
Por muy avanzados que pudieran estar, ellos también estarían supeditados al Principio de Incertidumbre o Indeterminación cuántica, y, como nosotros, cuando trataran de encontrar (sea cual fuese las matemáticas o sistemas que emplearan para hallarlo) el resultado de la constante de estructura fina, el resultado sería el mismo: 137, puro y adimensional.
Todo esto nos ha llevado a la más firme convicción definir la visión del mundo de la física que nos revelaba que no sólo la materia y la energía sino que también el conocimiento están cuantizados. Cuando un fotón choca con un átomo, haciendo saltar un electrón a una órbita más elevada, el electrón se mueve de la órbita inferior a la superior instantáneamente, sin tener que atravesar el espacio intermedio. Los mismos radios orbitales están cuantizados, y el electrón simplemente deja de existir en un punto para aparecer simultáneamente en otro. Este es el famoso “salto cuántico” que tanto desconcierta, y no es un mero problema filosófico, es una realidad que, de , no hemos llegado a comprender.
No, esto no es un salto cuántico. Simplemente le tocó la Lotería
Pero, ¿quién sabe? Quizás un día lejano aún en el tiempo, cuando descubramos el secreto que salto cuántico nos esconde, podremos aprovechar la misma técnica que emplea la Naturaleza con los electrones hacer posible que se transporten de un lugar a otro sin tener que recorrer las distancias que separan ambos destinos.
Estaría bien poder trasladarse las estrellas por ese medio
Bueno, pongamos los pies en el suelo, volvamos a la realidad. La revolución cuántica ha sido penosa, pero podemos agradecerle que, nos haya librado de muchas ilusiones que afectaban a la visión clásica del mundo. Una de ellas era que el hombre es un ser aparte, separado de la naturaleza a la que en realidad, no es que esté supeditado, sino que es, ella. ¡Somos Naturaleza!
Está claro, como nos decía Immanuel Kant que:
“La infinitud de la creación es suficientemente grande como para que un mundo, o una Vía Láctea de mundos, parezca, en comparación con ella, lo que una flor o un insecto en comparación con la Tierra.”
Algún día podríamos desaparecer en una especie de plasma como ese de la imagen y salir al “otro lado” que bien (¡Por qué no) podría ser otra galaxias lejana. Creo que la imaginación se nos ha dado para algo y, si todo lo que podemos imaginar se realizar, la conclusión lógica es que sólo necesitamos ¡Tiempo!
Sí, amigos míos, la Naturaleza vive en constante movimiento, y, nosotros, que formamos de ella…También.
En tiempos y lugares totalmente inciertos,
Los átomos dejaron su camino celeste,
Y mediante abrazos fortuítos,
Engendraron todo lo que existe.
Maxwell
Doy las gracias a Timothy Ferris de cuyo libro, la Aventura del Universo, he podido obtener bellos pasajes que aquí, quedan incluídos.
emilio silvera
Feb
22
¡Qué historias! ¡Qué personajes!
por Emilio Silvera ~ Clasificado en Rumores del Saber ~ Comments (1)
Los navegantes, tal como narraba Shakespeare, gustaban de exagerar sus experiencias y hablaban de hombres cuyas cabezas nacían abajo de los hombros, o que no tenían cabeza, o de aquellos que, como los patagones, sólo tenían un pie muy grande, o los de Labrador, que tenían cola. Todo esto originó un “renacimiento de la superstición”. Aquellos viajeros crearon en sus mentes, que los situaban en las Américas, nuevos órdenes de razas monstruosas de animales fantásticos. Dado que es casi tan difícil inventarse un animal nuevo como descubrirlo, a las criaturas míticas y folkloricas conocidas se les añadieron otros rasgos imaginarios.
Aquellos navegantes aventureros arriesgaban sus vidas por conocer nuevas tierras
Así, la era del descubrimiento trajo consigo un renacimiento de la fábula. Las serpientes marinas de ciento cincuenta metros de largo se multiplicaron como nunca, y, era raro el marinero que habiendo viajado a lejanos horizontes de nuevas tierras, no contaba, al regreso, fantásticas historias de animales que sobrepasaban la fantasía de la imaginación más creadora: Sirenas y Tritones, Unicornios y hasta bellas mujeres de larga cabellera que andaban suavemente por encima del agua de maravillosos lagos de cascadas de increíble belleza.
En épocas pasadas, las historias de animales mitológicos eran frecuentes
Las leyendas dudosas eran ahora confirmadas por jesuítas misioneros, por adinerados plantadores de azúcar y por sobrios capitanes de barcos. A las quimeras de la fantasía medieval se añadían ahora criaturas reales cuyas noticias llegaban con cada viaje procedente de las Américas. Los que no leían latín podían disfrutar de las numerosas ilustraciones que acompañaban a los textos.
Imágenes como estas eran las que adornaban aquellas pioneras publicaciones en las que, se contaban las historias de marineros-aventureros que, viniendo de lugares lejanos, siempre traían consigo narrativas de leyendas que dejaban boquiabiertos a los lectores u oyentes de las mismas.
Todo aquello inspiró el surgir de una nueva generación de enciclopedistas de la Naturaleza. El más destacado de todos ellos, Konrad Gesner (1516-1565), tenía habilidad para combinar lo nuevo con lo antiguo. Gesner, que conocía extraordinariamente bien varias lenguas, se debatía entre lo que había leído y lo que veía.
A los 20 años escribió un diccionario Griego-Latin. Durante los treinta años que siguieron produjo treinta violúmes sobre todos los temas imaginables. Su monumental Biblioteca Universal en cuatro volúmes (1545-1555) pretendía ser un catálogo de todos los escritos producidos en griego, latin y hebreo a lo largo de la historia.
Gesner clasificó mil ochocientos autores y los tiítulos de us obras manuscritas e impresas, acompañadas de un resumen de su contenido. De este modo ganó el título de “padre de la bibliografía”. La bibliografía sería para las Bibliotecas lo que la cartografía para los exploradores de la tierra y de los mares.
En la Biblioteca de los Fugger, Gesner encontró un manuscrito griego enciclopédico del siglo II que le inspiró para convertirse en un Plinio moderno. Por fin, su Historia Animalium, que seguía la disposición de Aristóteles, recogíam todo lo que se conocía, especulaba, imaginaba o contaba de cada uno de los animales conocidos. Como Plinio, Gesner produjo una miscelánea, pero añadió los datos que se habían acumulado en el milenio y medio transcurrido desde entonces. Sin bien era algo más crítico que Plinio, él tampoco desmintió las leyendas increíbles, y mostró una serpiente marina de noventa metros de largo. Pero describió la caza de ballenas e incorporó la primera ilustración de una ballena que estaba siendo despellejada para obtener la grasa.
Unicornios y otras fantásticas criaturas que llenaban las mentes
Siempre nos gustó evadirnos del mundo con historias que transportaba nuestra mente a fantásticos lugares. Estamos en el siglo XXI, y a pesar de los adelantos alcanzados, historias como las que nos cuentan en la Serie Juego de Tronos, con fantásticos Dragones, es seguida por millones de espectadores que, queriendo evadirse de este mundo, se sumergen, por un rato, en esas leyendas de mitos y fantasías.
Pero sigamos con la historia que contamos: La duradera influencia de la obra de Gesner emanaba de su sentido del folklore y de su capacidad para presentar la fantasía y la realidad con la misma convincente veracidad. Cuando alguien escribe con pasión y plasma en el papel lo que siente, de alguna manera, es más fácil que pueda llegar al lector que, presiente, el mensaje que el autor le quiere hacer llegar.
Al cabo de un siglo, el lector inglés ya tenía acceso a la popular enciclopedia de Gesner gracias a la traducción de Edward Topsell, que éste tituló Historias de las bestias de cuatro patas, de las serpientes y de los insectos, 1658. Allí podemos saber con respecto a la gorgona que…
…se planteó la cuestión de si el veneno que había emitido procedía de su aliento o de los ojos. Es más probable que, como el basilisco, matara con la mirada y también lo hiciera con el aliento de su boca, lo cual no es comparable con ninguna otra bestia del mundo… Al considerar esa bestia, se demostró de modo evidente la divina sabiduria y providencia del Creador, que había vuelto los ojos de esta criatura hacia la tierra, como si así enterrara su veneno y evitara que dañara al hombre, y los había ensombrecido con un cabello fuerte, largo y áspero, para que los rayos envenenados no pudieran dirigirse hacia arriba, hasta que la bestia se viera azuzada por el miedo o la ira…
Tras recurrir al indiscutible testimonio del salmo nonagésimo segundo, Gesner declara que los Unicornios son sagrados porque “reverencian a las vírgenes y a las jóvenes doncellas” y muchas veces al verlas se vuelven mansos y se acercan a dormir a su lado… ocasión que los cazadores indios y etíopes aprovechan para apoderarse de la bestia. Toman a un hombre joven, fuerte y hermoso, lo visten de mujer y lo adornan con diversas flores y especias olorosas”.
De la obra de Gesner De historias imaginativas del pasado
Pese a la fantasía de su texto, el millar de grabados de Gesner contribuyó a que la biología tomara un rumbo distinto. Al igual que los padres alemanes de la botánica, Gesner colaboró con los artistas y presentó los dibujos más realistas hechos hasta el momento de todos los tipos de criaturas, desde el “vulgar ratoncillo” al sátiro, la esfinge, el gato, el topo y el elefante. Durero fue el autor de su ilustración del rinoceronte, “la segunda maravilla de la naturaleza…como el elefante era la primera”. Estos incunables de la ilustración biológica empezaron a liberar a los lectores de los herbarios y los bestiarios.
La obra de Gesner, reimpresa, traducida y resumida, dominó la zoología postaristotélica hasta los innovadores estudios modernos de Ray y Linneo, que no estaban ilustrados. Sus notas inéditas fueron la base, el el siglo siguiente, del primer tratado completo que se escribió sobre los insectos. Para su Opera Botánica recogió cerca de un millar de dibujos, algunos realizados por él mismo, pero no llegó a terminar su gran trabajo sobre las plantas, que habían sido su primer amor.
Gesner nunca se liberó completamente de su obsesión filológica. En su libro de 158 páginas Mitrídates, u observaciones sobre las diferencias existentes entre las lenguas que han estado o están en uso en las diversas naciones del mundo entero (1555), intentó hacer con las lenguas lo que ya estaba haciendo con los animales y las plantas. Tomando como base su traducción del padrenuestro, Gesner describió y comparó “la totalidad” de las ciento treinta lenguas del mundo. Por vez primera, incluyó un vocabulario del lenguaje de los gitanos.
Nadie nunca se hubiera atrevido a querer visitar las misteriosas cumbres de las montañas
Al revelar públicamente su intención de explorar las altas montañas, que hasta entonces habían inspirado pasmo y terror, Gesner halló un modo típicamente suizo de descubrir la naturaleza. La Europa renacentista había presenciado un breve y prematuro surgir de la fascinación por la aventura de las montañas. Petrarca (1304-1374) había sido el precursor, con su ascensión al monte Ventoux, cerca de Avignon, en 1336. En la cumbre leyó en un ejemplar de las confesiones de san Agustín que se sacó del bolsillo una advertencia dirigida a los hombres que “van a admirar las altas mopntañas y la inmensidad del océano y el curso de los astros… y se olvidan de sí mismos”. Leonardo da Vinci exploró el monte Bo en 1511 con ojos de artista y naturalista. El reformista y humanista suizo Joachim Vadian (1484-1551), amigo de Lutero y defensor de Zwinglio, llegó a la cumbre de Gnepfstein, cerca de Lucerna, en 1555, escribió su pequeña obra clásica.
“Si deseais ampliar vuestro campo de visión, dirigid la mirada a vuestro alrededor y contemplad todas las cosas que hay a lo largo y a lo ancho. No faltan atalayas y riscos, desde donde os parecerá que teneis la cabeza en la nubes. Si, por otra parte, preferís reducir la visión, podeis mirar los prados y los verdes bosques, o adentraros en ellos; y si la quereis reducir todavía más, podeis observar los oscuros valles, las sombrías rocas y las oscuras cavernas… En verdad, en ningún otro lugar se encuentran tal variedad en tan reducido espacio con en las montañas, en las cuales… en un solo día se puede contemplar y sentir las cuatro estaciones del año, verano, otoño, primavera e invierno. Además, desde los picos más altos de las montañas, la cúpula entera de nuestro cielo se tenderá audazmente abierta ante nuestra mirada, y podreis presenciar la salida y la puesta de las constelaciones sin ningún estorbo, y comprobareis que el Sol se pone mucho después y sale mucho antes.”
Pero resultaba tan difícil vencer los temores primitivos que tendrían que transcurrir dos siglos entre las excursiones de Gesner y los verdaderos comienzos del montañismo moderno. El Mont Blanc (4.810 m), el pico más alto de Europa aparte del Cáucaso, no fue escalado hasta 1786 por un montañero que se proponía cobrar la recompensa que había ofrecido un geólogo suizo, Horace-Bénedict de Saussure (1740-1779), veinticinco años antes.
En tanto los naturalistas dispusieran las plantas y los animales por orden alfabético, el estudio de la naturaleza estaba condenado a seguir siendo teórico…Pero, ¡esa es otra historia que no toca hoy!
emilio silvera
Hiostorias como estas son contadas por Daniel J. Boorstin en sus libros titulados Los Descubridores…La Naturaleza. Los podeis encontrar en la Biblioteca de Divulgación Científica (1986 Editorial Crítica, S.A.) ISBN (Obra completa): 84-873-0174-5. Cuatro Caminos s/n. Sant Vicentç dels Hirts (Barcelona).