Oct
20
¡El futuro incierto!
por Emilio Silvera ~
Clasificado en el futuro ~
Comments (8)
A mí, particularmente, me da mucho miedo un futuro en el que las máquinas sean imprescindibles. En este mismo momento ya casi lo son. ¿Qué haríamos sin ordenadores que mediante sus programas dirigen fábricas, llevan todo el movimiento de las Bolsas del mundo y de los bancos, dirigen los satélites del espacio, llevan a cabo complicadas operaciones quirúrgicas y montan y ensamblan elaborados mecanismos industriales? El mundo quedaría paralizado.
Pienso en un mundo mucho más avanzado, dentro de 500 – 1.000 años. ¿Qué habrá pasado con los robots?, máquinas cada vez más perfectas que llegaron a autofabricarse y repararse. ¿Cómo evolucionarán a partir de esos procesadores inteligentes de la nanotecnología? ¿Llegarán algún día a pensar por sí mismos? Ahí puede estar uno de los grandes peligros de la Humanidad.
La invención del robot (del checo, robota, trabajo) se debe al esfuerzo de las sociedades humanas por liberarse de las labores más ingratas y penosas a que se ven obligados algunos de sus individuos. En un principio, la apariencia de los robots sólo atendía a las razones prácticas de las funciones que cada modelo tenía que desempeñar, o sea, su morfología estaba aconsejada por criterios funcionales y prácticos.
Una vez superada la primera fase, el hombre trata de fabricar robots que cada vez sean más semejantes a su creador, y aunque las primeras figuras han sido algo groseras y poco hábiles en sus movimientos, poco a poco se va perfeccionando la imitación de los humanos.
Un robot se diferencia fundamentalmente de una máquina por su capacidad para funcionar de modo automático sin la acción permanente del hombre. Los primeros robots se mostraron especialmente válidos para llevar a cabo aquellos trabajos sencillos y repetitivos que resultaban tediosos y pesados al hombre (al Ser Humano mejor). También son ideales para el trabajo en el que se está expuesto a cierto peligro o se trabaja con materiales peligrosos en lugares nocivos para los seres vivos
Nuevas generaciones de robots que…, ¿comienzan a ser peligrosos?
Las máquinas del futuro nos pueden superar. Hemos comenzado a inventar robots que, cada vez son más sofisticados y tienen más prestaciones y, de seguir por ese camino, de no poner unas reglas claras, precisas u rígidas sobre el límite…las cosas podrían salir mal.
Una de las condiciones esenciales que debe tener una máquina-robot para ser considerada como tal es la posibilidad de ser programada para hacer tareas diversas según las necesidades y la acción que de ellos se requieran en cada situación. Y, si llegan a poseer la potestad de pensar por sí mismas, de repentizar soluciones no programadas, de sentir y ser conscientes…¡malo!
Dentro de algunas decenas de años, por ejemplo, no será necesario que ningún astronauta salga al espacio exterior para reparar estaciones espaciales o telescopios como hacen ahora, con riesgo de sus vidas, con el Hubble.
El miedo a los robots del futuro que antes citaba está relacionado con el hecho de que la robótica es el estudio de los problemas relacionados con el diseño, aplicación, control y sistemas sensoriales de los robots.
Ya van quedando muy viejos aquellos robots de primera generación (en realidad brazos mecánicos), muy utilizados en labores de menos precisión de la industria automovilística. Hoy día, los robots que se fabrican, están provistos de sofisticados sistemas “inteligentes” que son capaces de detectar elementos e incluso formas de vida rudimentarias. El proyecto de la NASA en el río Tinto es un ejemplo de ello; allí han utilizado pequeños robots capaces de comunicar datos científicos de los hallazgos en el fondo de un río. Actúan mediante programas informáticos complejos o no, que hacen el trabajo requerido.
Supermáquinas que pueden desarrollar trabajos imposibles
Las necesidades de la industria aeronáutica, poco a poco, han ido exigiendo sistemas de mayor precisión, capaces de tomar decisiones adecuadas en un entorno predefinido en función de las condiciones particulares de un momento dado. Estos ingenios, llamados de segunda generación, poseen instrumentos propios y programación informática dotada de medios de autocorrección frente a estímulos externos variables.
Los sensores utilizados por los sistemas robóticas de segunda generación son, con frecuencia, equipos de cámaras electrónicas digitales que convierten la imagen luminosa recibida desde el exterior en impulsos eléctricos que se comparan con patrones almacenados en un pequeño núcleo de memoria informática. Así mismo, disponen de instrumentos táctiles de alta sensibilidad y de detección de pesos y tensiones.
Incluso en otros planetas a millones de distancia de la Tierra, realizan los trabajos programados
Los robots de tercera generación emplean avanzados métodos informáticos, los llamados sistemas de inteligencia artificial, y procedimientos de percepción multisensorial (estoy leyendo una maravillosa tesis doctoral de un ingeniero de materiales – hijo de un buen amigo – que es fascinante, y me está abriendo la mente a nuevos campos y nuevos conceptos en el ámbito de la inteligencia artificial. Su nombre es A. Mora Fernández, y tiene la suerte de ser, además, un físico teórico matemático, con lo cual, según lo que puedo deducir de su trabajo, le espera grandes empresas y mi deseo personal es que triunfe en ese complejo mundo de fascinantes perspectivas al que pertenece).
Estos ingenios de tercera generación adoptan algunas características del comportamiento humano al contar con la capacidad para percibir la realidad del entorno desde varias perspectivas y utilizar programas que rigen su propia actuación de modo inteligente. Conscientes de su situación espacial, los robots de tercera generación comprenden directamente el lenguaje humano y lo utilizan para comunicarse con las personas.
Los Androides del futuro. ¿Tendrán autonomía de pensamiento?
La ciencia robótica, basándose en avanzados principios de la electrónica y la mecánica, busca en la constitución y modo de funcionamiento del cuerpo y del cerebro humano los fundamentos con los que diseñar androides de posibilidades físicas e intelectivas semejantes a los del ser humano.
Nada de esto es ciencia ficción; es lo que hoy mismo ocurre en el campo de la robótica. Aún no podemos hablar de robots con cerebros positrónicos capaces de pensar por sí mismos y tomar decisiones que no le han sido implantados expresamente para responder a ciertas situaciones, pero todo llegará. Ya tienen velocidad, flexibilidad, precisión y número de grados de libertad. ¿Qué hasta donde llegarán? ¡Me da miedo pensar en ello!
Pronto nos costará distinguirlos
Mecánicamente, el robot ya supera al ser humano; hace la misma tarea, con la misma velocidad y precisión o más que aquél, y tiene la ventaja de que no se cansa, puede continuar indefinidamente desempeñando la tarea en lugares que para nosotros serían imposibles por sus condiciones extremas.
Menos mal que, de momento al menos, el cerebro del ser humano no puede ser superado por un robot, ¿pero será para siempre así? Creo que el hombre es un ser que, llevado por sus ambiciones, es capaz de cometer actos que van encaminados a lograr la propia destrucción y, en el campo de la robótica, si no se tiene un exquisito cuidado, podemos tener un buen ejemplo.
Antes de dotar a estas máquinas de autonomía de obrar y de pensar, debemos sopesar las consecuencias y evitar, por todos los medios, que un robot pueda disponer como un ser humano del libre albedrío, como artificial que es, siempre debe estar limitado y tener barreras infranqueables que le impidan acciones contrarias al bienestar de sus creadores o del entorno.
Es muy importante que los sistemas sensoriales de los robots estén supeditados a los límites y reglas requeridas por los sistemas de control diseñados, precisamente, para evitar problemas como los que antes mencionaba de robots tan avanzados y libre pensadores e inteligentes que, en un momento dado, puedan decidir suplantar a la Humanidad a la que, de seguir así, podrían llegar a superar.
Esta simpática imagen ya ha sido superada
Pensemos en las ventajas que tendrían sobre los humanos una especie de robots tan inteligentes que ni sufrirían el paso del tiempo ni les afectaría estar en el vacío o espacio exterior, o podrían tranquilamente, al margen de las condiciones físicas y geológicas de un planeta, colonizarlo fácilmente, aunque no dispusiera de atmósfera, ya que ellos no la necesitarían y, sin embargo, podrían instalarse y explotar los recursos de cualquier mundo sin excepción. ¡Menuda ventaja nos llevarían! Además, lo mismo que nosotros nos reproducimos, los robots se fabricarán unos a otros. Ni las famosas tres leyes de Asimos me tranquilizan… ¿Las recuerdan?
- Ningún robot puede dañar a un ser humano,
- ni permitir con su inacción que un ser humano sufra daño…
Pero, ¿quién puede asegurar que con los complejos y sofisticados sensores y elementos tecnológicos avanzados con los que serán dotados los robots del futuro, éstos no pensarán y decidirán por su cuenta? ¡Creo que nadie está en situación de asegurar nada! La amenaza está ahí, en el futuro, y el evitarla sólo depende de nosotros, los creadores. ¡Es tanta nuestra ignorancia!
Ciertamente hemos imaginado mundos futuros en los que, no parece que las tres leyes de la robótica puedan preservar la integridad física de los humanos. Si los robots alcanzan ese nivel autónomo de pensamiento… Sería, ¡la rebelión de las máquinas! tantas veces vista en la ficción del cine.
¿Que puede impedir que en el futuro los robots tengan conciencia de ser, o, incluso, sentimientos?
Parece mentira que, alguna vez, lleguen a sentir…llorar o reir
Mirando a mi alrededor, de manera clara y precisa, puedo comprobar que el mundo biológico está compuesto por una variedad de seres que, siendo iguales en su origen, son totalmente distintos en sus formas y en sus mentes, y, de la misma manera, al igual que en nuestro planeta Tierra, pasará en otros situados en regiones remotas del espacio. Y, pensando en nuestras vidas, podemos llegar a preguntarnos si todo ésto tiene algún sentido. ¿Para qué tanto esfuerzo y trabajo? ¿No será que estamos preparando el terreno para “seres” artificiales que, mejor dotados que nosotros para salir al espacio exterior, serán los que suplanten a la Humanidad y cumplan finalmente los sueños de ésta, que harán suyos?.
¡Qué lastima! Si ese fuera nuestro destino. ¡Fabricar a una especie artificial para que cumpliera nuestros deseos! Lo cierto es que, nosotros los humanos, no estamos físicamente preparados para viajar a las estrellas, y, de hacerlo, necesitaríamos dotarnos de tanta seguridad que, los costes, serían impensables. Naves como ciudades que nos transportaran muy lejos, y, pensando en que estamos supeditamos a la velocidad de la luz, estas naves-ciudades estarían preparadas para mantener a generaciones.
Ciudades que surcan el hiperespacio
Nuestro futuro es muy incierto, y, como podemos ver cada día, estamos supeditados a los caprichos de la Naturaleza. Conceptualmente, la biología generalmente va a la saga de la física. Si bien es cierto que las ideas de Darwin sobre la evolución han desplazado la concesión trasnochada y, ¿por qué no?, anti-ilustrada de la creación espacial, pero es cierto que bien entrado el siglo XX, muchos biólogos todavía pensaban instintivamente que los seres humanos representaban la culminación de la evolución, y que nuestra especie no era simplemente el centro del desarrollo evolutivo sino, en realidad, su razón de ser. Y, tales pensamientos, nos pueden dar una idea muy clara del nivel de sabiduría del que podemos presumir.
Ahora sabemos que nuestra contribución al árbol genealógico de la vida es tan periférica y minúscula como la de la Tierra en el Universo. El árbol, tal como lo podemos ver hoy, es realmente frondoso. Desde que surgió la vida en la Tierra, probablemente haya producido cientos de miles de millones, quizás billones, de ramitas, donde cada ramita representa una especie, y Homo sapiens es sólo una más entre ellas. En pocas palabras, nuestra especie ha sido tan cabalmente “periferalizada” por la biología como lo ha sido por la cosmología. Sólo somos una de las formas de vida que habita el Universo y, no es seguro que seámos la más inteligente.
Una vez que hemos comprendido que no somos “los elegidos” y que, estamos en este Mundo, una infinitesimal fracción de una Galaxia de entre cientos de miles de millones de ellas, podemos ser conscientes de que, la humildad será nuestra mejor elección para no equivocarnos y llevarnos decepciones que, en otro caso, serían de consecuencias muy graves. Muchas pueden ser las criaturas que, habitantes de otros mundos, nos pueden superar en inteligencia y conocimientos y, seguramente por eso, porque en nuestro fuero interno algo nos dice que es así, nos estamos preparando para ese futuro que irremediablemente llegará, y, lo único que podemos hacer es crear réplicas de nosotros mismos que, aunque artificiales, puedan representarnos de alguna manera en ese futuro incierto.
No podemos saber lo que vendrá. ¡Es tan grande el Universo!
Ese encuentro maravilloso que tantas veces hemos imaginado, es posible que no lo sea tanto. No podemos saber las criaturas que pueden estar presentes en otros mundos y con qué medios puedan contar. Siempre se me hizo cuesta arriba el hecho de que, algún día del futuro, los robots fabricados por nosotros, podrían adquirir la supremacía del planeta. Sin embargo, alguna vez he pensado también que, quizás, sea la única manera de poder hacer frente a lo que vendrá.
Hemos oído en no pocas ocasiones que la realidad supera a la imaginación, y, desde luego, simplemente con ver todo lo que existe en el Universo, podemos dar fe de tal afirmación. ¿Quién iba a pensar hace 150 años en la existencia de Agujeros Negros o Estrellas de Neutrones? Y, de la misma manera que aquí en la Tierra surgieron cientos de miles de especies y formas de vida a lo largo de su historia, ¿qué prohíbe que en otros mundos surgieran también especies de vida que ni podemos imaginar? ¿Y, la Naturaleza? En Japón hemos visto estos días de lo que es capaz y, desde luego nada puede ser descartado.
Cualquier cosa puede ser posible, ¡es tan frágil la línea que nos separa del Caos!
Es cierto, nuestras limitaciones son enormes, enorme es también nuestra ignorancia y, si somos conscientes de ello, habremos dado un gran paso para hacer frente a lo que pueda venir. Al menos no nos cogerá desprevenido y, el suceso es menos doloroso cuando se espera.
Sí, es verdad, que a veces, confundimos la ilusión y la euforia del momento con la realidad. Sin embargo, nada más lejos de ser cierto. Vivimos en una falsa seguridad cotidiana que nos hace no pensar en lo que puede llegar: Un accidente, una enfermedad, un meteorito caído del cielo, un terremoto, o, incluso una estrella enana marrón que choque con la Luna y dé al traste con nuestra tranquila vida en este planeta.
El destino, ¡tiene tántas bifurcaciones! Parece un laberinto de espejos que lo hace incierto.
Así que, ilusos y tranquilos -de otra manera sería horrible la vida-, en estos últimos años hemos sido capaces de determinar los genes responsables de las más variadas manifestaciones de nuestra existencia: susceptibilidad a la obesidad, diferentes tipos de tumores, esquizofrenia, depresión o la mayor o menor capacidad para danza y ritmo. Y, con sorpresa para algunos, se ha podido saber que nuestra secuencia genética sólo difiere un 0’5% de nuestros parientes cercanos neandertales o que tampoco estamos muy lejos, genéticamente hablando, de algunos equinodermos que divergieron de nuestra rama evolutiva hace ahora 500 millones de años.
También, al mismo tiempo, hemos construido ingenios que enviados a otros mundos, situados a millones de kilómetros del nuestro, nos mandan imágenes que podemos contemplar tranquilamente sentados en el salón de nuestras casas. Y, paralelamente, se trabaja en cerebros artificiales espintrónicos y, más adelante, positrónicos que ocuparan cuerpos perfectos de robots que, aunque artificiales, algún día llegarán a pensar y sentir. ¿Serán nuestros sucesores? ¿Serán los que finalmente realizarán nuestros sueños de viajar a las estrellas?
Sin embargo, y a pesar de tantas proezas, si en algo sigue la ciencia gateando en la oscuridad, es precisamente en el total desconocimiento de la parte más compleja y delicada de nuestro cuerpo: ¡el Cerebro! ¡Si tuviéramos tiempo!
emilio silvera
Oct
20
¡El Origen de la Vida! ¿Quién puede saber eso?
por Emilio Silvera ~
Clasificado en La vida ~
Comments (2)


Los animales unicelulares han descubierto el método más corto para comer las plantas. La muerte y el sexo han de crearse para que los organismos pluricelulares sean capaces de envejecer y dejar de funcionar como una cooperativa colonial de células. Los animales han descubierto como comerse a otros animales. Por encima de todo, ha evolucionado una especie inteligente, una especie tan lista que ha llegado a descubrir una vía para poder salir de la Tierra y llevar todo el proceso de la evolución hasta el extremo.
Claro que, si creemos que la vida es ciudadana del universo sin fronteras, no debemos perder de vista la Panspermia, esas esporas viajeras que llegan a los mundos y en ellos, se posan y dejan pasar el tiempo para que, las condiciones locales, las radiaciones exteriores y propias del lugar, hagan su trabajo para que, con el tiempo suficiente por delante, puedan emerger y crecer hasta llegar a conformar seres con ideas y pensamientos.
emilio silvera.
Oct
19
Más lejos, más profundo, más simple
por Emilio Silvera ~
Clasificado en Constantes universales ~
Comments (1)
Las teorías de Newton sobre el movimiento y la gravedad, con sus trescientos años de edad siguen proporcionando reglas que son maravillosamente precisas para entender y predecir la forma en que se mueven las cosas a velocidades muhco menores que la de la luz cuando la gravedad es muy débil. En los quince primeros años del siglo XX, Einstein dio con una teoría más profunda que podía tratar con el movimiento rápido y la gravedad intensa cuando la teoría de Newton fallaba. Pero, y esto es crucial, la teoría más ampliam y más profunda de Einstein se convierte en la de Newton cuando los movimientos son lentos y la Gravedad es débil.
Teoría cuántica, o, ¿universos paralelos?
Pasó lo mismo con las teorías cuánticas revolucionarias que se descubrieron en el primer cuarto del siglo XX cuando todos los físicos siguieron el rast5ro dejado por la semilla dejada por Planck a la que llamó “cuanto” y se simnolizó con la letra h. Aquella nueva teoría ofrecía una descripción más completa que la de Newton del funcionamiento del mundo cuando sondeamos el dominio de lo muy pequeño. Sus predicciones sobre el micromundo no-newtoniano son tremendamente precisas.
Pero una vez más, cuando trabajan con objetos grandes se hacen cada vez más parecidas a la descripción newtoniana. Así es como el núcleo de verdad dentro de una teoría pasada puede permanecer como una parte restrictiva de una teoría nueva y mejor. No parece que vaya a haber más revoluciones cintíficas (que las habrá).
Si consideramos nuestro “almacen” de teorías, podemos ver las interrelaciones entre las viejas y las nuevas. Consioderemos nuestro caso, en el que la mecánica cuántica se convierte en la mecánica newroniana cuando h se aproxima a cero. Este límite corresponde a una situación en la que los aspectos ondulatorios cuánticos de las partículas se hacen despreciables. Por esto podemos confiar plenamente en que la tricentenaria teoría de Newton del movimiento y de la gravedad se enseñaran y se urtilizaran dentro de mil años con la misma eficacia que lo hacemos hoy. Cualquiera que resulte ser la Teoría de Todo final, tendrá una forma restrictiva que describa el movimiento a velocidades mucho menores que la de la luz y, entonces, ahí estará Newton y, de la misma manera, cuando esos movimientos sean cercanos a c, Einstein también se hará presernte. Es decir, en la futura teoría subyacen las ideas de Newton y de Einstein como cimientis de esa nueva teoría que vendrá.
Fotografía del Congreso en el Hotel Metropole. Sentados, de izquierda a derecha: W. Nernst, M. Brillouin, E. Solvay (mecenas), H. Lorentz, E. Warburg, J. Perrin, W. Wien, M. Curie y H. Poincaré. De pie, de izquierda a derecha: R. Goldschmidt, M. Planck, H. Rubens,A. Sommerfeld, F. Lindemann (secretario), M. de Broglie (secretario), M. Knudsen, F. Hasenöhrl, G. Hostelet, E. Herzen, J.H. Jeans, E. Rutherford, H. Kamerlingh Onnes, A. Einstein y P. Langevin. En esta situación llegó el histórico Congreso Solvay.
Se cuenta que en un descanso del aquel famoso Congreso Solvay, Einstein y Henri Poincaré se encontraron un momento sólos y, se entabló entre ellos, la conversación siguiente:
Einstein: Sabe usted, Henri, en un tiempo estudié matemáticas, pero lo dejé por la Física.
Poincaré: Oh, ¿de verdad Albert? ¿Y por qué?
Einstein: Porque aunque podía distinguir los enunciados verdaderos de los falsos, no podía distinguir que hechos eran importantes.
Poincaré: Eso es muy interesante, Albert, Porque originalmente yo estudié Física, pero la dejé por las matemáticas.
Einstein: ¿De verdad? ¿Por qué?
Poncaré: Porque no podía distinguir cuáles de los hechos importantes eran verdaderos.
Podeis sacar una conclusión.
Donde esté presente la materia…, lo estará la Gravedad
Aquí la gravedad está presente y es la respondable de mantener unidos todos los objetos que en la imagen podemos contemplar, sus masas titan las unas de las otras y todo se mantiene unido. La fuerza de la gravedad tiene su mayor potencia, proximo al elemento que la origina, ya sea un atomo o un planeta, pero sus lineas de fuerza, aunque van disminuyendo con la distancia son infinitas, que no por debiles se deben despreciar. Lo que ocurre en el universo es que cualquier fuerza de gravedad mas fuerte, aparentemente anula las fuerzas debiles pero si el universo estuviera vacio de materia y de energia, dos átomos en ambos extremos del universo terminarian por atraerse. La fuerza de gravedad de un elemento viene determinado por el conjunto de atomos que lo forman comportandose como un solo elemento.
La principal sospechosa de variaciones minúsculas ha sido siempre la constante Gravitatoria, G. La Gravedad es con mucho la fuerza la fuerza más débil de la Naturaleza y la menos estrechamente sondeada por el experimento. Si se buscan los valores conocidos de las constantes principales en la contraportada de un libro de texto de Física podemos descubrir que G aparece especificada con muchas menos cifras decimales que c, h, o e. Aunque G a soportado asaltos a su constancia durante mucho tiempo, los ataques más rcientes han sido lanzados sobre α (alfa), la constante de estructura fina de la que hablamos ayer. está ahora de mucha actualidad debido a unos experimentos que se han hecho observando y midiendo la luz de unos quásares lejanos. Y, como ayer os decía, la constante de estructura fina liga la velocidad de la luz, la constante de Planck y la carga del electrón. Y, todo ello hace que, si varía en una pequerña proporción, el Universo cambiaría.
¿Quién será el que resuelve este misterio?
emilio silvera
Oct
19
¡Imaginación! Un gran tesoro
por Emilio Silvera ~
Clasificado en Rumores del Saber ~
Comments (0)

Séneca, filósofo estoico romano del siglo primero, dejó para la posteridad una buena muestra de su ingenio
“Llegará un tiempo en los últimos años en que el Océano aflojará los lazos en los que hemos estado atados, en que se revelará una tierra inmensa…y Tule ya no será el más remoto de los paises. Así se expresaba Séneca y quería significar que los lazos que nos atan a nuestro planeta serán rotos algún día, cuando en posesión del conocimiento necesario, podamos volar hacia las lejanas estrellas, a otros mundos, otras “Tierras”, otras gentes y, el concepto de lo remoto, no tendrá sentido entonces, ya que, todo será lo mismo y el aquí y allí, formarán parte de un todo simplemente más grande y sin limitaciones.”
El nuevo despertar de la indagación inteligente de la Naturaleza del espacio cosmológico que asociamos con el Renacimiento tuvo sus raíces en una época de exploraciones terrestres que se inició aproximadamente en el tiempo de las aventuras de Marco Polo en China, en el siglo XIII, y culminó doscientos años más tarde con el (re) descubrimiento de América por Cristobal Colón. La Astronomía y la exploración de la Tierra, por supuesto, estaban relacionadas desde hacía tiempo. Durante milenios los navegantes se habían guiado por las estrellas utilizando sus entonces rísticos instrumentos.
Así lo prueba la costumbre china de llamar “balsas estelares” a sus juncos de mar abierto y la leyenda de que Jasón el argonauta fue el primer hombre que recurrió a las constelaciones para memorizar el cielo nocturno. Cuando Magallanes cruzó el Pacífico, su flota siguió una estrella artificial que consistía en una antorcha encendida colocada en la popa de su barco, y navegó por aguas que habían atravesado miles de años antes los colonizadores de Micronesia, Australia y Nueva Guinea, aventureros tripulantes de canoas que llevaban sus mapas estelares en su cabeza. Virgilio puso de relieve la importancia de observar las estrellas en su relato de la fundación de Roma por Eneas
Y todavía la noche, impulsada por las horas,
No había llegado a la mitad de su curso: de su lecho
Se levanta Palinuro, siempre vigilante,
Examina todos los vientos y capta en su oido
Las brisas; en los cielos silenciosos
Observa las estrellas que los atraviesan,
Arturo, y las lluviosas Híades.
Y las Osas gemelas y Orion cubierta de oro.
Y cuando todo lo que ve está en calma en el cielo despejado,
Da desde la popa la clara señal.
Levantamos el campo, reiniciamos nuestro camino
Ydesplegamos nuestrasa velas.
Y ya el Alba el cielo
Enrojecía mientras huían las estrellas,
Cuando a lo lejos contmplamos las sombreadas colinas
Y abajo Italia. “¡Italia!”
Los exploradores terrestres y los indios también se guiaban por las estrellas, cuando perdidos en el bosque, se reconfortaban mirando el cielo cuyas manos eran la gan endidura que divide la región del Cisne y Sagittario, y a los esclavos que huían hacia el norte a través de los pinos achaparrados de Georgia y el Mississippi se les aconsejaba seguir la calabaza para beber, que se refería a la Osa Mayor. Tolomeo usó su considerable conocimiento de la geografía como apoyo de sus estudios en astronomía; su afirmación de que la Tierra sólo es un punto comparada con la esfera celeste se basaba en parte en el testimonio de viajeros que se aventuraron en dirigirse al sur, en África central, o al norte, hacia Tule, e informaron no haber visto ninguna prueba de que sus desplazamientos los hubiera acercado ni en un mínimo grado a las estrellas en esos parajes del cielo.
La latitud ha sido un parámetro el cual tomaban para guiarse a partir de la polaris y junto con el uso del instrumento llamado sextante. Por la noche, la única guía para los marineros la constituía la esfera del firmamento estrellado. Para el observador terrestre, los astros parecen estar situados sobre la superficie de una gran esfera.
Esta “ esfera” era lo que los antiguos navegantes creían una superficie esférica imaginaria sobre la cual situaban los astros. Esta creencia que sostenian los antiguos marineros reforzaba la idea de que nosotros eramos en centro del universo por miles de años. Las estrellas mas importantes en esta bodeda celeste y que ocupaban para guiarse eran la estrella polar, la cruz del sur, kochab y la canope. tuvieron que aprovechar las constelaciones como las únicas acompañantes nocturnas.
Así, aunque el principal motivo de aquella oleada de exploraciones europeas era económico -aquellos aventureros esperaban obtener grandes fortunas y conquistar grandes tesoros- y se lanzaban al océano esperando poder orientarse, navegando por la ruta oceánica hacia el Este guiado por las estrellas -no es sorprendente enterarse de que uno de sus instigadores fue un astrónomo. Era un florentino llamado Paolo Pozzo Toscanelli, quien subrayaba que en el Este se encontraría conocimiento tanto como riqueza-. En Asia, Toscanelli le escribió tentadoramente a Colón:
En su carta, Toscanelli le decía a Colón:
“…es digna de ser buscada por los latinos, no sólo porque permitiría adquirir una enorme riqueza en forma de oro, plata, gemas preciosas de toda clase y especias que nunca llegan a nosotros, sino también por los hombres eruditos, los sabios filósofos y astrólogos mediante cuyo genio y artes son gobernados esos poderosos y magnificos paises”
Buena parte del atractivo novelesco que coloreaban la imagen Occidental del Este provenían del extraordinario libro de Marco Polo que relataban sus igualmente extraordinarios viajes en China. Marco venía de Venecia, que no era ningún lugar atrasado, pero nada lo había preparado para algo como Hangzhou, que visitó en 1276 y de cuyo impacto nunca se recuperó totalmente. “La más grande ciudad del mundo” -la llamó- donde pueden encontrarse tantos placeres que uno cree estar en el Paraiso”.
Hangzhou estaba a orillas de un lago y en medio de montañas difusas y brumosas, cuya pintira fiel por pintores paisajistas Sung aún sorprende a los ojos occidentales como algo casi demasiado bello para ser verdadero, Marco Polo informaba.
“En medio del lago hay dos islas, en cada una de las cuales se eleva un palacio con un número increíble de grandes habitaciones y pabellones separados. Y cuando alguien desea celebrar una fiesta matrimonial o dar un gran banquete, solía hacerlo en uno de esos pabellones. Y allí se encontraba todo lo necesario para ello gracias a la contribución de todos los ciudadanos que habían contribuído en la medida de sus posibilidades para que, cuando alguien lo necesitara, los pudiera utilizar en esos bellos palacios.”
El espíritu de ese nuevo epicentro aventurero era Segres, una punta terrestre del extremo suroccidental de Europa que penetra en el Océano como un Cabo Cañaveral del Renacimiento. Alli, en 1419, el Principe Enrique el Navegante creo una especie de puerto espacial. En la Biblioteca de Segres se contenía una edición de Marco Polo (traducida por su vagabundo hermano Pedro) y una serie de otros libros que estimulñaron la creencia de muchos de aquellos navegantes aventureros que llegaron a abrior una rura hacia el Este circunnavegando África y abriendo una nueva ruta marina.
Herodoto, Euxodo, Cízico, Estrabón…todos nos hablaron de aquellos viajeros que llegaron más allá de las Columnas de Hércules, en la lejana Tule, esa región en la que Platón sitúo a la Atlántida.
Pero eso es otra historia y, me tengo que preguntar cómo he podido llegar hasta aquí…¡Yo sólo quería hablar de Astronomía!
emilio silvera
Oct
19
¡La Física! Que en su apartado cuántico…¡es extraña!
por Emilio Silvera ~
Clasificado en Física Cuántica ~
Comments (0)
Sí, muy extraña pero…funciona. Cuando nos sumergimos en el mundo cuántico somos conscientes de que todo ese mundo fantástico de lo muy pequeño va contra la intuición, en nada se parece a nuestro mundo macroscópico y, allí, suceden cosas que nos parecen imposibles. Allí, en el “universo cuántico” se sustituye la continuidad por lo discreto. Se podría decir que no es el agua compacta que forma un todo, sino que, es como la fina arena que está formada por muchos granos que logran pasar desapercibidos en ese conjunto total.
¿Cómo podríamos suponer el carácter fantasmagórico del experimento de la doble rendija?
“El experimento de Young, también denominado experimento de la doble rendija, fue realizado en 1801 por Thomas Young, en un intento de discernir sobre la naturaleza corpuscular u ondulatoria de la luz. Young comprobó un patrón de interferencias en la luz procedente de una fuente lejana al difractarse en el paso por dos rejillas, resultado que contribuyó a la teoría de la naturaleza ondulatoria de la luz.
Posteriormente, la experiencia ha sido considerada fundamental a la hora de demostrar la dualidad onda corpúsculo, una característica de la mecánica cuántica. El experimento también puede realizarse con electrones, protones o neutrones, produciendo patrones de interferencia similares a los obtenidos cuando se realiza con luz.”
Otro fenómeno que va contra la intuición es el “efecto túnel”. Los electrones son capaces de atravesar un túnel a través de una barrera de potencial estrecha hacia una región que estaría prohibida si los electrones fuesen tratados como partículas clásicas. El que haya una probabilidad finita de que un electrón haga un túnel entre una región clásicamente permitida a otra surge como consecuencia de la mecánica cuántica. El efecto túnel es usado en el diodo túnel. La desintegración alfa es un ejemplo de proceso de efecto túnel.
Nuestra descripción de lo que les pasa a los electrones que se dirigren hacia una barrera de energía o a un electrón atrapado entre dos barreras debe tener en cuenta las ondas probabilistas. Hay una probabilidad finita de que la partícula atrapada aparezca fuera de la trampa. Esto no sólo va contra la intuición, sino que se puede considerar una paradoja de orden mayor, pues el electrón a su paso por la barrera debía tener una energía cinética negativa, lo que, desde el punto de vista clásico, es absurdo.
Claro que, cuando se desarrolla la intuición cuántica, uno puede responder que la condición de que el electrón “esté en el túnel” no mes aobservable y por lo tanto no es un problema de la física. Lo que uno observa es que se sale fuera. Este fenómeno, el paso por efecto túnel, se utilizó (como ya he dicho) para explicar la radiactividad Alfa. Por fantasmagórico que sea, este “efecto túnel” les es esencial a los ordenadores modernos y a otros muchos dispositivos electrónicos.
Partículas puntuales, paso por efecto túnel, radiactividad, la tortura de la rendija doble: todo esto contribuyó a las nuevas intuiciones que los físicos cuánticos necesitaron a medida que fue posible desplegar todo su armamento intelectual a la búsqueda de fenómenos inexplicables.
Todo son átomos: Los mundos con sus ríos y montañas, los seres vivos, las estrellas y las galaxias, todo sin excepción… ¡átomos! Y, lo sorprendente es que, nosotros, hayamos podido llegar tan lejos y conocer lo que la materia es (al menos en parte), poder dilucidar entre esos dos “universo” de lo grande y lo pequeño.
Gracias a los acontecimientos que están recogidos en el período que va desde 1923 a 1927, se pudo comprender el átomo. Aún así, en esos días previos a los ordenadores, sólo se podían utilizar adecuadamente los átomos simples -el hidrógeno, el helio, el litio y los átomos a los que se les han quitado algunos electrones (ionizado)-. Aquí, no cabe más remedio que reconocer el gran avance debido a Wolfgan Pauli, él entendió la mecánica cuántica desde muy joven, con 19 años ya era todo un experto y supo, intuir, dónde estaba la “materia perdida”.
Los físicos se vieron durante mucho tiempo turbados por el hecho de que a menudo, la partícula beta emitida en una desintegración del núcleo no alberga energía suficiente para compensar la masa perdida por el núcleo. En realidad, los electrones no eran igualmente deficitarios. Emergían con un amplio espectro de energías, y el máximo (conseguido por muy pocos electrones), era casi correcto, pero todos los demás no llegaban a alcanzarlo en mayor o menor grado. Las partículas alfa emitidas por un nucleido particular poseían iguales energías en cantidades inesperadas. En ese caso, ¿qué era errónea en la emisión de partículas beta? ¿Qué había sucedido con la energía perdida?
Todo parece indicar que los neutrinos…¡sí tienen masa!
En 1.922, Lise Maitner se hizo por primera vez esta pregunta, y, hacia 1.930, Niels Bohr estaba dispuesto a abandonar el gran principio de conservación de la energía, al menos en lo concerniente a partículas subatómicas. En 1.931, Wolfgang Pauli sugirió una solución para el enigma de la energía desaparecida.
Tal solución era muy simple: junto con la partícula beta del núcleo se desprendía otra, que se llevaba la energía desaparecida. Esa misteriosa segunda partícula tenía propiedades bastante extrañas. No poseía carga ni masa. Lo único que llevaba mientras se movía a la velocidad de la luz era cierta cantidad de energía. A decir verdad, aquello parecía un cuerpo ficticio creado exclusivamente para equilibrar el contraste de energías.
Sin embargo, tan pronto como se propuso la posibilidad de su existencia, los físicos creyeron en ella ciegamente. Y esta certeza se incrementó al descubrirse el neutrón y al saberse que se desintegraba en un protón y se liberaba un electrón, que, como en la decadencia beta, portaba insuficientes cantidades de energía. Enrico Fermi dio a esta partícula putativa el nombre de “neutrino”, palabra italiana que significa “pequeño neutro”.
“Las partículas gamma son radiaciones electromagnéticas de la misma naturaleza que los rayos X pero de menor longitud de onda. Su poder de penetración es muy elevado frente al de las partículas alfa o beta, pudiendo atravesar el cuerpo humano. Quedan frenadas con espesores de 1 m de hormigón o unos pocos cm de plomo, por lo que cuando se utilizan fuentes radiactivas que emiten este tipo de radiación, hay que utilizar blindajes adecuados.”
Pero sigamos con nuestro trabajo de hoy. El neutrón dio a los físicos otra prueba palpable de la existencia del neutrino. Como ya he comentado en otras ocasiones, casi todas las partículas describen un movimiento rotatorio. Esta rotación se expresa, más o menos, en múltiples de una mitad según la dirección del giro. Ahora bien, el protón, el neutrón y el electrón tienen rotación de una mitad. Por tanto, si el neutrón con rotación de una mitad origina un protón y un electrón, cada uno con rotación de una mitad, ¿qué sucede con la ley sobre conservación del momento angular? Aquí hay algún error. El protón y el electrón totalizan una mitad con sus rotaciones (si ambas rotaciones siguen la misma dirección) o cero (si sus rotaciones son opuestas); pero sus rotaciones no pueden sumar jamás una mitad. Sin embargo, por otra parte, el neutrino viene a solventar la cuestión.
Supongamos que la rotación del neutrón sea +½. Y admitamos también que la rotación del protón sea +½ y la del electrón -½, para dar un resultado neto de o. Demos ahora al neutrino una rotación de +½, y la balanza quedará equilibrada.
+½(n)=+½(p)-½(e)+½(neutrino)
Pero aun queda algo por equilibrar. Una sola partícula (el neutrón) ha formado dos partículas (el protón y el electrón), y, si incluimos el neutrino, tres partículas. Parece más razonable suponer que el neutrón se convierte en dos partículas y una antipartícula. En otras palabras: lo que realmente necesitamos equilibrar no es un neutrino, sino un antineutrino.
“25 noviembre 2011. Físicos investigadores trabajando en el experimento Double Chooz han detectado la desaparición de antineutrinos electrónicos durante su recorrido desde el núcleo de los reactores hasta el detector situado a algo mas de 1 Km de distancia.
Este resultado, que ha sido presentado en la Conferencia LowNu de Seul, en Corea, servirá para determinar el valor del hasta ahora desconocido ángulo de mezcla q13, que es un parametro fundamental con importantes implicaciones para la física de partículas y de astropartículas.”
Pero sigamos con lo nuestro. El propio neutrino surgiría de la conversación de un protón en un neutrón. Así, pues, los productos serían un neutrón (partícula), un positrón (antipartícula) y un neutrino (partícula). Esto también equilibra la balanza.
En otras palabras, la existencia de neutrinos y antineutrinos debería salvar no una, sino tres, importantes leyes de conservación: la conservación de la energía, la de conservación del espín y la de conservación de partícula/antipartícula.
Es importante conservar esas leyes puesto que parece estar presentes en toda clase de reacciones nucleares que no impliquen electrones o positrones, y sería muy útil si también se hallasen presentes en reacciones que incluyesen esas partículas.
Las más importantes conversiones protón–neutrón son las relaciones con las reacciones nucleares que se desarrollan en el Sol y en los astros. Por consiguiente, las estrellas emiten radiaciones rápidas de neutrinos, y se calcula que tal vez pierdan a causa de esto el 6 u 8 % de su energía. Pero eso, sería meternos en otra historia y, por mi parte, con la anterior explicación solo trataba de dar una muestra del ingenio del hombre que, como habréis visto, no es poco.
Desde que puedo recordar, he sido un amante de la Física. Me asombran cuestiones como la luz, su naturaleza de un conglomerado de colores, ondas y partículas, su velocidad que nos marca el límite del máximo que podemos correr en nuestro Universo, y en fin, muchos otros misterios que encierra esa cosa tan cotidiana que nos rodea y lo inunda todo haciendo posible que podamos ver por donde vamos, que las plantas vivan y emitan oxígeno o que nos calentemos. Realmente, sin luz, nuestra vida no sería posible.
Entonces, ¿qué es realmente la luz?
Sí, hemos llegado a saber muchas cosas pero… lo que realmente es la luz…queda lejos aún
Generalmente es sabido que “todos” opinan que la luz, es algo inmaterial. Los objetos materiales, grandes o muy pequeños como las galaxias o los electrones, son materia. La luz, sin embargo, se cree que es inmaterial, dos rayos de luz se cruzan sin afectarse el uno al otro. Sin embargo, yo opino que la luz es simplemente una forma de energía lumínica, otra forma en la que se puede presentar la materia. Ya nos lo dijo Einstein: E = mc2, y, si materia es energía y energía materia… ¿qué es el fotón?
Está claro que, los estudiosos de la época antigua y medieval estaban por completo a oscuras acerca de la naturaleza de la luz. Especulaban sobre que consistía en partículas emitidas por objetos relucientes o tal vez por el mismo ojo. Establecieron el hecho de que la luz viajaba en línea recta, que se reflejaba en un espejo con un ángulo igual a aquel con el que el rayo choca con el espejo, y que un rayo de luz se inclina (se refracta) cuando pasa del aire al cristal, al agua o a cualquier otra sustancia transparente.
Cuando la luz entra en un cristal, o en alguna sustancia transparente, de una forma oblicua (es decir, en un ángulo respecto de la vertical), siempre se refracta en una dirección que forma un ángulo menor respecto de la vertical. La exacta relación entre el ángulo original y el ángulo reflejado fue elaborada por primera vez en 1.621 por el físico neerlandés Willerbrord Snell. No publicó sus hallazgos y el filósofo francés René Descartes descubrió la ley, independientemente, en 1.637.
Los primeros experimentos importantes acerca de la naturaleza de la luz fueron llevados a cabo por Isaac Newton en 1.666, al permitir que un rayo de luz entrase en una habitación oscura a través de una grieta e las persianas, cayendo oblicuamente sobre una cara de un prisma de cristal triangular. El rayo se refracta cuando entra en el cristal y se refracta aún más en la misma dirección cuando sale por una segunda cara del prisma. (Las dos refracciones en la misma dirección se originan por que los dos lados del prisma de se encuentran en ángulo en vez de en forma paralela, como sería el caso en una lámina ordinaria de cristal.)
Newton atrapó el rayo emergente sobre una pantalla blanca para ver el efecto de la refracción reforzada. Descubrió que, en vez de formar una mancha de luz blanca, el rayo se extendía en una gama de colores: rojo, anaranjado, amarillo, verde, azul, y violeta, en este orden.
Newton dedujo de ello que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores. La amplia banda de sus componentes se denominó spectrum (palabra latina que significa “espectro” fantasma). Newton llegó a la conclusión de que la luz se componía de diminutas partículas (“corpúsculos”), que viajaban a enormes velocidades.
Le surgieron y se planteó algunas inquietudes cuestiones. ¿Por qué se refractaban las partículas de luz verde más que los de luz amarilla? ¿Cómo se explicaba que dos rayos de luz se cruzaran sin perturbase mutuamente, es decir, sin que se produjeran colisiones entre partículas?
En 1.678, el físico neerlandés christian Huyghens (un científico polifacético que había construido el primer reloj de péndulo y realizado importantes trabajos astronómicos. Hoy, la sonda en Titán, lleva su nombre) propuso una teoría opuesta: la de que la luz se componía de minúsculas ondas. Y si sus componentes fueran ondas, no sería difícil explicar los diversos difracciones de los diferentes tipos de luz a través de un medio refractante, siempre y cuando se aceptara que la luz se movía más despacio en ese medio refractante que en el aire. La cantidad de refracción variaría con la longitud de las ondas: cuanto más corta fuese tal longitud, tanto mayor sería la refracción. Ello significaba que la luz violeta (la más sensible a este fenómeno) debía de tener una longitud de onda mas corta que la luz azul, ésta, más corta que la verde, y así sucesivamente.
Lo que permitía al ojo distinguir los colores eran esas diferencias entre longitudes de onda. Y, como es natural, si la luz estaba integrada por ondas, dos rayos podrían cruzarse sin dificultad alguna. (Las ondas sonoras y las del agua se cruzan continuamente sin perder sus respectivas identidades.)
Pero la teoría de Huyqhens sobre las ondas tampoco fue muy satisfactoria. No explicaba por qué se movían en línea recta los rayos luminosos; ni por qué proyectaban sobras recortadas; ni aclaraba por qué las ondas luminosas no podían rodear los obstáculos, del mismo modo que pueden hacerlo las ondas sonoras y de agua. Por añadidura, se objetaba que si la luz consistía en ondas, ¿cómo podía viajar por el vacío, ya que cruzaba el espacio desde el Sol y las Estrellas? ¿Cuál era esa mecánica ondulatoria?
Muchos otros han tratado de profundizar en la naturaleza de la Luz, y, aunque sabemos bastante de ella, no por eso podemos decir a ciencia cierta: ¡Sabemos lo que la luz es!, ya que, la Naturaleza, escondealgunos secretos que tenemos que desvelar y, al igual que nos pasa con nuestras mentes, no hemos podido resolver el problema, principalmente, porque nosotros somos parte integrante de él:
¡Somos Universo, Somos luz, Somos Pensamientos!
Pero, ¿no estaba hablando de los extraños fenómenos de la mecánica cuántica? No puedo remediarlo, veo pasar una idea por delante de mi mente y…la sigo. Como nos decía el inolvidable Richard Feyman;
“Creo que es justo decir que nadie comprende la mecánica cuántica. No siga diciéndose a sí mismo, si puede evitarlo, “¿pero cómo puede ser así?” porque usted se meterá “hasta el fondo” en un callejón sin salida del que nadie ha escapado. Nadie sabe como puede ser eso”. De hecho, a menudo se ha dicho que de todas las teorías propuestas en el siglo XX, la más absurda es la teoría cuántica. Algunos dicen que la única cosa que la teoría tiene a su favor es que “es indudablemente correcta”.
La física cuántica empezó a enseñarnos que no debemos estar tan seguros de las reglas del espacio y del tiempo, que hasta ese entonces parecían muy confiables e invariables.
Hace algún tiempo que salió la noticia un descubrimiento en la universidad de Oxford que confirma una polémica teoría sobre el espacio y el tiempo. La teoría de los Muchos Mundos, presentada a la comunidad científica hace exactamente 50 años, proponía que existen un número infinito de realidades: una para cada posible escenario producto de cada decisión que cada ser viviente toma en cada momento de su vida.
Esto nos lleva a un escenario con tantos universos como decisiones e interacciones posibles, multiplicado por tantos seres vivientes como existan. La teoría de los Muchos Mundos se planteó como una respuesta al extraño comportamiento que tiene la materia a nivel subatómico. En la primera mitad del siglo XX la ciencia permitió por primera vez observar lo muy pequeño, y la realidad a ese nivel dejó perplejos a los científicos.
En esas dimensiones hay paradojas que chocan contra el sentido común, como por ejemplo el hecho de que una partícula subatómica puede estar en dos sitios al mismo tiempo. Esta revista puede estar en sus manos o en el librero, pero no puede estar en sus manos y en el librero al mismo tiempo. La física cuántica empezó a enseñarnos que no debemos estar tan seguros de las reglas del espacio y del tiempo, que hasta ese entonces parecían muy confiables e invariables.
Es difícil comprender que podamos estar, al mismo tiempo, en este mundo y en otro mucho más lejano que, situado en otra galaxia, nos pueda estar dando acogida al mismo tiempo que lo hace la Vía Láctea. Sin embargo, en el caso de las partículas subatómicas y, según la extraña mecánica cuántica, eso sería posible.
Sí, amigo Jackie Chan, esto puede volver loco a cualquiera… ¡También a mi!
emilio silvera