jueves, 28 de noviembre del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




La Denudación y otros fenómenos naturales

Autor por Emilio Silvera    ~    Archivo Clasificado en La Naturaleza...El Universo    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

 

 

 

 

 

Hablemos de la Denudación y de otros fenómenos naturales:

Las poderosas fuerzas geomorfológicas pueden actuar suavemente. La acción de la gravedad puede mover, en cuestión de segundos, enormes volúmenes de tierra y piedras en devastadores deslizamientos y desprendimientos. Con lluvias intensas, la erosión en barrancos y cauces puede transformar los campos y las riberas, e inundar las llanuras durante horas o incluso días. Los vientos huracanados pueden, igualmente, modificar la fisonomía de las costas, y algunas superficies pueden ser remodeladas casi instantáneamente por erupciones volcánicas y terremotos. Pero la denudación de los continentes – el proceso debido a la acción de las inclemencias del tiempo, erosión meteórica y el posterior arrastre de los materiales erosionados – es un cambio gradual con tasas habitualmente bajas, que las alteraciones no se perciben durante el transcurso de una vida.

El Bubnoff (B) – la denudación de 1 mm en mil años (o 1 μm/año) – es una unidad conveniente para medir este cambio. Las precipitaciones, por disolución, reducen las duras rocas ígneas o metamórficas con una tasa comprendida entre 0’5 y 5 B, y las calizas hasta 100 B. La denudación en terrenos generalmente secos se produce a ritmos no mayores de 10 – 15 B, y en los trópicos húmedos llega a los 20 – 30 B. Los cambios en terrenos montañosos pueden ser mucho más importantes, llegando hasta 800 B en zonas de glaciares rápidos (sudeste de Alaska) y hasta los casi 10 KB en las zonas más recientes en continua elevación (la región de Nanga Parbat en el Himalaya). Pero incluso estas altas tasas de denudación son resultado de fuerzas modestas.

Resultado de imagen de La ErosiónImagen relacionadaImagen relacionada

Un ejemplo de importancia medioambiental y económica ilustra este lento proceso geomorfológico de baja potencia. Si no hubiera erosión, la profundidad del suelo en los campos de cultivo sería mayor, pero su capa superior se empobrecería en nutrientes, ya que la erosión meteórica, si no es demasiado intensa, es la que repone los minerales en esta capa en la que crecen las raíces, ayudando a mantener la fertilidad del terreno.

La máxima pérdida de suelo compatible con el cultivo sostenido de cosechas es aproximadamente de 11 toneladas por hectárea en la mayor parte del terreno agrícola norteamericano. Cerca de dos quintas partes de los campos de ese país se están erosionando a tasas superiores, y la tasa media nacional de erosión, solamente por agua, es de casi diez toneladas por hectárea, equivalente a 550 B (suponiendo que la densidad del suelo es de 1’8 tn/m3).

El papel dominante de las lluvias en el proceso de la denudación se hace evidente cuando se compara la energía cinética de las gotas de lluvia con la energía de la escorrentía superficial. Las mayores gotas de lluvia, con diámetro comprendido entre 5 y 6 mm, alcanzan velocidades finales de 9 m/s, lo que implica que su energía cinética durante el impacto equivale aproximadamente a 40 veces su masa. Aunque la mitad de la precipitación corriera por la superficie a un velocidad media de un metro por segundo, la energía cinética sería una cuarta parte de la masa en movimiento. Consecuentemente, la erosión resultante de la caída de la lluvia sería dos órdenes de magnitud más potente que la corriente superficial.

La energía total de la denudación global del planeta se puede calcular suponiendo que afecta al menos a 50 B de material, con una densidad media de 2’5 g/cm3 (125 tn/m3) y que la altura media continental es de 850 m. Así, la energía de los campos de la Tierra se reduciría anualmente en 135 PJ. Este flujo, 4’3 GW, es muy pequeño comparado con otros flujos energéticos del planeta, representando el 0’05 por ciento de la energía potencial perdida por las corrientes superficiales de agua, el 0’01 por ciento del calor terrestre e igual a menos de 2×10-7 veces la radiación solar absorbida  por las superficies continentales. Claramente, en la denudación de los continentes se invierte una parte insignificante de la radiación solar tanto directamente, a través de la luz solar, como indirectamente, con las corrientes de agua y el viento.

http://viajesdeeuropa.com/wp-content/Cordillera-alpina.jpg

Además, hay fuerzas opuestas que anulan este lento cambio. Si no fuera por el continuo levantamiento tectónico, la cordillera alpina, con sus 4.000 metros de altura, sometida a una denudación de 1 – 5 B se nivelaría en menos de cinco millones de años, y sin embargo, la edad de la cordillera es actualmente un orden de magnitud superior.

Tasas de levantamiento comprendidas entre 5 – 10 B son bastantes frecuentes, y muchas regiones están elevándose con tasas superiores a 20 KB, es decir, una tasa hasta 10 veces superior a la tasa de denudación. No obstante, parece ser que en las zonas montañosas cuyas cumbres sobrepasan la cota de nieve, con grandes precipitaciones y gran actividad glacial, la altura está más limitada por una denudación rápida que por la elevación tectónica del terreno. El noroeste del Himalaya, incluyendo la zona del famoso Nanga Parbat, es un claro ejemplo, donde muchos de sus picos sobrepasan los 7.000 m y solamente el 1 por ciento del terreno los 6.000 m.

Encuentros espaciales

            Siendo temibles localmente, son sucesos de relativa poca importancia globalmente habland0

La más destructiva intensificación temporal de los normalmente suaves flujos de energía geotectónica – erupciones volcánicas o terremotos extraordinariamente potentes – o de energía atmosférica – vientos o lluvias anormalmente intensas -, parecen irrelevantes cuando se comparan con las repetidas colisiones del planeta con cuerpos extraterrestres relativamente grandes.

Reconstrucción del meteorito que arrasó la Tierra. | Nature

                  La caída sobre la Tierra de un Gran asteroide sí que es temible

La Tierra está siendo bombardeada continuamente por invisibles partículas microscópicas de polvo muy abundantes en todo el Sistema Solar, y cada treinta segundos se produce un choque con partículas de 1 mm de diámetro, que dejan un rastro luminoso al autodestruirse en la atmósfera. También son relativamente frecuentes los choques con meteoritos de 1 metro de diámetro, que se producen con una frecuencia de, al menos, uno al año.

Pero los impactos, incluso con meteoritos mayores, producen solamente efectos locales. Esto es debido a que los meteoritos que deambulan por la región de asteroides localizada entre Marte y Júpiter están girando alrededor del Sol en el mismo sentido que la Tierra, de manera que la velocidad de impacto es inferior a 15 Km/s.

El cráter de Arizona, casi perfectamente simétrico, se formó hace 25.000 años por el impacto de un meteorito que iba a una velocidad de 11 Km/s, lo que representa una potencia cercana a 700 PW. Estas gigantescas liberaciones de energías palidecen cuando se comparan con un choque frontal con un cometa típico. Su masa (al menos de 500 millones de toneladas) y su velocidad relativa (hasta 70 Km/s) elevan su energía cinética hasta 1022 J. Aunque se perdiera un diez por ciento de esta energía en la atmósfera, el impacto sería equivalente a una explosión de unas 2.500 bombas de hidrógeno de 100 megatones. Está claro que un fenómeno de estas características produciría impresionantes alteraciones climatológicas. Sin embargo, no es seguro y sí discutible que un impacto parecido fuese la causa de la extinción masiva del cretácico, siendo lo más probable, si tenemos en cuenta el periodo relativamente largo en que se produjo, que se podría explicar por la intensa actividad volcánica de aquel tiempo.

La frecuencia de impactos sobre la Tierra disminuye exponencialmente con el tamaño del objeto.

Aproximadamente, cada cincuenta o sesenta millones de años se produce una colisión con un cometa, lo que significaría que la biosfera, que ha evolucionado durante cuatro mil millones de años, ha debido superar unos cuarenta impactos de este tipo. Está claro que ha salido airosa de estas colisiones, ya que aunque haya sido modificada, no ha sido aniquilada.

Igualmente, la evolución de la biosfera ha sobrevivido a las explosiones altamente energéticas de las supernovas más “cercanas”. Dado que en nuestra galaxia se produce por término medio la explosión de una supernova cada 50 años, el Sistema Solar se encuentra a una distancia de 100 parsecs de la explosión cada dos millones de años y a una distancia menor de 10 parsecs cada dos mil millones de años. En este último caso, la parte alta de la atmósfera se vería inundada por un flujo de rayos X y UV de muy corta longitud de onda, diez mil veces mayor que el flujo habitual de radiación solar, lo que implica que la Tierra recibiría, en unas pocas horas, una dosis de radiación ionizante igual a la que recibe anualmente. Exposiciones de 500 roentgens son setales para la mayoría de los vertebrados y, sin embargo, los diez episodios de esta magnitud que se han podido producir en los últimos 500 millones de años no han dejado ninguna consecuencia observable en la evolución de la biosfera.

[D'Bacod Club] Fighters Home | Love it or Leave it - Part 5

                                                            La radiación cósmica incompatible con la vida

Si suponemos que una civilización avanzada podría preparar refugios para la población durante el año que transcurre ente la llegada de la luz y la llegada de la radiación cósmica, se encontraría con la inevitable dosis de 500 roentgens cada mil millones de años, tiempo suficiente para permitir el desarrollo de una sociedad cuyo conocimiento le sirviera para defenderse de un flujo tan extraordinario y de consecuencias letales. En realidad, somo frágiles dotados de una fortaleza descomunal.

Sí, la Naturaleza nos muestra constantemente su poder. Fenómenos que no podemos evitar y que nos hablan de unos mecanismos que no siempre comprendemos. Nuestro planeta por ejemplo, se comporta como si de un ser vivo se tratara, la llaman Gaia y realiza procesos de reciclaje y renovación por medio de terremotos y erupciones volcánicas, tsunamis y tornados debastadores que cambian el paisaje y nosotros, lo único podemos hacer es acatar el destino, ya que, ignoramos lo que está por venir.

El mundo nos parece un lugar complicado. Sin embargo, existen algunas verdades sencillas que nos parecen eternas, no varían con el paso del tiempo (los objetos caen hacia el suelo y no hacia el cielo, el Sol se levanta por el Este, nunca por el Oeste, nuestras vidas, a pesar de las modernas tecnologías, están todavía con demasiada frecuencia a merced de complicados procesos que producen cambios drásticos y repentinos. La predicción del tiempo atmosférico es más un arte que una ciencia, los terremotos y las erupciones volcánicas se producen de manera impredecible y aparentemente aleatoria, los cambios en las Sociedades fluctuan a merced de sucesos que sus componentes no pueden soportar y exigen el cambio.

 La inmensa complejidad que está presente en el cerebro humano y de cómo se genera lo que llamamos “la mente”, a partir de una maraña de conexiones entre más de cien mil millones de neuronas, más que estrellas existen en nuestra Galaxia, la Vía Láctea. Es algo grande que, en realidad, no hemos alcanzado a comprender. Me hace gracia cuando alguna vez escucho decir a alguien: “Sólo utilizamos un diez por ciento de nuestro cerebro”. Lo cierto es que lo utilizamos al cien por ciento y, lo que en realidad quieren decir es que, se supone que el cerebro humano tiene un potencial tan grande que, de momento, sólo ha evolucionado hasta el diez por ciento de su capacidad futura. ¿Hasta dónde llegaremos?

emilio silvera

Sí, podemos ver con la Mente ¡Con tanta claridad!

Autor por Emilio Silvera    ~    Archivo Clasificado en Así etán las cosas    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 «

 

Dependiendo de nuestro estado de ánimo, podemos imaginar cualquier escenario que la razón o sinrazón nos pueda sugerir. Otra de nuestras peculiaridades es no saber como podríamos reaccionar ante una escena dada de peligro inesperado. Reacciones de nuestra mente que no siempre podemos controlar.

Es curioso, cuando mi mente está libre y divagando sobre una gran diversidad de cuestiones que, sin ser a propósito, se enlazan o entrecruzan unas con otras, y lo mismo estoy tratando de sondear sobre el verdadero significado del número 137 (sí, ese número puro, adimensional, que encierra los misterios del electromagnetismo, de la luz y de la constante de Planck – se denomina alfa (α) y lo denotamos 2πe2/hc), o que me sumerjo en las profundidades del número atómico para ver de manera clara y precisa el espesor de los gluones que retienen a los quarks confinados en el núcleo atómico merced a la fuerza niuclear fuerte. Sin embargo, mi visión mental no se detiene en ese punto,  continúa avanzando y se encuentra con una sinfonía de colores que tiene su fuente en miles y miles de cuerdas vibrantes que, en cada vibración o resonancia, producen minúsculas partículas que salen disparadas para formar parte en otro lugar, de algún planeta, estrella, galaxia e incluso del ser de un individuo inteligente que observa el Universo.

Me pregunto por el verdadero significado de la materia, y cuanto más profundizo en ello, mayor es la certeza de que allí están encerradas todas las . ¿Qué somos nosotros? Creo que somos materia evolucionada que ha conseguido la conquista de un nivel evolutivo en el que ya se tiene consciencia de Ser, que hemos llegado a generar ideas y pensamientos y, sobre todo, ¡Sentimientos!

Pienso que toda materia en el universo está cumpliendo su función para conformar un todo que, en definitiva, está hecho de la misma cosa, y que a partir de ella surgen las fuerzas que rigen el Cosmos y toda la naturaleza del universo que nos acoge. La luz, la gravedad, la carga eléctrica y magnética, las fuerzas nucleares, todo, absolutamente todo, se puede entender a partir de la materia, a niveles microscópicos como a dimensiones cosmológicas, todo son aspectos distintos para que existan estrellas y galaxias, planetas, árboles, desiertos, océanos y seres vivos como nosotros, que somos capaces de pensar en todo esto.

Mirando a mi alrededor, de manera clara y precisa, puedo comprobar que el mundo está compuesto por una variedad de que, siendo iguales en su origen, son totalmente distintas en sus costumbres y en sus mentes que llevan los gérmenes ancestrales de sus antepasados y del lugar que los vio nacer.

La mayor parte, se aplica en sus vidas cotidianas y sin grandes sobresaltos: trabajo, familia y dejar transcurrir el tiempo. Es la mayoría silenciosa. Una parte menor, conforman el grupo de los poderosos; sus afanes están centrados en acumular poder, dirigir las vidas de los demás y de manera consciente o inconsciente, dañan y abusan de aquella mayoría. Son los grandes capitalistas y políticos, que con sus decisiones hacen mejor o peor las vidas del resto. Por último, existe una pequeña parte que está ajena y “aislada” de los dos grupos anteriores; se dedican a pensar y a averiguar el por qué de las cosas. La mayor preocupación de este grupo de elegidos es saber, decir ¡SABER!, de todo y sobre todo; nunca están satisfechos y gracias a ellos podemos avanzar y evitar el embrutecimiento.

Grandes pensadores, filosofos y cientificos de las historia

                                        El vendedor de , el Banquero y el Filósofo

Pensando en el cometido de estos tres grupos me doy de lo atrasados que aún estamos en la evolución de la especie. El grupo mayor, el de la gente corriente, es muy necesario; de él se nutren los otros dos. Sin embargo, el grupo de mayor importancia “real”, el de los pensadores y científicos, está utilizado y manejado por políticos, militares y capitalistas que, en definitiva, aprueban los presupuestos y las subvenciones de las que se nutren los investigadores que están a su merced. ¿Cambiará eso algún día?

              Acordáos del Proyecto y la bomba atómica

En las dos grandes guerras mundiales tenemos un ejemplo de cómo se utilizaron a los científicos con fines militares. Los que no se prestaron a ello, lo pasaron mal y fueron marginados en no pocos casos. Es una auténtica barbaridad el ínfimo que se destina al fomento científico en cualquiera de los niveles del saber. Cada presupuesto, cada proyecto y cada subvención conseguida es como un camino interminable de inconvenientes y problemas que hay que superar antes de conseguir el visto bueno definitivo, y lastimosamente, no son pocos los magníficos proyectos que se quedan olvidados encima de la mesa del político o burócrata de turno, cuyos intereses particulares y partidistas les hace mirar en otra dirección.

El primer Encuentro de Jóvenes Científicos de la Zona Norte, organizado por la Universidad de Antofagasta en Chile,  donde se abrirá el debate en torno a las necesidades para el desarrollo de la ciencia y tecnología, institucionalidad e impulso a la investigación nacional. Esto sí que es un ejemplo de lo que debemos hacer.

Todo lo contrario pasa aquí, en España, donde hemos gastado ingentes cantidades de dinero en preparar a nuestros jóvenes cintíficos que, al finalizar sus carreras y no donde desarrollar sus conocimientos, tienen que marcharse fuera, a otros paises que le acogen con los brazos abiertos. Allí, investigan, descubren e inventan y, las patentes del fruto de su trabajo son vendidas más tarde a nuestro Pais que hizo el esfuerzo de crear a esos Ingenieros, físicos, médicos…

¡Qué lastima! ¡Qué torpes!

Menos mal que la torpeza de algunos no puede impedir el ingenio y la inteligencia que, al del camino, queda a beneficio de la Humanidad y de su futuro que, aunque es incierto (todo lo es), cada día que pasa se vislumbra una nueva luz y, no creo que tarde mucho tiempo en que la “gente corriente” reaccione y ponga las cosas en su sitio. No podemos seguir consintiendo tantos abusos, tanta maldad, tanta ceguera.


Ese encuentro maravilloso con la luz suprema del es un momento mágico, que es el precio que pagan al científico por sus esfuerzos, y es el incentivo que necesita para seguir trabajando en la superación de los muchos secretos que la Naturaleza pone ante sus ojos para que sean desvelados.

Cuando me pongo a escribir sin un previamente establecido, vuelco sobre el papel en blanco todo lo que va fluyendo en mis pensamientos, y a veces me sorprendo a mí mismo al darme cuenta de cómo es posible perder la noción del tiempo inmerso en los universos que la mente puede recrear para hacer trabajar la imaginación sin límites de un ser humano. Es cierto, nuestras limitaciones son enormes, enorme nuestra ignorancia y, sin embargo, estas carencias se pueden compensar con la también enorme ilusión de aprender y la enorme curiosidad y espíritu de sacrificio que tenemos en nuestro interior, que finalmente van ganando pequeñas batallas en el conocimiento de la naturaleza, y que sumados hacen un respetable bloque de conocimientos que, a estas alturas de comienzos del siglo XXI, parecen suficientes como punto de partida para despegar hacia el interminable viaje que nos espera.

                                               Los pensamientos cambiaron el Mundo

Es tal la pasión que pongo en estas cuestiones que, literalmente, cuando estoy pensando en el nacimiento y vida de una estrella y en su como enana blanca, estrella de neutrones o agujero negro (dependiendo de su masa), siento cómo ese gas y ese polvo cósmico estelar se junta y gira en remolinos, cómo se forma un núcleo las moléculas, más juntas cada vez, rozan las unas con las otras, se calientan e ionizan y, finalmente, se fusionan para brillar durante miles de millones de años y, cuando agotado el combustible nuclear degeneran en enanas blancas, veo con claridad cómo la degeneración de los electrones impide que la estrella continúe cediendo a la fuerza de gravedad y queda así estabilizada. Lo mismo ocurre en el caso de las estrellas de neutrones, que se frena y encuentra el equilibrio en la degeneración de los neutrones, que es suficiente para detener la enorme fuerza gravitatoria. Y, cuando llego a la implosión que dará lugar a una singularidad, ahí quedo perdido, mi mente no puede, como en los casos anteriores, “ver” lo que realmente ocurre en el corazón del agujero negro, ya  que, lo que llamamos singularidad, parece como si desapareciera de este mundo.

emilio silvera

No siempre hablamos de lo que comprendemos

Autor por Emilio Silvera    ~    Archivo Clasificado en Física... ¡Y mucho más!    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Experimentos sencillos de f�sica

 

¡La Física! Lo que busca la física fundamental es reducir las leyes de la naturaleza a una teoría final sencilla que lo explique todo. El físico y premio Nobel Steven Weinberg señala que las reglas fundamentales son lo más satisfactorio (al menos él). Las leyes básicas de Isaac Newton, que predicen el comportamiento de los planetas, son más satisfactorias, por ejemplo, que un almanaque en el que se indique la posición de todos los planetas en cada . Weinberg nos dice que la Física no puede explicarlo todo, matizando que sólo puede explicar los sucesos relacionándolos con otros sucesos y con las reglas existentes.

http://salonkritik.net/08-09/planets.jpg

Por ejemplo, las órbitas de los planetas son el resultado de unas reglas, pero las distancias de los planetas al Sol son accidentales, y no son consecuencia de ley fundamental alguna. Claro que, las leyes podrían ser fruto de casualidades. Lo que sí es cierto es que los físicos están más interesados por descubrir las reglas que por los sucesos que dichas reglas determinan, y más por los hechos que son independientes del tiempo; por ejemplo, les interesa más la masa del electrón que un tornado que se pueda producir en un lugar determinado.

La ciencia, como nos dice Weinberg, no puede explicarlo todo y, sin embargo, algunos físicos tienen la sensación de que nos estamos acercando a “una explicación del mundo” y, algún día, aunando todos los esfuerzos de muchos, las ideas de las mejores mentes que han sido, y las nuevas que llegarán, podremos, al fín, construir esa Teoría final tan largamente soñada que, para que sea convincente, deberá también, incluirnos a nosotros. Pero, paradógicamente y a pesar de estos pensamientos, existen hechos que los contradicen, por ejemplo, conocemos toda la física fundamental de la molécula de agua desde hace 7 decenas de años, pero todavía no hay nadie que pueda explicar por qué el agua hierve a los 100 ºC. ¿Qué ocurre? ¿Somos acaso demasiado tontos? Bueno, me atrevería a pronosticar que seguiremos siendo “demasiado tontos” incluso los físicos consigan (por fin) esa teoría final que nos pueda dar una “explicación del mundo”. Siempre seguiremos siendo aprendices de la naturaleza que, sabia ella, nos esconde sus secretos para que persista el misterio.

¿Qué sería de nosotros si lo supiéramos todo?

La explicación que dan los físicos actualmente  sobre la subestructura de la materia se llama “el modelo estándar”. En este modelo están incluídas las doce partículas elementales y las tres fuerzas que, cuando se mezclan y se encajan, sirven para construir todo lo que hay en el universo, desde un redondo pan de pueblo hecho en un horno de leña,  hasta las más complejas galaxias, y puede explicar todos los mecanismos de acción, es decir, la mecánica del mundo.

Entre las partículas figuran los seis Quarks famosos: arriba, abajo, extraño, encanto, fondo y . Las otras seis partículas son Leptones: el electrón y sus dos parientes más pesados, el muón y el tau y los tres neutrinos a ellos asociados. Las tres fuerzas son la electromagnética, la fuerza nuclear fuerte (que mantiene unidos a los quarks) y la fuerza nuclear débil (responsable de la radioactividasd). Hay una cuarta fuerza: la Gravedad que, aunque tan importante como las demás, nadie ha sabido como encajarla en el modelo estándar. Todas las partículas y fuerzas de este modelo son cuánticas; es decir, siguen las reglas de la mecánica cuántica. Aún no existe una teoría de la gravedad cuántica.

 

En realidad, la región que denominamos Gravedad cuántica nos lleva y comprende preguntas sobre el origen del universo observable que nadie ha sabido contestar. Nos lleva a complejos procesos cuánticos situados en las épocas más cercanas imaginables en un espacio-tiempo clásico, es decir, en lo que se conoce como Tiempo de Planck a 10-43 segundos del supuesto big bang, cuando reinaba una temperatura del orden de 10 x 1031 K. Pero, como hemos dicho, al no existir una teoría autoconsistente de la Gravedad cuántica, lo único que podemos hacer (como en tantas otras áreas de la Ciencia)  es especular.

El Modelo Estándar no es, ni mucho , satisfactorio. Los científicos piensan que no sólo es incompleto, sino que es demasiado complicado y, desde hace mucho tiempo, buscan, incansables, otro modelo más sencillo y completo que explique mejor las cosas y que, además, no tenga (como tiene el modelo actual) una veintena de parámetros aleatorios y necesarios para que cuadren las cuentas…, un ejemplo: el bosón de Higgs necesario para dar masa a las partículas.

¡La masa! ese gran problema. Todas las partículas masa diferentes pero nadie sabe de donde salen sus valores. No existe fórmula alguna que diga, por ejemplo,  que el quark extraño debería pesar el (o lo que sea) del quark arriba, o que el electrón deba tener 1/200 (u otra proporción) de la masa del muón. Las masas son de todo tipo y es preciso “ponerlas a mano”, como se suele decir: cada una ha de ser medida experimental e individualmente. En realidad, ¿por qué han de tener masa las partículas? ¿de dónde viene la masa?

Norma Materia Oscura

No puedo evitarlo ni tampoco me puedo quedar callado, he asistido a alguna conferencia sobre la materia y, el ponente de turno se agarra a la “materia oscura” para justificar lo que no sabe, si al final hay debate, entro en escena para discutir sobre la existencia de esa “materia fantasma” que quiere tapar nuestra enorme ignorancia.

Pero, sigamos con el de la masa. Para resolverlo, muchos expertos en física de partículas creen actualmente en algo que llaman “campo de Higgs”. Se trata de un campo misterioso, invisible y etéreo que está permeando todo el espacio (¿habrán vuelto al antiguo éter pero cambiándole el nombre?). que la materia parezca pesada, como cuando tratamos de correr por el fondo de la piscina llena de agua pero que el agua no se pudiera ver. Si pudiéramos encontrar ese campo, o más bien la partícula la partícula que se cree es la manifestación de ese campo (llamada el bosón de Higgs), avanzaríamos un largo trecho hacia el conocimiento del universo.

Resultado de imagen de El Gran Colisionador de Hadrones

            El Gran Colisionador de Hadrones

Aquí, en este imponente artilugio inventiva de nuestras mentes, se quiere dar respuesta a una serie de interrogantes que se espera solucionar con este experimento:

• Qué es la masa.
• El origen de la masa de las partículas
• El origen de la masa para los bariones.
• El número exacto de partículas del átomo.

Claro que, si no fuera tan largo de contar, os diría que, en realidad, el de Higgs se descubrió hace ya muchos siglos en la antigua India, con el nopmbre de maya, que sugiere la idea de un velo de ilusión para dar peso a los objetos del mundo material. Pocos conocen que, los hindúes fueron los que más se acercaron a las modernas sobre el átomo, la física cuántica y otras teorías actuales. Ellos desarrollaron muy temprano sólidas teorías atomistas sobre la materia. Posiblemente, el pensamiento atomista griega recibió las influencias del pensamiento de los hindúes a través de las civilizaciones persas. El Rig-Veda, que data de alguna fecha situada entre el 2000 y el 1500 a. C., es el primer texto hindú en el que se exponen unas ideas que pueden considerarse leyes naturales universales. La ley cósmica está realcionada con la luz cósmica.

 Resultado de imagen de en la India la creación de los Vedas

                     Los Vedas: Textos míticos

Anteriores a los primeros Upanishads tenemos en la India la creación de los Vedas, visiones poéticas y espirituales en las que la imaginación humana ve la Naturaleza y la expresa en creación poética, y después va avanzando unidades más intensamente reales que espirituales hasta llegar al Brahmán único de los Upanishads.

la época de Buda (500 a, C.), los Upanishad, escritos durante un período de varios siglos, mencionaban el concepto  de svabhava, definido “la naturaleza inherente de los distintos materiales”; es decir, su eficacia causal única, , tal como la combustión en el caso del fuego, o el hecho de fluir hacia abajo en el caso dela agua. El pensador Jainí Bunaratna nos dijo: “Todo lo que existe ha llegado a existir por acción de la svabhava. Así… la tierra se transforma en una vasija y no en paño… A partir de los hilos se produce el paño y no la vasija”.

       El pensamiento Hindú tendrçia que ser mejor estudiado

También aquellos pensadores, manejaron el concepto de yadrccha, o azar desde tiempos muy remotos. Implicaba la falta de orden y la aleatoriedad de la causalidad. Ambos conceptos se sumaron a la afirmación del griego Demócrito medio siglo más tarde: “Todo lo que hay en el universo es fruto del azar y la necesidad”. El ejemplo que que dio Demócrito -similar al de los hilos del paño- fue que, toda la materia que existe, está formada por a-tomos o átomos.

Bueno, no lo puedo evitar, mi imaginación se desboca y corre rápida por los diversos pensamientos que por la mente pasan, de uno se traslada a otros y, al final, todo resulta un conglomerado de ideas que, en realidad, quieren explicar, dentro de esa diversidad, la misma cosa.

emilio silvera

Necesitamos una teoría unificada del Cosmos

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo y... ¿nosotros?    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Hace mucho tiempo ya que el hombre mira al cielo y observa los objetos celestes. Muy lejos queda ya la teoría geocéntrica de Ptolomeo con una Tierra ocupando el centro del universo. En Babilonia ya tenían aquella visión de una Tierra en el centro de todo y en su obra El Almagesto, Claudio Ptolomeo continuó reflejando esa teoría alla por el siglo II y estuvo en vigor hasta el siglo XVI, cuando fue reemplazada por la teoría heliocéntrica. Fueron muchos los que discrepaban de la teoría que ponía a la Tierra en el centro de todo y, ya en el siglo II a. C., Aristarco de Samos  fue el que defendió la idea con más fuerza e incluso llegó a escribir un libro que no ha llegado a nuestros días.

El tiempo transcurría y las ideas se hicieron más claras y, fue Copérnico el que al fín, en un libro publicado en 1543, De Revolutionibus Orbium Coelestium, dejó fijado el punto de partida que situaba al Sol en el centro y los planetas a su alrededor. Todo aquello, no fue suficiente para que el antiguo modelo de la Tierra central continuara durante algún tiempo, toda vez que Copérnico, no explicaba de manera suficiente algunos fenómenos y, además, se alejaba de la educación religiosa del momento.

JKepler.png

      Kepler en un retrato de 1610

Kepler con la herramienta de las muchas observaciones realizadas por Tycho Brahe que estudió a fondo, pudo formular sus Tres Leyes en 1609 y 1619, en las que dejó sentado que las planetas se movían en trayectorias elípticas. Galileo con sus observaciones despejó el camino hacia la comprensión de dónde nos encontrábamos. Más tarde llegaría Newton con su Ley de la Gravedad y no fue hasta 1915 que la entrada en escena de Einstien nos trajo un Modelo más moderno y coherente con su Teoría de la Relatividad General.

La Teoría  hilocéntrica llegó con fuerza hasta los principios del siglo XX, el Sol estaba situado en el centro sobre el cual giraba todo el universo con los objetos del espacio profundo que contenían “nebulosas espirales”.

                                 Harlow Shapley

La llegada de Shapley al “mundo” de las estrellas le dieron otro giro a la visión que del universo se tenía.  Sus observaciones iniciaron el estudio de las estrellas variables que llevó a descubrir un tipo especial de ellas que se caracterizaban por el hecho de que los cambios de brillo estaban relacionados con su liuminosidad intrínseca y, como la estrella prototipo se encontró en la Constelación de Cefeo, se las llamó Cefeidas.

A partir de aquel momento, y, conociendo la luminosidad de un objeto celeste bastaba aplicar la ley del cuadrado inverso que nos dice que el brillo disminuye de acuerdo al cuadrado de la distancia y se pudo calcular la distancia a la que se encontraba el objeto estudiado. Así Shapley siguió con su impresionante trabajo y pudo observar cúmulos globulares, grupos de millones de estrellas que estaban “juntas” en un cúmulo compacto y redondo girando alrededor de los centros galácticos. Se pudo apreciar que el Sol, debería estar situado en la periferia del Universo y muy lejos del centro de la Galaxia.

http://bitacoradegalileo.files.wordpress.com/2010/09/m22_cfht.jpg

                         Los cúmulos globulares pueden contener hasta miles de millones de estrellas

Todos aquellos nuevos descubrimientos llamaron la atención de muchos y, hasta el filósofo Immanuel Kant contribuyó al conocimiento del universo con sus obra Historia general de la naturaleza y teoría del cielo, en la que exponía la hipótesis de que a partir a una nebulosa de gas surgió el Sistema solar y sugirió la idea de que existían otras muchas galaxias que eran como “universos islas”, es decir, una especie de universos en miniatura cuajado de estrellas y de mundos.

Su idea de los universos islas llegaron hasta principios del siglo XX y “las nebulosas espirales”, eran en realidad otros universos islas como la Vía Láctea pero separados de ella y, esa teoría fue firmemente apoyada por Herschel aunque no se tenían pruebas contundentes de ello. Pero como el avance del conocimiento no se para, aquellas pruebas llegaron de la mano de las observaciones de Hubble, realizadas en el Observatorio de Monte Wilson.

                     Como inmensas pompas de jabón que reflejan el brillo multicolor de las estrellas

El Universo dejó de ser algo estático para convertirse en un universo en expansión. El descubrimiento de varios supercúmulos galácticos en 1978, como el de Perseo-Pegaso  (que, se extiende por el cielo a través de mil millones de años-luz), es la mayor de las estructuras que se han podido constar hasta la fecha en el universo. Otro hallazgo importante ocurrió en 1981, cuando se halló el primer “vacío” en la Constelación de Boötes. El vacío, o “Burbuja de Hubble”, una gran región del espacio en la que no existen galaxias -o muy pocas- y cuya extensión puede alcanzar los 250 millones de años-luz de diámetro. En 1985 se descubrieron nuevos vacíos que vinieron a configurar una nueva imagen de nuestro universo que está lleno de burbujas.

Hubble, el 19 de febrero de 1924, escribió a Shapley, quien defendía la existencia de una sola galaxia:

«Seguramente le interesará saber que he hallado una variable cefeida en la nebulosa de Andrómeda». De esta manera se reveló que las nebulosas espirales no eran simples cúmulos de gas dentro de la vía láctea sino verdaderas galaxias independientes o como Kant describió «universos isla».

 

Pero la historia de las variables Cefeidas tiene otra protagonista que no quiero dejar aquí oculta en el olvido y que es de justicia destacar para que los méritos sean repartidos conforme a quién los ganó. No siempre se han otorgado los premios a los que lo merecieron. Claro que todo aquello no era nada fácil toda vez que…

 El ojo humano solo es capaz de percibir la pequeña porción que corresponde a la luz visible, situada entre los 3900 Å y 7500 Å, donde la menor se encuentra cerca del violeta y la mayor del rojo. El Sol emite en todas las longitudes de onda, pero solo llegan a la superficie una pequeña porción de estas, las demás son frenadas por la atmósfera: el ozono absorbe las mas altas longitudes de onda hasta el ultravioleta, y el vapor de agua absorbe gran parte de las infrarrojas. Fueron los telescopios los que nos permitieron llegar más lejos y ver más.

friends/colleagues en My Photos de

En el Observatorio de la Universidad de Harvard, uno de los principales centros de la monótona pero prometedora tarea de la taxonomía estelar, las placas fotográficas que mostaban los colores y espectros de decenas de miles de estrellas se apilaban ante “calculadoras”, mujeres empleadas como miembros del personal de una facultad que les impedía asistir a clases u obtener un título pero que, desarrollaban una labor importante de infinita paciencia

the good old days... en My Photos de

Una de esas mujeres, Henrietta Leavitt (arriba), fue la investigadora pionera de las estrellas variables cefeidas que tan útiles serían a Shapley y Hubble, ella fue una de esas “calculadoras” de Harvard que, se encargaban de examinar las placas y registrar los datos en una pulcra escritura victoriana para su compilación en volúmenes como el Henry Draper Catalog, así llamado en honor al primer astrofotógrafo y físico que tomó las primeras fotografías del espectro de una estrella. Como presos que marcan el paso de los días en los muros de su celda, señalaban su progreso en totales de estrellas catalogadas. Antonia Maury, sobrina de Draper, contaba que había clasificado los espectros de más de quinientas mil estrellas. Su labor era auténticamente baconiana, del tipo que Newton y Darwin instaban a hacer pero raramente hicieron ellos, y las mujeres se enorgullecían de ella. Como afirmaba la “calculadora” de Harvard Annie Jump Cannon: “Cada dato es un facto valioso en la imponente totalidad”.

Precisamente fue Cannon quien,  en 1915, empezó a discernir la forma de esa totalidad, cuando descubrió que la mayoría de las estrellas pertenecían a una de media docena de clases espectrales distintas. Su sistema de clasificación (ahora generalizado en la astronomía estelar), ordena los espectros por color, desde las estrellas O blancoazuladas, pasando por las estrellas G amarillas como el Sol, hasta las estrellas rojas M. Era un rasgo de simplicidad debajo de la asombrosa variedad de las estrellas.

Pronto se descubrió un orden más profundo, en 1911, cuando el ingeniero y astrónomo autodidacto danés Ejnar Hertzsprung analizó los datos de Cannon y Maury de las estrellas de dos cúmulos, Las Híades y las Pléyades. Los cúmulos como estos son genuínos conjuntos de estrellas y no meras alineaciones al azar; hasta un observador inexperimentado salta entusiamado cuando recorre con el telescopio las Pléyades, con sus estrellas color azul verdoso enredadas en telarañas de polvo de diamante, o las Híades, cuyas estrellas varían en color desde el blanco mate hasta el amarillo apagado.

                                                                     Las Pléyades

                                                Las Híades

Puesto que puede supònerse que todas las estrellas de un cúmulo están a la misma distancia de la Tierra, toda diferencia observada en sus magnitudes aparentes pueden atribuirse, no a una diferencia en las distancias, sino en las magnitudes absolutas. Hertzsprung aprovechó este hecho para utilizar los cúmulos como muestras de laboratorio con las que podía buscar una realción entre los colores y los brillos intrínsecos de las estrellas. Halló tal relación: la mayoría de las estrellas de ambos cúmulos caían en dos líneas suavemente curvadas. Esto, en forma de gráfico, fue el primer esbozo de un árbol de estrellas que desde entonces ha sido llamado Diagrama de Hertzsprung-Russell. Claro, como cabía esperar, la aplicabilidad del método pronto se amplió también a estrellas no pertenecientes a cúmulos.

Portrait of Henry Norris Russell.jpg
Henry Norris Russell

 Henry Norris Russell, un astrofísico de Princeton con un enciclopédico dominio de su campo, pronto se puso a trabajar justamente en eso. Sin conocer siquiera el trabajo de Hertzsprung, Russell diagramó las magnitudes absolutas en función de los colores, y halló que la mayoría están a lo largo de una estrecha zona inclinada: el trondo del árbol de estrellas. El árbol ha estado creciendo desde entonces y hoy, está firmemente grabado en la conciencia de todos los astrónomos estelares del mundo. Su tronco es la “serie principal”, una suave curva en forma de S a lo largo de la cual se sitúan entre el 80 y el 90 por 100 de todas las estrellas visibles. El Sol, una típica estrella amarilla, está en la serie principal a poco menos de la mitad del tronco hacia arriba. Una rama más fina sale del tronco y se esxtiende hacia arriba y a la derecha, donde florece en un ramillete de estrellas más brillantes y más rojas: las gigantes rojas. Debajo y a la izquierda hay una cantidad de mantillo de pálidas estrellas entre azules y blancas: las enanas.

                 El Diagrama de  Hertzsprung-Russell resumido

Este diagrama proporcionó a los astrónomos un registro congelado de la evolución, el equivalente astrofísico del registro fósil que los geólogos estudian en los estratos rocosos. Presumiblemente, las estrellas evolucionan de algún modo, pasan la mayor parte de su tiempo en la serie principal (la mayoría de las estrellas en la actualidad, en el brevísimo tiempo que tenemos para observar, se encuentran allí), pero empiezan y terminan su vida en alguna otra parte, entre las ramas o en el mantillo. Por supuesto, no podemos esperar para ver que esto sucede, pues el tiempo de vida, aun de estrellas de vida corta, se mide en millones de años. Hallar las respuestas exigirá conocer toda la física del funcionamiento estelar.

Todo esto nos lleva de nuevo a pensar que, sería conveniente que surgiera una teoría unificada del Cosmos, acorde con los primeros pasos del Big Bang y con la aún misteriosa formación de estructuras a gran escala: un modelo, en fin, que contendría en un todo coherente el origen, la evolución, la estructura actual y el destino último del Universo.

Me hubiera gustado contar de manera paralela que, a finales del s. XIX y principios del s. XX,  el progreso de la Física, estaba bloqueado por una barrera aparentemente insuperable. Esto era literal: el agente responsable era conocido como la barrera de Coulomb, y por un tiempo frustó los esfuerzos de los físicos teóricos para comprender cómo la fusión nuclear podía producir energía en las estrellas… Pero eso, amigos, es otra historia que os contaré en otro momento.

emilio silvera

¡La Física! ¿Hasta dónde nos llevará?

Autor por Emilio Silvera    ~    Archivo Clasificado en Materiales increibles    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

El Grafeno es uno de los materiales del futuro

           Hace apenas diez años que se pudo observar el Grafeno

Resultado de imagen de moléculas de carbono en forma de balón de futbol

Fueron obervadas por los Astrónomos de la NASA

Primero fueron las moléculas de carbono en forma de balón de futbol; luego llegó el carbono enrollado en forma de nanotubos de carbono, más tarde las mallas microscópicas y, mañana… ¿quién sabe, qué maravillas nos espera? Puede que en unos años el valle más famoso de la era de la informática tenga que cambiar de nombre. Al norte de California, entre montañas y autopistas, una extensa aglomeración de empresas de nuevas tecnologías es conocida como Silicon Valley, en inglés valle del silicio, elemento químico con el que se fabrican los microchips. Pero el futuro, dicen algunos expertos y muchas publicaciones científicas, está en los chips de grafeno, un material resistente, transparente y extremadamente flexible.

Científicos surcoreanos acaban de construir la primera pantalla táctil de este material. Tiene 30 pulgadas y puede doblarse y enrollarse hasta ocupar un espacio mínimo. IBM, el gigante de la informática, presentó este invierno sus primeros chips de grafeno, 10 veces más veloces que los de silicio. Los fabricantes de baterías para móviles anuncian que mejorarán su producto gracias a este derivado del grafito, con el que también está hecha la radio más pequeña del mundo, diseñada por el Instituto Tecnológico de Massachusetts (MIT). ¿Estamos ante una nueva revolución que traerá ordenadores aún más rápidos y pantallas aún más pequeñas? ¿O hablar del valle del grafeno es tan solo fantasía?

Las pantallas del futuro serán flexibles, eso está claro. Los principales fabricantes se afanan en buscar nuevas fórmulas, no solo de grafeno sino también de tecnología OLED, basada en una capa que emite luz y está formada por componentes orgánicos (polímeros). También se intenta hacer papel electrónico con óxidos de metal o variantes del silicio clásico, como silicio cristalino o sus combinaciones con el caucho, bastante más elástico.

El instituto de nanotecnología en el que han desarrollado la primera pantalla táctil de grafeno, en la Universidad Sungkyunkwan de Seúl, ha conseguido llamar la atención de las grandes compañías. El sector está inquieto. Pantallas que se doblan como un papel y que dentro de poco, según James Tour, de la Universidad de Rice (Houston) y uno de los químicos más prestigiosos de la última década, podrán enrollarse “hasta formar un pequeño lápiz que nos pondremos tras la oreja”. Samsung, líder mundial en diversas ramas de la industria electrónica, ya ha anunciado que en dos años comercializará un artilugio parecido.

grafeno

Qué ocurrirá entonces con los netbooks, esos pequeños ordenadores que coparon el mercado allá por el año 2009, y que nos parecían el último grito? ¿Y qué será del iPad de Apple? En sus cuatro primeros meses de vida, se vendieron más de tres millones de esta tableta ultraportátil que hace las veces de ordenador y teléfono. Pero incluso el gran invento de 2010 dejaría de tener sentido si sale al mercado una pantalla que pesa menos y que, extendida, es más grande y nítida, mientras que, enrollada, ocupa mucho menos espacio.

Si nuestros abuelos levantan la cabeza en sus tumbas y pudieran contemplar como se envía por fax un documento, de manera instantánea, de un lugar a otro lejano…, y, sin embargo, todo eso nos parece de lo más normal y cotidiano. Según vamos avanzando, ¿qué maravillas podremos ver nosotros? La ciencia avanza de manera exponencial y se cumple la ley Moore, cada poco tiempo, lo que hoy es moderno, queda obsoleto y hay que reemplazarlo por algo nuevo menos costoso, con más prestaciones, más barato de fabricar…

Imagen relacionada

Por ejemplo, las láminas de Grafeno, unque comparte muchas de las propiedades que emocionaron de los nanotubos de carbono hace poco más de una una década, el grafeno es más facil de manipular y fabricar, lo cual le da mayores probabilidades de ser utilizado en laboratorios y aplicaciones prácticas. Si unimos a eso que el grafeno es uno de los mejores conductores de calor y de electricidad; su resistencia es 200 veces más que la del acero; es muy duro y muy elástico; tan ligero como la fibra de carbono. Los científicos han fabricado transistores de grafeno y los utilizan para explorar raros fenómenos cuánticos a temperatura ambiente.

entrevista

Las aplicaciones del Grafeno son inimaginables en todos los sectores de la tecnología, medicina, Espacio…

Hace aún pocos años, sólo un puñado de gente investigaba algo relacionado con el grafeno. En una reunión de la Sociedad Americana de Física, celebrada en marzo, se presentaron cerca de 100 temas relacionados con el material. “Es como descubrir una isla” con varias especies para catalogar y ser estudiadas, manifestó Carlo Beenakker, profesor de física teórica en la Universidad Leiden, en Holanda.

Un nanotubo es grafeno enrollado. El grafito, lo que hay en la punta de un lápiz, está formado por capas de carbón apiladas, una encima de otra, como una baraja. Pero por mucho tiempo no se tuvo la destreza para sacar solo una de las cartas de esa baraja.

Hace unos 10 años, unos investigadores dirigidos por Rodney Ruoff, un de nanoingeniería de la Universidad Northwestern, frotaron pequeños pilares de grafito contra una plaqueta de silicio, lo que causó que se repartieran como una baraja. La técnica sugirió que podrían producir un grafeno de una sola capa, pero Ruoff no midió el grosor de la hojuela.

Luego, en 2004, un grupo de investigadores encabezado por el doctor Andre Geim, profesor de física de la Universidad de Manchester, en Inglaterra, desarrolló una mejor técnica: ponían una hojuela de grafito en un pedazo de cinta adhesiva, la doblaban y cortaban, con lo que dividian la hojuela en dos. Doblando y desdoblando repetidamente, el grafito se volvia cada vez más delgado; luego pegaron la cinta en una oblea de silicio y la frotaron. Algunas de las hojuelas de grafito se pegaron a la oblea y eran del grosor de un átomo.

Con este sencillo método de fabricar grafeno, se comenzaron a hacer todo tipo de experimentos. Por ejemplo: algunos lo emplearon para construir transistores y otros aparatos electrónicos.

Incluso se están haciendo estudios con estos materiales para ver la posibilidad de construir ascensores espaciales a la Luna, a la Estación Espacial Inrternacional, a bases de despegue de naves que saldrán a explorar el espacio interestelar…

Las hojas de grafeno no son planas, sino onduladas, y medir su grosor es toda una odisea. Los mejores microscopios del mundo pueden notar la presencia de un solo átomo, pero usarlos para medir el grosor de cada hojuela de grafeno es terriblemente lento. No obstante, Geim descubrió que una hoja así de delgada cambia el color de la capa de óxido de silicio en la superficie de una plaqueta, como el arcoiris que se genera cuando se vierte aceite sobre agua. Así con una simple ojeada a través de un sencillo microscopio, los investigadores pueden saber si una hojuela de grafeno tiene más de 10 capas de grosor (amarillo), entre 30 y 40 (azul), alrededor de 10 (rosa) o solo una (rosa pálido, casi invisible).

Pero aún enfrentan retos: el método de la cinta adhesiva no permite la producción en masa, al menos no de un modo costeable. Por ello, Walter de Heer, profesor de física del instituto Tecnológico de Georgia, ha refinado una técnica para obtener grafeno del carburo de silicio. Al calentar una plaqueta de este material a 1300ºC, los átomos de silicio de la superficie se evaporan, mientras que los átomos de carbono restantes se reacomodan en grafeno. “Es como cocinar un pavo”, dice De Heer.

También, los científicos han demostrado un fenómeno conocido como el efencto cuántico Hall, donde la resistencia eléctrica perpendicular a la corriente y un campo magnético aplicado saltan entre ciertos valores discretos. El efecto cuántico Hall se ve comúnmente a temperaturas muy bajas en semiconductores, pero con el grafeno ocurre a temperatura ambiente.

Si hablamos de los nanotubos de carbono, hay que decir que tienen excepcionales propiedades mecánicas, térmicas, químicas ópticas y eléctricas, por lo que son un material prometedor para numerosas aplicaciones de alta tecnología. En la práctica, las primeras aplicaciones de los nanotubos de carbono han sido electrónicas debido a sus particulares propiedades eléctricas, ya que los nanotubos pueden ser metálicos o semiconductores. Los nanotubos permiten hacer más pequeños los dispositivos, conducen muy bien el calor y aumentan la vida útil de los dispositivos.

Imagen relacionada

– Los nanotubos, por su carácter metálico o semiconductor, se utilizan en nanocircuitos:

  • Interconectores. Los nanotubos conducen bien el calor y poseen una fuerte estructura para transportar corriente, aunque la conductividad disminuye al aumentar el número de defectos.
  • Diodos. Al unir nanotubos metálicos y semiconductores, o con campos eléctricos, similares a las uniones P-N.
  • Transistores. De efecto campo, de electrón único, interruptores.

– Se emplean también como emisores de campo, que es una manera de arrancar electrones de un sólido aplicando un campo eléctrico. Algunas aplicaciones son: pantallas planas, lámparas y tubos luminiscentes, tubos de rayos catódicos, fuentes de rayos X, microscopios electrónicos de barridos, etc.

– Otras aplicaciones son: nanotubos como filtros RF, y memorias fabricadas con nanotubos más rápidas, baratas, con mayor capacidad y menor consumo  (nos dice Sergio Sánchez Force).

 

También se han utilizado los nanotubos de carbono para fabricar unas películas conductoras transparentes de distintos colores, mediante una técnica conocida como ultracentrifugación en gradiente de densidad que hace que láminas obtenidas se parezcan a un vidrio teñido. Estas películas pueden introducir mejoras en células solares y monitores de pantalla plana.

Actualmente, el óxido de estaño indio (ITO) es el material más utilizado para las aplicaciones conductoras transparentes. Pero debido a la escasez de indio y a su pobre flexibilidad mecánica, se ha buscado un conductor transparente alternativo, encontrándolo en los nanotubos de carbono.

Los nanotubos de carbono recientemente se utilizan también para fabricar productos electrónicos flexibles, como por ejemplo papel electrónico, a un coste asequible. Esto es debido a que ha surgido una forma de hacer transistores de alto rendimiento en un substrato de plástico.

Las buckyesferas, también conocidas como fullerenos, son moléculas con forma de balón de fútbol formadas por 60 átomos de carbono unidos. Y el espacio está lleno de ellas. Así nos lo comunicaron en su día los científicos de la NASA cuando lo descubrieron en las Nebulosas y en otras regiones del Espacio Interestelar.

No sólo en transistores, móviles o pantallas, este material estará presente por todas partes y, no digamos en el espacio. Por cierto, está presente ya en todas las Nebulosas de la que forman una importante proporción. Lo que decimos siempre: ¡Hay que estudiar la Naturaleza!

Imagen relacionada

Los nanotubos de carbono se emplean en chips de dispositivos electrónicos para disipar el calor, reduciendo la temperatura del microprocesador. Los nanotubos disipan el calor de los chips tan bien como el cobre (utilizado también para disipar calor) y son más resistentes, ligeros y conductores que otros materiales para disipar calor, siendo su coste muy competitivo.

Se han desarrollado transistores de película delgada de nanotubos de para crear dispositivos flexibles y transparentes de alto rendimiento. Para ello, se emplean conjuntos alineados o redes de nanotubos para hacer transistores y circuitos integrados flexibles.

Estos conjuntos constan de miles de nanotubos que funcionan como semiconductor en forma de película delgada en el que las cargas se mueven a través de cada uno de los nanotubos. Un dispositivo típico tiene mil nanotubos y produce corrientes de salida mil veces mayores a los que tienen un solo nanotubo.

Esta es una nueva aplicación de los cada vez más populares nanotubos de carbono.

                           Almacena energía solar durante un tiempo indefinido

Recientemente se ha desarrollado una tecnología para almacenar energía solar con nanotubos de carbono, que se recargan cuando se exponen al sol. Este método supone menor coste que otras alternativas y mejora con respecto a la conversión eléctrica.

Un nanotubo de carbono puede ser conductor o semiconductor según la forma en que se enrolle la lámina de grafito, lo que lleva a emplear los nanotubos como componentes básicos de los transistores, ya que por su pequeño tamaño se podrían introducir muchos transistores en un microprocesador.

Se ha demostrado que la resistencia eléctrica de los nanotubos con vacantes crece exponencialmente con su longitud mientras que en un conductor normal (un hilo de cobre, por ejemplo) la resistencia crece linealmente con la longitud. La presencia de tan sólo un 0,03% de vacantes sea capaz de incrementar la resistencia eléctrica de un nanotubo de 400 nanómetros de longitud en más de mil veces. Este hallazgo podría permitir modificar a voluntad la resistencia en un nanotubo mediante la inclusión controlada de defectos, de manera análoga a como se hace actualmente en los materiales semiconductores.

Hay cuestiones en el mundo de la física cuántica que, literalmente, nos dejan con la boca abierta por el asombro. Como ocurre también con partículas cuya rotación, al duplicarse, resulta igual a un número par. Para manipular sus energías hay otra serie de reglas, ideadas por Einstein y el físico indio S. N. Bose. Las partículas que se adaptan a la estadística Bose-Einstein son Bosones, como por ejemplo la partícula Alfa.

A bajas temperaturas los Bosones tienden a tener un comportamiento cuántico similar que puede llegar a ser idéntico a temperaturas cercanas al cero absoluto en un estado de la materia conocido como condensado de Bose-Einstein.

Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de esta teoría en vez de los de la mecánica clásica. En estadística cuántica, los estados de energía se considera que están cuantizados. La estadística de Bose-Einstein se aplica si cualquier número de partículas puede ocupar un estado cuántico de igualdad. Dichas partículas (como dije antes) son Bosones que tienden a juntarse.

Resultado de imagen de Momento angular de los Bosones

Los Bosones tienen un momento angular nh/2π, donde n es 0 o un entero, y h es la constante de Planck. cons Para Bosones idénticos, la función de ondas es siempre simétrica. Si sólo una partícula puede ocupar un estado cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n + ½)h / 2π y cualquier función de ondas de iones feridénticos es siempre antisimétrica. La relación entre el espín y la estadística de las partículas está demostrada por el teorema espín-estadística.

En fin, la Física, esa disciplina que nos lleva hacia el futuro.

emilio silvera