Jun
6
El universo cuántico
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Veamos las partículas elementales de vida superior a 10-20 segundos que eran conocidas en el año 1970.
Nombre | Símbolo | Masa (MeV) | Carga | Espín | Vida media (s) |
Fotón | γ | 0 | 0 | 1 | ∞ |
Leptones (L = 1, B = 0) | |||||
Electrón | e– | 0’5109990 | – | ½ | ∞ |
Muón | μ– | 105’6584 | – | ½ | 2’1970 × 10-6 |
Tau | τ | ||||
Neutrino electrónico | νe | ~ 0 | 0 | ½ | ~ ∞ |
Neutrino muónico | νμ | ~ 0 | 0 | ½ | ~ ∞ |
Neutrino tauónico | ντ | ~ 0 | 0 | ½ | ~ ∞ |
Mesones (L = 0, B = 0) | |||||
Pión + | π+ | 139’570 | 2’603 × 10-8 | ||
Pión – | π– | 139’570 | 2’603 × 10-8 | ||
Pión 0 | π0 | 134’976 | 0’84 × 10-16 | ||
Kaón + | k+ | 493’68 | 1’237 × 10-8 | ||
Kaón – | k– | 493’68 | 1’237 × 10-8 | ||
Kaón largo | kL | 497’7 | 5’17 × 10-8 | ||
Kaón corto | kS | 497’7 | 0’893 × 10-10 | ||
Eta | η | 547’5 | 0 | 0 | 5’5 × 10-19 |
Bariones (L = 0, B = 1) | |||||
Protón | p | 938’2723 | + | ½ | ∞ |
Neutrón | n | 939’5656 | 0 | ½ | 887 |
Lambda | Λ | 1.115’68 | 0 | ½ | 2’63 × 10-10 |
Sigma + | Σ+ | 1.189’4 | + | ½ | 0’80 × 10-10 |
Sigma – | Σ– | 1.1974 | – | ½ | 7’4× 10-20 |
Sigma 0 | Σ0 | 0 | ½ | 1’48 × 10-10 | |
Ksi 0 | Ξ0 | 1.314’9 | 0 | ½ | 2’9 × 10-10 |
Ksi – | Ξ– | 1.321’3 | – | ½ | 1’64 × 10-10 |
Omega – | Ω– | 1.672’4 | – | 1½ | 0’82 × 10-10 |
Para cada leptón y cada barión existe la correspondiente antipartícula, con exactamente las mismas propiedades a excepción de la carga que es la contraria. Por ejemplo, el antiprotón se simboliza con ‾p y el positrón con e+. Los mesones neutros son su propia antipartícula, y el π+ es la antipartícula del π–, al igual que ocurre con k+ y k–. El símbolo de la partícula es el mismo que el de su antipartícula con una barra encima. Las masas y las vidas medias aquí reflejadas pueden estar corregidas en este momento, pero de todas formas son muy aproximadas.
Los símbolos que se pueden ver algunas veces, como s (extrañeza) e i (isospín) están referidos a datos cuánticos que afectan a las partículas elementales en sus comportamientos. En la física de partículas el isospín es un número cuántico relacionado con la interacción fuerte y aplicado a interacciones del protón y el neutrón.
Debo admitir que todo esto tiene que sonar algo misterioso. Es difícil explicar estos temas por medio de la simple palabra escrita sin emplear la claridad que transmiten las matemáticas, lo que, por otra parte, es un mundo secreto para el común de los mortales, y ese lenguaje es sólo conocido por algunos privilegiados que, mediante un sistema de ecuaciones pueden ver y entender de forma clara, sencilla y limpia, todas estas complejas cuestiones.
Ecuación dinámica de rotación Momento angular
Si hablamos del espín (o, con más precisión, el momento angular, que es aproximadamente la masa por el radio por la velocidad de rotación) se puede medir como un múltiplo de la constante de Planck, h, dividido por 2π. Medido en esta unidad y de acuerdo con la mecánica cuántica, el espín de cualquier objeto tiene que ser o un entero o un entero más un medio. El espín total de cada tipo de partícula – aunque no la dirección del mismo – es fijo.
El electrón, por ejemplo, tiene espín ½. Esto lo descubrieron dos estudiantes holandeses, Samuel Gondsmit (1902 – 1978) y George Uhlenbeck (1900 – 1988), que escribieron sus tesis conjuntamente sobre este problema en 1972. Fue una idea audaz que partículas tan pequeñas como los electrones pudieran tener espín, y de hecho, bastante grande. Al principio, la idea fue recibida con escepticismo porque la “superficie del electrón” se tendría que mover con una velocidad 137 veces mayor que la de la luz, lo cual va en contra de la teoría de la relatividad general en la que está sentado que nada en el universo va más rápido que la luz, y por otra parte, contradice E=mc2, y el electrón pasada la velocidad de la luz tendría una masa infinita.
Hoy día, sencillamente, tal observación es ignorada, toda vez que el electrón carece de superficie.
Las partículas con espín entero se llaman bosones, y las que tienen espín entero más un medio se llaman fermiones. Consultado los valores del espín en la tabla anterior podemos ver que los leptones y los bariones son fermiones, y que los mesones y los fotones son bosones. En muchos aspectos, los fermiones se comportan de manera diferente de los bosones. Los fermiones tienen la propiedad de que cada uno de ellos requiere su propio espacio: dos fermiones del mismo tipo no pueden ocupar o estar en el mismo punto, y su movimiento está regido por ecuaciones tales que se evitan unos a otros. Curiosamente, no se necesita ninguna fuerza para conseguir esto. De hecho, las fuerzas entre los fermiones pueden ser atractivas o repulsivas, según las cargas. El fenómeno por el cual cada fermión tiene que estar en un estado diferente se conoce como el principio de exclusión de Pauli. Cada átomo está rodeado de una nube de electrones, que son fermiones (espín ½). Si dos átomos se aproximan entre sí, los electrones se mueven de tal manera que las dos nubes se evitan una a otra, dando como resultado una fuerza repulsiva. Cuando aplaudimos, nuestras manos no se atraviesan pasando la uno a través de la otra. Esto es debido al principio de exclusión de Pauli para los electrones de nuestras manos que, de hecho, los de la izquierda rechazan a los de la derecha.
En contraste con el característico individualismo de los fermiones, los bosones se comportan colectivamente y les gusta colocarse todos en el mismo lugar. Un láser, por ejemplo, produce un haz de luz en el cual muchísimos fotones llevan la misma longitud de onda y dirección de movimiento. Esto es posible porque los fotones son bosones.
Cuando hemos hablado de las fuerzas fundamentales que, de una u otra forma, interaccionan con la materia, también hemos explicado que la interacción débil es la responsable de que muchas partículas y también muchos núcleos atómicos exóticos sean inestables. La interacción débil puede provocar que una partícula se transforme en otra relacionada, por emisión de un electrón y un neutrino. Enrico Fermi, en 1934, estableció una fórmula general de la interacción débil, que fue mejorada posteriormente por George Sudarshan, Robert Marschak, Murray Gell-Mann, Richard Feynman y otros. La fórmula mejorada funciona muy bien, pero se hizo evidente que no era adecuada en todas las circunstancias.
En 1970, de las siguientes características de la interacción débil sólo se conocían las tres primeras:
- La interacción actúa de forma universal sobre muchos tipos diferentes de partículas y su intensidad es aproximadamente igual para todas (aunque sus efectos pueden ser muy diferentes en cada caso). A los neutrinos les afecta exclusivamente la interacción débil.
- Comparada con las demás interacciones, ésta tiene un alcance muy corto.
- La interacción es muy débil. Consecuentemente, los choques de partículas en los cuales hay neutrinos involucrados son tan poco frecuentes que se necesitan chorros muy intensos de neutrinos para poder estudiar tales sucesos.
- Los mediadores de la interacción débil, llamados W+, W– y Z0, no se detectaron hasta la década de 1980. al igual que el fotón, tienen espín 1, pero están eléctricamente cargados y son muy pesados (esta es la causa por la que el alcance de la interacción es tan corto). El tercer mediador, Z0, que es responsable de un tercer tipo de interacción débil que no tiene nada que ver con la desintegración de las partículas llamada “corriente neutra”, permite que los neutrinos puedan colisionar con otras partículas sin cambiar su identidad.
A partir de 1970, quedó clara la relación de la interacción débil y la electromagnética (electrodébil de Weinberg-Salam).
La interacción fuerte (como hemos dicho antes) sólo actúa entre las partículas que clasificamos en la familia llamada de los hadrones, a los que proporciona una estructura interna complicada. Hasta 1972 sólo se conocían las reglas de simetría de la interacción fuerte y no fuimos capaces de formular las leyes de la interacción con precisión.
Como apuntamos, el alcance de esta interacción no va más allá del radio de un núcleo atómico ligero (10–13 cm aproximadamente). La interacción es fuerte. En realidad, la más fuerte de todas.
·De particular interés para la Resonancia Magnética Nuclear (RMN) es el espín de los protones y neutrones del núcleo atómico. En el núcleo atómico, cada protón se pueden aparear con otro protón con espín antiparalelo (algo análogo a lo que sucede con los electrones en los enlaces químicos). Los neutrones también pueden hacerlo.”
Bajo la influencia de esta interacción, las partículas que pueden desintegrarse, las “resonancias” lo hacen muy rápidamente. Un ejemplo es la resonancia Δ, con una vida media de 0’6 × 10-23 s. Esta colisión es extremadamente probable cuando dos hadrones se encuentran a una distancia cercana a 10–13 cm.
Hasta 1972 se pensaba que los mediadores de la interacción fuerte eran los piones, que tienen espín 0 y una masa comprendida entre 135 y 140 MeV. Por ejemplo, la fuerte atracción entre dos protones se debe fundamentalmente al intercambio de un pión. Hoy en día se dice que esto obedece al hecho de que los piones son los hadrones más ligeros y que, como los demás hadrones, están formados por quarks. La interacción fuerte es entonces un efecto secundario de una interacción más fuerte incluso entre quarks. Los mediadores de esta interacción más fuerte son los gluones.
El canibalismo de los gluones Campo de Yang – Mills
Los gluones en realidad son los fotones de Yang-Mills que actúan sobre el color de los quarks. Los quarks son los ladrillos de la materia; forman los protones, neutrones, piones, kaones, etc., o sea, los bariones y los mesones. Cada tipo de quarks (arriba, abajo, extraño, encantado, etc.) pueden tener un color que, en realidad, son cargas más complejas que las cargas eléctricas ordinarias que son positivas o negativas y que se neutralizan mutuamente, así que, la carga eléctrica en los quarks está suplida por “color” rojo, verde o azul (que nada tienen que ver con los colores reales y se eligen por convención). Los quarks con diferente color se atraen entre sí, forman grupos de materia con mezcla de color. Los únicos trozos de materia que pueden encontrarse libremente en la naturaleza son mezcla de quarks que no tienen color (blanco o algún tipo de gris) de acuerdo con la regla que se parece a la siguiente: rojo + verde + azul = blanco.
Los anti-quarks tienen los colores conjugados: magenta, violeta y amarillo. Los gluones transportan a la vez un color y su anti-color, lo que da lugar a nueve combinaciones, pero una mezcla, una superposición de rojo/anti-rojo, verde/anti-verde o azul/anti-azul que no tiene color, no participa. De manera que sólo quedan ocho tipos de gluones.
Aunque de pasada, parece conveniente hacer referencia aquí a las leyes de conservación, tales como la conservación de la energía, la conservación del momento* y también la conservación de la extrañeza (denotada por la letra s).
En la tabla de partículas no he querido incluir los números de extrañeza (s) y de isospín (I3). Pero es de observar que esos números no se conservan siempre que una partícula se desintegra. Esto se debe a que la interacción débil, responsable de la mayoría de las desintegraciones, no respeta estas leyes de conservación. La fuerza electromagnética tampoco conserva el isospín.
emilio silvera
* La magnitud llamada “momento” que se define para cada partícula como el producto de la masa por la velocidad. Volver
Jun
5
Nuevos materiales, nuevos procesos, nuevos dispositivos
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Vuelvo a poner esta entrada que me ha sido solicitada por varios de nuestros amigos.
En los últimos años se han desarrollado materiales que, debido a su estructura nanométrica, presentan nuevas propiedades, y por tanto tienen aplicaciones en campos tan diversos como son la transmisión de información mediante luz, el almacenamiento de datos, la generación y el transporte de energía eléctrica, la síntesis de catalizadores, la elaboración de textiles más resistentes, o la implantación de nuevos implantes óseos.
El gran número de nuevos materiales y dispositivos demostradores que se han desarrollado en estos años ha sido fruto, por un lado del desarrollo de sofisticadas técnicas de síntesis, caracterización y manipulación que se han puesto a punto y, por otro, del gran avance en los métodos de computación en la nanoescala (técnicas ab-initio, dinámica molecular, etc.) que se han probado en las grandes instalaciones dedicadas al cálculo científico de altas prestaciones. Es precisamente la combinación de experimentos punteros con métodos teóricos precisos un elemento esencial para comprender un gran número de procesos y mecanismos que operan en la nano-escala.
John A. Pople de Gran Bretaña recibe el Nobel compartido con Walter Kohn
En concreto, una de las aportaciones teóricas más importantes al desarrollo de la Nanotecnología ha llegado de la mano de la Teoría de Funcionales de la Densidad (DFT, en sus siglas en inglés) por la que en 1998 Walter Kohn recibió el Premio Nobel en Química, compartido con John A. Pople, “padre” de la Química Cuántica. Con respecto al desarrollo experimental, cabe resaltar el alto grado de desarrollo de las técnicas SPM para ver y manipular la materia a escala nanométrica en multitud de ambientes diferentes (ultra alto vacío, humedad controlada, celdas catalíticas, temperaturas variables,…). Esta capacidad nos ha permitido diseñar nuevos experimentos con los que comprender el comportamiento de nuevos materiales y dispositivos. Dado la gran variedad de materiales y sus aplicaciones, es imposible en un artículo presentar una visión completa de la situación de la Nanotecnología, por lo que nos vamos a limitar a presentar algunos ejemplos que ilustran el estado actual de este campo.
Hacia la electrónica molecular
Nanocables, el futuro de la Electrónica Electrónica molecular
Debido a su tamaño nanométrico, las estructuras moleculares pueden poner de manifiesto nuevas propiedades electrónicas. Sin embargo, la necesidad de poder producir estructuras nanométricas de forma masiva, tal y como requieren las aplicaciones industriales hace que la manipulación individual de nano-objetos como las moléculas pase a un segundo plano, requiriéndose alternativas más útiles para incorporar la Nanotecnología a los procesos de fabricación. Por esta razón, en los últimos años se están estudiando profusamente las condiciones de formación y las propiedades de capas auto-ensambladas de diferentes moléculas orgánicas sobre superficies.
En estos casos la superficie no sólo proporciona un soporte, sino que posee un papel activo en la formación de diferentes patrones moleculares en dos dimensiones. Así, la posibilidad de generar sistemas auto-ensamblados de moléculas con propiedades bien definidas y dirigidas hacia la realización de funciones concretas abre un camino para cambiar desde el imperante paradigma del silicio en la electrónica hacia otro basado en la electrónica molecular. Este nuevo paradigma será mucho más rico por la gran diversidad de componentes moleculares que pueden entrar en juego. Entre los componentes prometedores para la Nanotecnología, que están relacionados con las moléculas orgánicas, y que habrá que tener en cuenta en el futuro de la microelectrónica, estarán los fullerenos, los nanotubos de carbono y el grafeno, de los que hablamos a continuación.
Los fullerenos o “bucky-balls”
Con este nombre se denomina al conjunto de distintas moléculas cerradas sobre sí mismas con formulación. El más conocido, por lo estable y abundante en naturaleza es el llamado Cn. El más conocido, por lo estable y abundante en la Naturaleza es el llamado C60, que está formado por 12 pentágonos y 20 exágonos, dispuestos como en un balón de futbol. Las aplicaciones Nanotecnológicas que se pueden derivar del uso de esta molécula están todavía en fase de estudio y son muy variadas. Sin embargo, aunque actualmente no existen aplicaciones concretas ya se han sintetizado más de mil nuevas moléculas basadas en fullereno y hay más de cien patentes internacionales registradas. El carácter rectificador de los fullerenos les hace atractivos para su uso en electrónica molecular.
Se encontraron bucky-balls en el Espacio exterior
La formación de este tipo de estructuras se produce más fácilmente de lo que podemos imaginar, pues son uno de los principales integrantes de la carbonilla y se generan abundantemente en cualquier combustión. Sin embargo, a día de hoy uno de los principales problemas para su utilización es el de conseguir una síntesis controlada de fullereno. Esto requiere complicadas técnicas, tales como la vaporización del grafito o la pirolisis láser, que normalmente producen exclusivamente los fullerenos más estables. Recientemente se ha propuesto un nuevo método para conseguirlo basado en principios “nano”. Se trata de partir de una molécula precursora sintetizada de forma tal que sea como un fullereno abierto, con los enlaces rotos saturados por hidrógeno. Esta molécula se puede plegar sobre sí misma mediante una transformación topológica de manera que de lugar a un fullereno. Se trata de partir de una estructura plana (un recortable) para posteriormente ensamblar un objeto en tres dimensiones. Este plegado se consigue mediante un proceso des-hidrogenación catalizada por una superficie. Una vez que la molécula plana ha perdido estos hidrógenos se cierran sobre sí misma de forma espontánea formando un fullereno.
Este proceso se ha podido seguir, entre otras técnicas, mediante imágenes de microscopía túnel in-situ. Los mecanismos existentes en el proceso se pueden entender gracias a los cálculos ab-initio que apoyan la investigación experimental. Esta combinación pone de manifiesto como una molécula plana de carbono sin hidrógeno se pliega espontáneamente. La belleza de este nuevo método de síntesis reside en que si se sintetizan moléculas precursoras planas con diferentes topologías se pueden conseguir moléculas cerradas de diferentes formas, tamaños e incluso que contengan átomos diferentes al Carbono. Así se ha sintetizado por primera vez la molécula C57 N3 sobre una superficie.
Nanotubos de Carbono
Si el descubrimiento del C60 fue un hito importante para la Nanotecnología, el de los llamados Nanotubos de Carbono lo ha superado con creces. Los Nanotubos de Carbono, unas diez mil veces más finos que un cabello, presentan excelentes propiedades físicas y su fabricación resulta relativamente económica. Un cable fabricado de Nanotubos de Carbono resultaría diez veces más ligero que uno de acero con el mismo diámetro pero sería ¡cien veces más resistente! A estas impresionantes propiedades mecánicas se le añaden unas interesantes propiedades eléctricas, puesto que pueden ser tanto conductores como aislantes, según la topología que presenten.
Un Nanotubo de Carbono se obtiene mediante el plegado sobre sí mismo de un plano atómico de grafito (enrollándolo). Según como se pliegue el plano grafítico se obtiene un Nanotubo que puede conducir la corriente eléctrica, ser semiconductor o ser aislante. En el primer caso, los Nanotubos de Carbono son muy buenos conductores a temperatura ambiente, pudiendo transportar elevadas densidades de corriente. En el segundo presentan propiedades rectificadoras. Por otra parte, si inducimos defectos en la estructura podemos generar moléculas semiconductoras y así formar diodos o transistores. Es decir, tenemos todos los elementos en nuestras manos para construir nano-circuitos basados en Carbono.
Grafeno
El grafeno es el material del futuro
A un solo plano atómico de grafito se le llama grafeno, y éste, a diferencia del grafito, es difícil de obtener. Recientemente, mediante cálculos teóricos, se han realizado predicciones acerca de las importantes propiedades electrónicas que podría tener este material. Entre ellas una altísima movilidad electrónica y una baja resistividad, de manera que estos planos atómicos podrían ser los futuros sustitutos del silicio en los dispositivos electrónicos. Ahora bien, al día de hoy, estas propuestas provienen esencialmente de cálculos teóricos y, por tanto, antes de que el grafeno pase a sustituir al silicio en la electrónica del futuro, es necesario verificar las predicciones teóricas en el laboratorio. Actualmente, éste es un campo muy activo de investigación, y muchos grupos están trabajando en la obtención de capas de grafeno soportadas sobre diferentes materiales, como polímeros o aislantes, para poder determinar sus propiedades eléctricas y comprobar las predicciones teóricas.
El estudio de grafeno sobre metales de transición es un campo muy activo de investigación ya que las capas de grafeno crecen de manera fácil, muy controladas y con un bajo número de defectos sobre estas superficies. Además el grafeno sobre un substrato forma patrones conocidos como redes de Moiré, en las que la periodicidad atómica de las dos redes cristalinas (substrato y grafeno), coincide cada dos-tres nm, dando lugar a deformaciones de la capa de grafeno, que se reflejan como prominencias en la imagen STM.
Nanohilos
No sólo las moléculas, los Nanotubos o el grafeno son las apuestas para sustituir al silicio. Otros elementos como los Nanohilos fabricados a partir de materiales semiconductores o los Nanohilos metálicos tendrán también cierto protagonismo. En concreto, los Nanohilos semiconductores presentan un gran potencial como transistores pero también presentan aplicaciones en campos como octoelectrónica o en la fabricación de censores biológicos. Por otro lado los Nanohilos metálicos, cuya síntesis controlada es más difícil, poseen gran interés como interconectores. En el caso de los Nanohilos formados de materiales Ni, Co o Fe se puede aprovechar también su potencial comportamiento magnetorresisitivo para ser usados en dispositivos de almacenamiento magnético. Los Nanohilos metálicos son interesantes a su vez porque los efectos de tamaño inducen en ellos la aparición de transiciones de fase martensíticas y la aparición de configuraciones no cristalinas.
En el próximo hablaremos de las Nanopartículas.
Fuente: Revista de Física de la RSEF
Jun
5
Nuevos Materiales, nuevos procesos, nuevos dispositivos. II
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Al final de la entrada de este mismo título, en su parte 1ª, os prometía una continuación sobre las Nanopartículas, y, como lo prometido es deuda, aquí lo dejo. Para seguir el hilo, el final del día anterior fue como sigue:
Nanohilos semiconductores y nanohilos de diamnate
Nanohilo con un diámetro del orden de un nanómetro (10-9 metros)
No sólo las moléculas, los Nanotubos o el grafeno son las apuestas para sustituir al silicio. Otros elementos como los Nanohilos fabricados a partir de materiales semiconductores o los Nanohilos metálicos tendrán también cierto protagonismo. En concreto, los Nanohilos semiconductores presentan un gran potencial como transistores pero también presentan aplicaciones en campos como octo-electrónica o en la fabricación de censores biológicos. Por otro lado los Nanohilos metálicos, cuya síntesis controlada es más difícil, poseen gran interés como inter-conectores. En el caso de los Nanohilos formados de materiales Ni, Co o Fe se puede aprovechar también su potencial comportamiento magneto-resistivo para ser usados en dispositivos de almacenamiento magnético. Los Nanohilos metálicos son interesantes a su vez porque los efectos de tamaño inducen en ellos la aparición de transiciones de fase martensíticas y la aparición de configuraciones no cristalinas.” Veamos que pasa con las Nanopartículas.
Nanopartículas
Quizás, junto a los nanotubos de carbono, las nanopartículas representan los materiales que tienen una repercusión tecnológica más inmediata. Además de sus propiedades intrínsecas, las nanopartículas representan los materiales que tienen una repercusión tecnológica más inmediata. Además de sus propiedades intrínsecas, las nanopartículas, debido a su pequeño tamaño, pueden convertirse en diminutos dispositivos capaces de realizar otras funciones, como transportar un medicamento específico por el torrente sanguíneo sin obstruirlo. Para lograr esto, las nanopartículas deben ser el soporte de capas de moléculas auto-ensambladas que confieren una funcionalidad adicional a las mismas.
Nanomateriales
Como su propio nombre indica, el término “nanopartícula” designa una agrupación de átomos o moléculas que dan lugar a una partícula con dimensiones nanométricas. Es decir, que su tamaño está comprendido entre 1 y 100 nm. Dependiendo de cuáles sean los átomos o moléculas que se agrupan se originarán diferentes tipos de nanopartículas. Así, por ejemplo, tendremos nanopartículas de oro, de plata o nanopartículas magnéticas si están formadas por átomos de Fe o Co. Su pequeño tamaño hace que la relación superficie/volumen crezca y por tanto que estas estructuras tengan unas propiedades características y esencialmente distintas a las que presenta el material en volumen.
Una estrategia para la formación de nanopartículas es recubrirlas con distintas capas de manera tal que cada una aporte funcionalidades diferentes al sistema. Así, por ejemplo, recientemente se han descrito nanopartículas cuyo interior está formado por un material magnético, como el Co, seguido de una capa intermedia de SiO2 que aporta estabilidad al sistema y finalmente una superficie de oro.
El tamaño final de la nanopartícula es de 3 nm, y esta estructura laminar hace que tengan un núcleo magnético que posibilite su guiado, y una superficie de oro que facilite el auto-ensamblado de moléculas orgánicas o biológicas para diferentes aplicaciones. Entre éstas destaca su uso como biosensores.
Para ello se inmoviliza material biológico, como ácido desoxirribonucleico (ADN) o el llamado ácido nucléico péptidico (PNA, del inglés peptide nucleic acid), que siendo un ácido nucléico artificial, presenta un “esqueleto” molecular formado por enlaces péptidicos y una estructura de bases nucleicas exactamente igual a la del ADN. El PNA puede reconocer cadenas complementarias de ADN, incluso con mayor eficiencia para la hibridación que la que representa el ADN para reconocer su hebra complementaria. Por este motivo, el PNA se ha propuesto como sonda para la fabricación de biosensores altamente eficientes. Estas macromoléculas unidas a superficies o nanopartículas son capaces de detectar diferentes analítos de interés, particularmente moléculas biológicas.
Sin embargo, el concepto de nanopartícula debe concebirse en un sentido más amplio ya que no sólo puede estar basada en un núcleo inorgánico, pudiéndose sintetizar nanopartículas poliméricas. Yendo un poco más allá una cápsida vírica puede entenderse como una nanopartícula formada por una carcasa proteica. Esta cápsida vírica tiene dimensiones nanométricas y, en muchos casos, burla con facilidad las membranas celulares. Por esta razón este tipo de “nanopartículas” se proponen para su uso en nanomedicina, y son el objeto de estudios básicos en los que las herramientas como los microscopios de fuerzas atómicas juegan un papel esencial. En particular, estas herramientas nos permiten caracterizar las propiedades mecánicas y las condiciones de ruptura de cápsidas víricas así como la forma en la que dichas cápsidas se comportan ante, por ejemplo, cambios controlados de humedad.
En un discurso recientemente impartido en la Universidad Europea de Madrid, William F. Clinton, ex-Presidente de los EE.UU, afirmó que ” el cometido del siglo XXI será salvar al mundo del cambio climático, regenerar la economía y crear empleo. El futuro más allá será la Nanotecnología y la biotecnología”. El propio W.F. Clinton fue el impulsor de la Iniciativa Nacional de Nanotecnología durante su mandato, convirtiendo durante los últimos 10 años a EE.UU en el líder mundial en la generación de conocimientos básicos y aplicados en el ámbito de la Nanotecnología.
Nadie pone en duda las afirmaciones de W.F. Clinton sobre el papel de la Nanotecnología en nuestro futuro a medio y largo plazo, por lo que es imperativo estar suficientemente preparados para construir este nuevo paradigma científico. En el caso concreto de España, las dos últimas ediciones del Plan Nacional de I+D+I han encumbrado las investigaciones en Nanociencia y Nanotecnología a la categoría de Acción Estratégica. En la actualidad se están poniendo en marcha varios centros dedicados a Nanotecnología. Dichas iniciativas son producto, por lo general, de costosos impulsos puntuales, locales, dirigidos por científicos con iniciativa, pero no son fruto de una actuación de conjunto, planificada siguiendo una estrategia quiada por unos objetivos ambiciosos, en los que impere la coordinación y el uso eficiente de los recursos. La actual coyuntura económica no invita al optimismo a este respecto, por lo que sería necesario poner en marcha iniciativas que promuevan la adquisición de infraestructuras, la formación de técnicos, la coordinación entre centros emergentes, etc.
Otro punto sobre el que no hay que descuidarse tiene que ver con la formación, en todos los niveles educativos, en Nanotecnología. En este sentido son numerosas las universidades españolas que ofrecen cursos de master y/o doctorado con contenidos relacionados con la Nanotecnología. Sin embargo, muchos de estos cursos tienen pocos estudiantes inscritos, al igual que ocurre con muchos estudios de grado relacionados con las ciencias básicas. La tarea de fascinar y atraer a nuestros jóvenes hacia la ciencia debe comenzar mucho antes. En este sentido, los conceptos inherentes a la Nanotecnología deben formar parte del conocimiento que debe llegar a los estudiantes de educación secundaria, como ocurre en países como Alemania, Finlandia, Taiwán, Japón, EE.UU., etc. Además, la Nanotecnología es una materia que causa cierta fascinación a los adolescentes por lo que puede ser un buen punto de partida para incentivar las vocaciones científicas. Esta ha sido una de las principales razones por las que los autores de este artículo junto con otros investigadores (Carlos Briones del Centro de Astrobiología y Elena Casero de la Universidad Autónoma de Madrid) accedieron a la petición de la Fundación Española de Ciencia y Tecnología (FECyT) para escribir una Unidad Didáctica de Ciencia y Tecnología. Dicho libro ya se encuentra en todos los institutos españoles de educación secundaria y bachillerato, y se puede descargar desde la web de la FECyT. Esperemos que esta pequeña contribución, junto con otras de mayor calado que deben promoverse desde las diversas administraciones públicas, permita tomar la senda que nos lleve a medio plazo hacia la tan ansiada sociedad basada en el conocimiento.
Fuente: Revista Española de Física. Volumen 23 número 4 de 2009
Los Autores:
D. José Ángel Martín Gago, del Instituto de Ciencia de Materiales de Madrid, Concejo Superior de Investigaciones científicas, Centro de Astrobiología /CSIC/INTA), Instituto Nacional de Técnica Aeroespacial, y, D. Pedro A. Serena Domingo, del Instituto de Ciencia y Materiales de Madrid y del Consejo Superior de Investigaciones Científicas.
Que haya sido de vuestro agrado.
Jun
5
¡El Futuro! Ese misterio II
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Finalmente, aunque no parece lo más probable, si el universo se hunde en un Big Crunch futuro en el tiempo finito, entonces no hay esperanzas a primera vista. Con el tiempo, el universo en proceso de hundimiento se contraerá lo suficiente para que se fundan galaxias y estrellas hoy separadas por millones de años luz. De hecho, actualmente, nuestra vecina la galaxia Andrómeda se está acercando hacia nosotros, que estamos en la Vía Láctea, y ambas galaxias terminarán fundiéndose en una gran galaxia (claro que, esto es una consecuencia de que, al estar ambas galaxias en el Grupo Local, la fuerza de Gravedad que generan actúan para que, con el tiempo, se unan de manera irremisible).
Las temperaturas crecerán tanto que moléculas y átomos se disgregarán. Una vez más, como en el futuro lejano, la vida tiene que existir en alguna forma incorpórea abstracta, quizá entretejida en la fábrica del espacio y el tiempo. Resulta sorprendente que esta supervivencia indefinida no está descartada mientras el tiempo se defina de forma adecuada. Si el tiempo verdadero al que marcha el universo es un tiempo creado por la propia expansión, entonces es posible que un número ínfimo de “tics” de este reloj ocurra en la cantidad finita de tiempo que parece estar disponible en nuestros relojes antes de que alcance el Big Crunch.
Hay un último truco que podrían tener guardado en su manga esos supervivientes súper avanzados en universos que parecen condenados a expandirse para siempre. En 1.949, el lógico Kart Gödel, amigo y colega de Einstein en Princeton, le dio una sorpresa al demostrar que el viaje en el tiempo estaba permitido por la teoría de la gravedad de Einstein. Incluso encontró una solución a las ecuaciones de Einstein para un universo en el que esto ocurría. Hay teorías y propuestas más modernas en las que, una civilización avanzada en el futuro, podrá viajar en el tiempo a través de un agujero de gusano; para ello tendrá que conseguir material-energía exótica que impedirá el cierre de la boca de entrada del agujero.
Por desgracia, el universo de Gödel no se parece en nada al universo en que vivimos. Gira muy rápidamente y está en desacuerdo con casi todas las observaciones astronómicas que se mencionan. Sin embargo, los estudios de Kip S. Thorne y su equipo, son más certeros y nada descabellados, sus ecuaciones sobre la posibilidad de viajar en el tiempo (al menos en teoría) son positivas y se ajustan en todo al universo en que vivimos y, en lo que al material o la energía exótica requerida, parece que la fuente puede tener su origen en el conocido “Efecto Casimir”
Es tanta nuestra ignorancia que el único camino a veces, para poder seguir tratando algún tema, es el de la especulación, ya que, nuestra imaginación siempre llega más allá de la realidad y, desde luego (menos mal) no se conforma con lo que hemos alcanzado hasta el momento, siempre estará latente la curiosidad que nos empuja a ir más allá al querer contestar las preguntas que incansables nos formulamos.
emilio silvera
Jun
5
¡El Futuro! Ese misterio
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Hace mucho que hemos imaginado cómo sería el futuro que nos espera, imaginamos ciudades fantásticas, o, también, que ya estamos instalados en otros mundos, que en ese Tiempo por venir, las cosas serán muy diferentes.
El Universo cambia, nuestro mundo también, y, los seres inteligentes que pueblan el planeta Tierra, avanzan en el saber de los secretos de la Naturaleza y de la materia misma. Todos esos avances llevan a la Humanidad hacia un futuro diferente en el que ya no estaremos pero, sí al que hemos contribuido a construir.
Como la tendencia actual es la de fabricar ingenios cada vez más pequeños y sofisticados objetos con enorme capacidad de guardar información para utilizarla cuando se le exija en el futuro. Esa tecnología se denomina y es conocida como “nanotecnología” y en unos años podrá solucionarnos problemas ahora inimaginables. La tendencia, como decimos, es hacer máquinas y objetos más pequeños pero con más memoria y prestaciones, de forma tal que, consumiendo menos energía, ofrecen un mayor rendimiento a menos coste y con menos residuos. Si llevamos esto a la conclusión lógica, hay que esperar también que las formas de vida avanzadas sean pequeñas, tan pequeñas como lo permitan las leyes de la física.
Así podríamos explicar también por qué no encontramos formas de vida extraterrestre en el Universo. Si está verdaderamente avanzada, incluso para nuestros niveles, es probable que sea muy pequeña, reducida a escala molecular. Entonces se junta todo tipo de ventajas. Hay mucho sitio allí: pueden mantenerse poblaciones enormes. Se puede sacar partido de la potente computación cuántica. Se requiere poca materia prima y el viaje espacial resulta más fácil.
Juan Ignacio Cirac y la computación cuántica
Con nuestro tamaño y las naves que utilizamos para viajar al espacio exterior, tenemos el problema de la enorme cantidad de combustible necesario para lograr que la nave, venciendo la gravedad de la Tierra, logre escapar de la gravedad terrestre. La fuerza o velocidad de escape necesaria es de 11 km/s que, lógicamente, no sólo requiere una enorme cantidad de oxígeno liquido o cualquier otro material para que los motores se nutran y puedan realizar el trabajo de enorme potencia, sino que tales depósitos de combustible pueden tener una pequeña fisura que haga explotar toda la nave con sus tripulantes (ya ha pasado).
- Los 7 tripulantes conocieron su situación 40 segundos antes de que el transbordador se desintegrarse al entrar en contacto con la atmósfera.
- Una perforación en una ala fue la clave de la tragedia.
Si verdaderamente existen civilizaciones adelantadas más pequeñas evitarían este y otros problemas, entre los que estaría la imposibilidad de detectarlas por otras civilizaciones de bípedos patosos que viven en planetas brillantes y ricos en materias primas y que emiten constantes ruidos de ondas de radio al espacio exterior interplanetario como llamando a estos pequeños y diminutos seres que aquí pueden encontrar, sin peligro a ser descubiertos, las fuentes que necesiten para instalar colonias que viven y observar sin ser molestadas ni observadas.
TheSimplySpaceES – Cinco teorías sobre lo que hay más allá del Universo observable
Claro que el universo observable es muy grande, 13.700 millones de años de radio a la velocidad de la luz, es mucho espacio recorrido por la expansión y de continuar así, acelerándose, el procesamiento de información tenderá a desaparecer con el tiempo. Varios grupos de observadores de investigación han reunido importantes pruebas que demuestran sin lugar a dudas que, la expansión del universo empezó a acelerarse hace sólo algunos miles de millones de años.
Lo más probable es que siga expandiéndose para siempre, pero que decelere continuamente a medida que se expande. La vida sigue enfrentándose a una batalla cuesta arriba por sobrevivir indefinidamente. Necesita encontrar diferencias de temperatura, o de densidad, o de expansión del universo de las que pueda extraer energía útil haciéndolos uniformes. Si se basa en recursos minerales de energía que existe localmente –estrellas muertas, agujeros negros que se evaporan, partículas elementales que se desintegran–, entonces, con el tiempo, se encara al problema al que se enfrentan inevitablemente las mismas de hoy como las minas de carbón muy explotadas en la que el coste de la extracción es superior al beneficio obtenido.
A veces soñamos con poder realizar en el futuro hazañas que, en el presente, parecen imposibles
Será una necesidad economizar en el uso energético y el encontrar fuentes más limpias y que sean, a ser posible, inagotables y, desde luego, la que se podría extraer de un agujero negro (teniendo tecnología adecuada) sería prácticamente imperecedera. (Roger Penrose expuso su idea sobre poder aprovechar la energía inagotable de los discos de acreción de los Agujeros negros.)