Jun
6
Pensando en voz alta
por Emilio Silvera ~ Clasificado en General ~ Comments (1)
Mi consejo: que nuestro comportamiento no sea nunca causante de males ajenos; que nos conformemos y sepamos valorar lo que tenemos; que tratemos cada día de ser mejores adquiriendo nuevos conocimientos, el verdadero sustento del ser.
Cuanto más sabemos, más podemos ofrecer a los demás. Es de sabio saber valorar lo que tenemos. Cuando era un chaval, aquel anciano con experiencia me dijo: “Emilito, si quieres ser feliz, y tienes diez pesetas, gasta ocho y guarda dos. Cuando se gasta más de lo que se tiene… ¡Mal irán las cosas! Estar en manos de la usura nunca te hará feliz ni libre.”
En mi despacho de Asesor fiscal
En mi transcurrir cotidiano, por mi trabajo, veo con mucha pena cómo las personas tratan de engañarse las unas a las otras. Es la forma general, y lo excepcional es el encontrar, muy de tarde en tarde, personas decentes y honradas, mejor o peor preparadas (qué más da) pero nobles de espíritu y limpias de corazón; cuando eso ocurre, es como una ráfaga de aire fresco y perfumado que inunda los sentidos.
Impone Impuestos confiscatorios, no siempre es proporcional a lo que se gana, y, vulneran el art. 31 C.E.
Como lo normal es todo lo contrario, la fealdad interior, el engaño, la falsedad, la ausencia de moralidad y de ética, la traición de los “amigos” o familiares, etc., mi remedio es bien sencillo: me encierro en mi mundo particular de la física, la astronomía y, en definitiva, de cualquier rama del saber que esté presente en ese momento en mis pensamientos, y de esa forma, por unos momentos, me olvido de la fea verdad que nos rodea.
Claro que como antes dije, ¡menos mal!, de vez en cuando nos encontramos con ráfagas de aire puro y perfumado que emiten esos espíritus puros, ¡que los hay! No hace mucho, recibí el Fallo emitido por el Tribunal Económico Administrativo Central que anulaba una Derivación de Responsabilidad que la recaudación de la Agencia Tributaria en Huelva a cargó a una pequeña Empresa a la que quería endosarle 109.000 euros. Hubiera sido su ruina y el T.E.A.C., la anuló por vulnerar el Derecho.
Cuando se quiere recaudar “como sea” se incurre en la prohibida desviación de poder
Pero hablemos de otras cuestiones más divertidas:
El mes pasado (enero de 2007), comenzó y se celebró en la India el 20 International Joint Conference of Artificial Intelligence, un encuentro en el que se pusieron al día todos los avances en inteligencia artificial, y donde fue celebrado el 50 cumpleaños de su creación.
El incremento de los resultados en este campo (ya me referí antes a esta ciencia), ha sido asombroso. Internet es una buena prueba de ello en la búsqueda de información por contenido, comercio electrónico, sistemas de recomendación, web semántica, etc. el futuro de Internet, de la industria y del comercio, de las ciudades futuras, de los viajes espaciales, de la medicina, etc., etc., etc., dependerán de los progresos que se realicen en el ámbito de la inteligencia artificial y en la nanotecnología; ahí parecen estar el progreso del futuro.
La inteligencia artificial, entre otras cosas, podrá llevar y facilitar información a países subdesarrollados que, de esta manera, podrá ofrecer educación a sus habitantes, mejorará la salud de la población, su agricultura, etc. la calidad de vida, en definitiva.
Ya se están desarrollando en Japón los ordenadores inteligentes (los llamados de quinta generación), y el entusiasmo de empresas informáticas japonesas y estadounidenses por la inteligencia artificial aconsejó a Europa no quedarse atrás y acometer sus propios proyectos mediante programas de investigación en estas nuevas tecnologías del futuro.
El término de inteligencia artificial, si no me falla la memoria, se acuñó en la reunión de Dartmouth en 1956, que fue un evento único e histórico. Único porque no se volvió a celebrar, es decir, no fue el primero de un serie como ocurro con los congresos internacionales de lo que, como comenté al principio, se llevan celebrando 20; y fue histórico por el hecho de que allí se acuñó el término que ha prevalecido de inteligencia artificial.
En DartMouth se presentó un único resultado: un programa llamado Logic Theorist, capaz de demostrar teoremas de lógica proporcional contenidos (según leí) en la famosa obra “Principia Matematica” de Bertrand Russell y Alfred Whitehead (la obra más famosa de Newton lleva el mismo título). El programa lo desarrollaron Herbert Simón (que en 1978 recibió el premio Nobel de Economía), Alan Newell y Clifford Shaw. Sin embargo, en éste de enero en la India, se presentaron 470 resultados seleccionados entre los casi 1.400 que recibieron.
Desde aquella reunión del 56, los hitos alcanzados en el campo de la IA han sido extraordinarios: desde jugar al ajedrez hasta diagnosticar enfermedades, comprender textos sobre temas concretos que implican conocimientos especializados… No obstante, el objetivo de desarrollar las inteligencias artificiales generales que los pioneros de esta ciencia, reunidos en 1956, propusieron para ser alcanzados, quedan aún muy lejanos.
Pero todo llegará; todo es cuestión de ¡tiempo!
Esta ciencia le debe mucho a las matemáticas. Alan Turing es un ejemplo. Fue un gran matemático que formalizó conceptos tan básicos para la informática como el concepto de algoritmo y el concepto de calculabilidad mediante la denominada Máquina de Turing, lo que nos lleva a considerar a Turing como a uno de los “padres” de la informática y, más concretamente, de la informática teórica. En 1950 publicó un ensayo, “Computing Machinery and Intelligence”, donde describió su famoso Test de Turing, según el cual se podría determinar si una máquina es o no inteligente. La IA le debe pues el test que lleva su nombre, pero la informática le debe más.
Está claro que la IA se aliará y formará equipo con la biología y la nanotecnología, y de esta unión surgirán avances que ahora ni podemos imaginar en nuestra actual comprensión (limitada) de la inteligencia artificial.
Como siempre me ocurre, cuando me pongo a escribir estoy hablando conmigo mismo y traslado la conversación al papel. En los garabatos quiero expresar lo que recuerdo, lo que he leído, lo que he estudiado del tema que en ese momento ocupa mi atención, y así ocurre que, no siendo infalible, los errores pueden ser muchos y algunas explicaciones o comentarios poco documentados (consulto muy poco escribiendo y me dejo llevar), por lo que pido disculpas. Sin embargo, mis lectores (que son pocos y buenos amigos), ganan en frescura y espontaneidad; el texto es más natural y en él están ausentes las artificialidades. Creo que salen ganando.
Lo que quería decir antes (como otras veces me he ido por las ramas), es que puedo comenzar hablando de una cuestión y terminar hablando de otra muy distinta. Me vienen a la mente temas diversos, y de manera natural, sigo mis pensamientos, y así lo expreso en la hoja en blanco.
Es costosa, la dan los estudios, los años de experiencia, y… ¡También la conciencia de cada cual!
¿No resulta más ameno? De todas formas, siempre trato de finalizar los temas. Básicamente soy un insaciable buscador de la razón de ser de las cosas; todo me parece interesante. Mi curiosidad es ilimitada y mi vehemencia y pasión me llevan, a veces, a olvidarme de comer o (más grave aún), de recoger a mi mujer, que en un pueblo cercano espera mi llegada como habíamos quedado. Son cosas corrientes de mi manera de ser, que cuando emprendo una tarea, una lectura, o un proyecto, lo quiero tener terminado antes de empezar.
Leo cualquier titular en un periódico: “Instalan un observatorio bajo el hielo para estudiar los confines del cosmos. Cuando esté en marcha, los científicos esperan que detecte 1.000 colisiones diarias de neutrinos, partículas minúsculas que nos traen información del universo.” No puedo, a partir de ahí, evitar el comprar el periódico o la revista para leer todo el reportaje completo, aunque sé que no dirán nada que ya no sepa sobre los neutrinos y la manera de cazarlos en las profundidades de la Tierra, en profundas minas abandonadas en las que colocan tanques de agua pesada que, conectados a potentes ordenadores, detectan la presencia de estas diminutas partículas (al parecer carentes de masa) que pertenecen a la familia de los leptones.
Cada segundo que pasa, billones de estas minúsculas partículas invisibles llamadas neutrinos, atraviesan nuestros cuerpos, en muchos casos, después de haber recorrido de un confín a otro todo el universo.
Los neutrinos, al contrario que los fotones (es decir, la luz) o los rayos cósmicos, viajan sin cesar de un lado a otro del universo sin que ningún campo magnético los desvíe de su camino, y sin ser destruidos tras colisionar con otras partículas, ya que apenas poseen carga eléctrica ni interaccionan con la materia. Por ello, estudiar de cerca un neutrino permitiría descubrir su procedencia y aportaría a los científicos una valiosa información sobre los rincones del universo de los que provienen.
Bajo una mina a gran profundidad en un recipiente de agua pesada los quieren “cazar”
El problema que se plantea es que agarrar un neutrino no es tarea nada fácil, y aunque se cree que el neutrino puede ser el mensajero cósmico ideal, primero habrá que retenerlo para poder hacer la comprobación. Esta partícula fue anunciada o prevista su existencia por Wolfgan Pauli, y su nombre, neutrino (pequeño neutro en italiano), se lo puso el físico Enrico Fermi.
Aunque parezca no venir a cuento, me viene a la mente que el fin de la Edad de Hielo, hace 300 millones de años fue precedido por bruscos cambios en el nivel de dióxido de carbono (CO2), alteraciones violentas del clima y efectos drásticos sobre la vegetación del planeta.
Pero, ¡¿qué estamos haciendo ahora?! La irresponsabilidad de algunos seres humanos es ilimitada.
Hace 300 millones de años, el hemisferio sur del planeta estaba casi totalmente cubierto por el hielo; los océanos del norte eran una sola masa gélida y los trópicos estaban dominados por espesas selvas, pero 40 millones de años después, el hielo había desaparecido; el mundo era un lugar ardiente y árido. La vegetación era escasa y los vientos secos soplaban sobre una superficie donde casi no había vegetación. Sólo un reptil podría sobrevivir en aquellas condiciones.
Ahora parece que estamos decididos a repetirlo. ¿Qué hará Gaia para defenderse? Creo que hará lo que estime necesario para preservar su integridad, y si para ello es preciso eliminar a los molestos bichitos que causaron el mal, no creo que dude en hacerlo, ya que los acogió, les ofreció todos los recursos necesarios para la supervivencia, y el pago no fue, precisamente, el más adecuado.
Lo peor de todo esto es que el comportamiento de unos pocos lo pagaremos todos. Es como cuando un niño molesta en el colegio y el maestro castiga a toda la clase.
emilio silvera
Jun
6
El universo cuántico
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Veamos las partículas elementales de vida superior a 10-20 segundos que eran conocidas en el año 1970.
Nombre | Símbolo | Masa (MeV) | Carga | Espín | Vida media (s) |
Fotón | γ | 0 | 0 | 1 | ∞ |
Leptones (L = 1, B = 0) | |||||
Electrón | e– | 0’5109990 | – | ½ | ∞ |
Muón | μ– | 105’6584 | – | ½ | 2’1970 × 10-6 |
Tau | τ | ||||
Neutrino electrónico | νe | ~ 0 | 0 | ½ | ~ ∞ |
Neutrino muónico | νμ | ~ 0 | 0 | ½ | ~ ∞ |
Neutrino tauónico | ντ | ~ 0 | 0 | ½ | ~ ∞ |
Mesones (L = 0, B = 0) | |||||
Pión + | π+ | 139’570 | 2’603 × 10-8 | ||
Pión – | π– | 139’570 | 2’603 × 10-8 | ||
Pión 0 | π0 | 134’976 | 0’84 × 10-16 | ||
Kaón + | k+ | 493’68 | 1’237 × 10-8 | ||
Kaón – | k– | 493’68 | 1’237 × 10-8 | ||
Kaón largo | kL | 497’7 | 5’17 × 10-8 | ||
Kaón corto | kS | 497’7 | 0’893 × 10-10 | ||
Eta | η | 547’5 | 0 | 0 | 5’5 × 10-19 |
Bariones (L = 0, B = 1) | |||||
Protón | p | 938’2723 | + | ½ | ∞ |
Neutrón | n | 939’5656 | 0 | ½ | 887 |
Lambda | Λ | 1.115’68 | 0 | ½ | 2’63 × 10-10 |
Sigma + | Σ+ | 1.189’4 | + | ½ | 0’80 × 10-10 |
Sigma – | Σ– | 1.1974 | – | ½ | 7’4× 10-20 |
Sigma 0 | Σ0 | 0 | ½ | 1’48 × 10-10 | |
Ksi 0 | Ξ0 | 1.314’9 | 0 | ½ | 2’9 × 10-10 |
Ksi – | Ξ– | 1.321’3 | – | ½ | 1’64 × 10-10 |
Omega – | Ω– | 1.672’4 | – | 1½ | 0’82 × 10-10 |
Para cada leptón y cada barión existe la correspondiente antipartícula, con exactamente las mismas propiedades a excepción de la carga que es la contraria. Por ejemplo, el antiprotón se simboliza con ‾p y el positrón con e+. Los mesones neutros son su propia antipartícula, y el π+ es la antipartícula del π–, al igual que ocurre con k+ y k–. El símbolo de la partícula es el mismo que el de su antipartícula con una barra encima. Las masas y las vidas medias aquí reflejadas pueden estar corregidas en este momento, pero de todas formas son muy aproximadas.
Los símbolos que se pueden ver algunas veces, como s (extrañeza) e i (isospín) están referidos a datos cuánticos que afectan a las partículas elementales en sus comportamientos. En la física de partículas el isospín es un número cuántico relacionado con la interacción fuerte y aplicado a interacciones del protón y el neutrón.
Debo admitir que todo esto tiene que sonar algo misterioso. Es difícil explicar estos temas por medio de la simple palabra escrita sin emplear la claridad que transmiten las matemáticas, lo que, por otra parte, es un mundo secreto para el común de los mortales, y ese lenguaje es sólo conocido por algunos privilegiados que, mediante un sistema de ecuaciones pueden ver y entender de forma clara, sencilla y limpia, todas estas complejas cuestiones.
Ecuación dinámica de rotación Momento angular
Si hablamos del espín (o, con más precisión, el momento angular, que es aproximadamente la masa por el radio por la velocidad de rotación) se puede medir como un múltiplo de la constante de Planck, h, dividido por 2π. Medido en esta unidad y de acuerdo con la mecánica cuántica, el espín de cualquier objeto tiene que ser o un entero o un entero más un medio. El espín total de cada tipo de partícula – aunque no la dirección del mismo – es fijo.
El electrón, por ejemplo, tiene espín ½. Esto lo descubrieron dos estudiantes holandeses, Samuel Gondsmit (1902 – 1978) y George Uhlenbeck (1900 – 1988), que escribieron sus tesis conjuntamente sobre este problema en 1972. Fue una idea audaz que partículas tan pequeñas como los electrones pudieran tener espín, y de hecho, bastante grande. Al principio, la idea fue recibida con escepticismo porque la “superficie del electrón” se tendría que mover con una velocidad 137 veces mayor que la de la luz, lo cual va en contra de la teoría de la relatividad general en la que está sentado que nada en el universo va más rápido que la luz, y por otra parte, contradice E=mc2, y el electrón pasada la velocidad de la luz tendría una masa infinita.
Hoy día, sencillamente, tal observación es ignorada, toda vez que el electrón carece de superficie.
Las partículas con espín entero se llaman bosones, y las que tienen espín entero más un medio se llaman fermiones. Consultado los valores del espín en la tabla anterior podemos ver que los leptones y los bariones son fermiones, y que los mesones y los fotones son bosones. En muchos aspectos, los fermiones se comportan de manera diferente de los bosones. Los fermiones tienen la propiedad de que cada uno de ellos requiere su propio espacio: dos fermiones del mismo tipo no pueden ocupar o estar en el mismo punto, y su movimiento está regido por ecuaciones tales que se evitan unos a otros. Curiosamente, no se necesita ninguna fuerza para conseguir esto. De hecho, las fuerzas entre los fermiones pueden ser atractivas o repulsivas, según las cargas. El fenómeno por el cual cada fermión tiene que estar en un estado diferente se conoce como el principio de exclusión de Pauli. Cada átomo está rodeado de una nube de electrones, que son fermiones (espín ½). Si dos átomos se aproximan entre sí, los electrones se mueven de tal manera que las dos nubes se evitan una a otra, dando como resultado una fuerza repulsiva. Cuando aplaudimos, nuestras manos no se atraviesan pasando la uno a través de la otra. Esto es debido al principio de exclusión de Pauli para los electrones de nuestras manos que, de hecho, los de la izquierda rechazan a los de la derecha.
En contraste con el característico individualismo de los fermiones, los bosones se comportan colectivamente y les gusta colocarse todos en el mismo lugar. Un láser, por ejemplo, produce un haz de luz en el cual muchísimos fotones llevan la misma longitud de onda y dirección de movimiento. Esto es posible porque los fotones son bosones.
Cuando hemos hablado de las fuerzas fundamentales que, de una u otra forma, interaccionan con la materia, también hemos explicado que la interacción débil es la responsable de que muchas partículas y también muchos núcleos atómicos exóticos sean inestables. La interacción débil puede provocar que una partícula se transforme en otra relacionada, por emisión de un electrón y un neutrino. Enrico Fermi, en 1934, estableció una fórmula general de la interacción débil, que fue mejorada posteriormente por George Sudarshan, Robert Marschak, Murray Gell-Mann, Richard Feynman y otros. La fórmula mejorada funciona muy bien, pero se hizo evidente que no era adecuada en todas las circunstancias.
En 1970, de las siguientes características de la interacción débil sólo se conocían las tres primeras:
- La interacción actúa de forma universal sobre muchos tipos diferentes de partículas y su intensidad es aproximadamente igual para todas (aunque sus efectos pueden ser muy diferentes en cada caso). A los neutrinos les afecta exclusivamente la interacción débil.
- Comparada con las demás interacciones, ésta tiene un alcance muy corto.
- La interacción es muy débil. Consecuentemente, los choques de partículas en los cuales hay neutrinos involucrados son tan poco frecuentes que se necesitan chorros muy intensos de neutrinos para poder estudiar tales sucesos.
- Los mediadores de la interacción débil, llamados W+, W– y Z0, no se detectaron hasta la década de 1980. al igual que el fotón, tienen espín 1, pero están eléctricamente cargados y son muy pesados (esta es la causa por la que el alcance de la interacción es tan corto). El tercer mediador, Z0, que es responsable de un tercer tipo de interacción débil que no tiene nada que ver con la desintegración de las partículas llamada “corriente neutra”, permite que los neutrinos puedan colisionar con otras partículas sin cambiar su identidad.
A partir de 1970, quedó clara la relación de la interacción débil y la electromagnética (electrodébil de Weinberg-Salam).
La interacción fuerte (como hemos dicho antes) sólo actúa entre las partículas que clasificamos en la familia llamada de los hadrones, a los que proporciona una estructura interna complicada. Hasta 1972 sólo se conocían las reglas de simetría de la interacción fuerte y no fuimos capaces de formular las leyes de la interacción con precisión.
Como apuntamos, el alcance de esta interacción no va más allá del radio de un núcleo atómico ligero (10–13 cm aproximadamente). La interacción es fuerte. En realidad, la más fuerte de todas.
·De particular interés para la Resonancia Magnética Nuclear (RMN) es el espín de los protones y neutrones del núcleo atómico. En el núcleo atómico, cada protón se pueden aparear con otro protón con espín antiparalelo (algo análogo a lo que sucede con los electrones en los enlaces químicos). Los neutrones también pueden hacerlo.”
Bajo la influencia de esta interacción, las partículas que pueden desintegrarse, las “resonancias” lo hacen muy rápidamente. Un ejemplo es la resonancia Δ, con una vida media de 0’6 × 10-23 s. Esta colisión es extremadamente probable cuando dos hadrones se encuentran a una distancia cercana a 10–13 cm.
Hasta 1972 se pensaba que los mediadores de la interacción fuerte eran los piones, que tienen espín 0 y una masa comprendida entre 135 y 140 MeV. Por ejemplo, la fuerte atracción entre dos protones se debe fundamentalmente al intercambio de un pión. Hoy en día se dice que esto obedece al hecho de que los piones son los hadrones más ligeros y que, como los demás hadrones, están formados por quarks. La interacción fuerte es entonces un efecto secundario de una interacción más fuerte incluso entre quarks. Los mediadores de esta interacción más fuerte son los gluones.
El canibalismo de los gluones Campo de Yang – Mills
Los gluones en realidad son los fotones de Yang-Mills que actúan sobre el color de los quarks. Los quarks son los ladrillos de la materia; forman los protones, neutrones, piones, kaones, etc., o sea, los bariones y los mesones. Cada tipo de quarks (arriba, abajo, extraño, encantado, etc.) pueden tener un color que, en realidad, son cargas más complejas que las cargas eléctricas ordinarias que son positivas o negativas y que se neutralizan mutuamente, así que, la carga eléctrica en los quarks está suplida por “color” rojo, verde o azul (que nada tienen que ver con los colores reales y se eligen por convención). Los quarks con diferente color se atraen entre sí, forman grupos de materia con mezcla de color. Los únicos trozos de materia que pueden encontrarse libremente en la naturaleza son mezcla de quarks que no tienen color (blanco o algún tipo de gris) de acuerdo con la regla que se parece a la siguiente: rojo + verde + azul = blanco.
Los anti-quarks tienen los colores conjugados: magenta, violeta y amarillo. Los gluones transportan a la vez un color y su anti-color, lo que da lugar a nueve combinaciones, pero una mezcla, una superposición de rojo/anti-rojo, verde/anti-verde o azul/anti-azul que no tiene color, no participa. De manera que sólo quedan ocho tipos de gluones.
Aunque de pasada, parece conveniente hacer referencia aquí a las leyes de conservación, tales como la conservación de la energía, la conservación del momento* y también la conservación de la extrañeza (denotada por la letra s).
En la tabla de partículas no he querido incluir los números de extrañeza (s) y de isospín (I3). Pero es de observar que esos números no se conservan siempre que una partícula se desintegra. Esto se debe a que la interacción débil, responsable de la mayoría de las desintegraciones, no respeta estas leyes de conservación. La fuerza electromagnética tampoco conserva el isospín.
emilio silvera
* La magnitud llamada “momento” que se define para cada partícula como el producto de la masa por la velocidad. Volver
Jun
5
Nuevos materiales, nuevos procesos, nuevos dispositivos
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Vuelvo a poner esta entrada que me ha sido solicitada por varios de nuestros amigos.
En los últimos años se han desarrollado materiales que, debido a su estructura nanométrica, presentan nuevas propiedades, y por tanto tienen aplicaciones en campos tan diversos como son la transmisión de información mediante luz, el almacenamiento de datos, la generación y el transporte de energía eléctrica, la síntesis de catalizadores, la elaboración de textiles más resistentes, o la implantación de nuevos implantes óseos.
El gran número de nuevos materiales y dispositivos demostradores que se han desarrollado en estos años ha sido fruto, por un lado del desarrollo de sofisticadas técnicas de síntesis, caracterización y manipulación que se han puesto a punto y, por otro, del gran avance en los métodos de computación en la nanoescala (técnicas ab-initio, dinámica molecular, etc.) que se han probado en las grandes instalaciones dedicadas al cálculo científico de altas prestaciones. Es precisamente la combinación de experimentos punteros con métodos teóricos precisos un elemento esencial para comprender un gran número de procesos y mecanismos que operan en la nano-escala.
John A. Pople de Gran Bretaña recibe el Nobel compartido con Walter Kohn
En concreto, una de las aportaciones teóricas más importantes al desarrollo de la Nanotecnología ha llegado de la mano de la Teoría de Funcionales de la Densidad (DFT, en sus siglas en inglés) por la que en 1998 Walter Kohn recibió el Premio Nobel en Química, compartido con John A. Pople, “padre” de la Química Cuántica. Con respecto al desarrollo experimental, cabe resaltar el alto grado de desarrollo de las técnicas SPM para ver y manipular la materia a escala nanométrica en multitud de ambientes diferentes (ultra alto vacío, humedad controlada, celdas catalíticas, temperaturas variables,…). Esta capacidad nos ha permitido diseñar nuevos experimentos con los que comprender el comportamiento de nuevos materiales y dispositivos. Dado la gran variedad de materiales y sus aplicaciones, es imposible en un artículo presentar una visión completa de la situación de la Nanotecnología, por lo que nos vamos a limitar a presentar algunos ejemplos que ilustran el estado actual de este campo.
Hacia la electrónica molecular
Nanocables, el futuro de la Electrónica Electrónica molecular
Debido a su tamaño nanométrico, las estructuras moleculares pueden poner de manifiesto nuevas propiedades electrónicas. Sin embargo, la necesidad de poder producir estructuras nanométricas de forma masiva, tal y como requieren las aplicaciones industriales hace que la manipulación individual de nano-objetos como las moléculas pase a un segundo plano, requiriéndose alternativas más útiles para incorporar la Nanotecnología a los procesos de fabricación. Por esta razón, en los últimos años se están estudiando profusamente las condiciones de formación y las propiedades de capas auto-ensambladas de diferentes moléculas orgánicas sobre superficies.
En estos casos la superficie no sólo proporciona un soporte, sino que posee un papel activo en la formación de diferentes patrones moleculares en dos dimensiones. Así, la posibilidad de generar sistemas auto-ensamblados de moléculas con propiedades bien definidas y dirigidas hacia la realización de funciones concretas abre un camino para cambiar desde el imperante paradigma del silicio en la electrónica hacia otro basado en la electrónica molecular. Este nuevo paradigma será mucho más rico por la gran diversidad de componentes moleculares que pueden entrar en juego. Entre los componentes prometedores para la Nanotecnología, que están relacionados con las moléculas orgánicas, y que habrá que tener en cuenta en el futuro de la microelectrónica, estarán los fullerenos, los nanotubos de carbono y el grafeno, de los que hablamos a continuación.
Los fullerenos o “bucky-balls”
Con este nombre se denomina al conjunto de distintas moléculas cerradas sobre sí mismas con formulación. El más conocido, por lo estable y abundante en naturaleza es el llamado Cn. El más conocido, por lo estable y abundante en la Naturaleza es el llamado C60, que está formado por 12 pentágonos y 20 exágonos, dispuestos como en un balón de futbol. Las aplicaciones Nanotecnológicas que se pueden derivar del uso de esta molécula están todavía en fase de estudio y son muy variadas. Sin embargo, aunque actualmente no existen aplicaciones concretas ya se han sintetizado más de mil nuevas moléculas basadas en fullereno y hay más de cien patentes internacionales registradas. El carácter rectificador de los fullerenos les hace atractivos para su uso en electrónica molecular.
Se encontraron bucky-balls en el Espacio exterior
La formación de este tipo de estructuras se produce más fácilmente de lo que podemos imaginar, pues son uno de los principales integrantes de la carbonilla y se generan abundantemente en cualquier combustión. Sin embargo, a día de hoy uno de los principales problemas para su utilización es el de conseguir una síntesis controlada de fullereno. Esto requiere complicadas técnicas, tales como la vaporización del grafito o la pirolisis láser, que normalmente producen exclusivamente los fullerenos más estables. Recientemente se ha propuesto un nuevo método para conseguirlo basado en principios “nano”. Se trata de partir de una molécula precursora sintetizada de forma tal que sea como un fullereno abierto, con los enlaces rotos saturados por hidrógeno. Esta molécula se puede plegar sobre sí misma mediante una transformación topológica de manera que de lugar a un fullereno. Se trata de partir de una estructura plana (un recortable) para posteriormente ensamblar un objeto en tres dimensiones. Este plegado se consigue mediante un proceso des-hidrogenación catalizada por una superficie. Una vez que la molécula plana ha perdido estos hidrógenos se cierran sobre sí misma de forma espontánea formando un fullereno.
Este proceso se ha podido seguir, entre otras técnicas, mediante imágenes de microscopía túnel in-situ. Los mecanismos existentes en el proceso se pueden entender gracias a los cálculos ab-initio que apoyan la investigación experimental. Esta combinación pone de manifiesto como una molécula plana de carbono sin hidrógeno se pliega espontáneamente. La belleza de este nuevo método de síntesis reside en que si se sintetizan moléculas precursoras planas con diferentes topologías se pueden conseguir moléculas cerradas de diferentes formas, tamaños e incluso que contengan átomos diferentes al Carbono. Así se ha sintetizado por primera vez la molécula C57 N3 sobre una superficie.
Nanotubos de Carbono
Si el descubrimiento del C60 fue un hito importante para la Nanotecnología, el de los llamados Nanotubos de Carbono lo ha superado con creces. Los Nanotubos de Carbono, unas diez mil veces más finos que un cabello, presentan excelentes propiedades físicas y su fabricación resulta relativamente económica. Un cable fabricado de Nanotubos de Carbono resultaría diez veces más ligero que uno de acero con el mismo diámetro pero sería ¡cien veces más resistente! A estas impresionantes propiedades mecánicas se le añaden unas interesantes propiedades eléctricas, puesto que pueden ser tanto conductores como aislantes, según la topología que presenten.
Un Nanotubo de Carbono se obtiene mediante el plegado sobre sí mismo de un plano atómico de grafito (enrollándolo). Según como se pliegue el plano grafítico se obtiene un Nanotubo que puede conducir la corriente eléctrica, ser semiconductor o ser aislante. En el primer caso, los Nanotubos de Carbono son muy buenos conductores a temperatura ambiente, pudiendo transportar elevadas densidades de corriente. En el segundo presentan propiedades rectificadoras. Por otra parte, si inducimos defectos en la estructura podemos generar moléculas semiconductoras y así formar diodos o transistores. Es decir, tenemos todos los elementos en nuestras manos para construir nano-circuitos basados en Carbono.
Grafeno
El grafeno es el material del futuro
A un solo plano atómico de grafito se le llama grafeno, y éste, a diferencia del grafito, es difícil de obtener. Recientemente, mediante cálculos teóricos, se han realizado predicciones acerca de las importantes propiedades electrónicas que podría tener este material. Entre ellas una altísima movilidad electrónica y una baja resistividad, de manera que estos planos atómicos podrían ser los futuros sustitutos del silicio en los dispositivos electrónicos. Ahora bien, al día de hoy, estas propuestas provienen esencialmente de cálculos teóricos y, por tanto, antes de que el grafeno pase a sustituir al silicio en la electrónica del futuro, es necesario verificar las predicciones teóricas en el laboratorio. Actualmente, éste es un campo muy activo de investigación, y muchos grupos están trabajando en la obtención de capas de grafeno soportadas sobre diferentes materiales, como polímeros o aislantes, para poder determinar sus propiedades eléctricas y comprobar las predicciones teóricas.
El estudio de grafeno sobre metales de transición es un campo muy activo de investigación ya que las capas de grafeno crecen de manera fácil, muy controladas y con un bajo número de defectos sobre estas superficies. Además el grafeno sobre un substrato forma patrones conocidos como redes de Moiré, en las que la periodicidad atómica de las dos redes cristalinas (substrato y grafeno), coincide cada dos-tres nm, dando lugar a deformaciones de la capa de grafeno, que se reflejan como prominencias en la imagen STM.
Nanohilos
No sólo las moléculas, los Nanotubos o el grafeno son las apuestas para sustituir al silicio. Otros elementos como los Nanohilos fabricados a partir de materiales semiconductores o los Nanohilos metálicos tendrán también cierto protagonismo. En concreto, los Nanohilos semiconductores presentan un gran potencial como transistores pero también presentan aplicaciones en campos como octoelectrónica o en la fabricación de censores biológicos. Por otro lado los Nanohilos metálicos, cuya síntesis controlada es más difícil, poseen gran interés como interconectores. En el caso de los Nanohilos formados de materiales Ni, Co o Fe se puede aprovechar también su potencial comportamiento magnetorresisitivo para ser usados en dispositivos de almacenamiento magnético. Los Nanohilos metálicos son interesantes a su vez porque los efectos de tamaño inducen en ellos la aparición de transiciones de fase martensíticas y la aparición de configuraciones no cristalinas.
En el próximo hablaremos de las Nanopartículas.
Fuente: Revista de Física de la RSEF
Jun
5
Nuevos Materiales, nuevos procesos, nuevos dispositivos. II
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Al final de la entrada de este mismo título, en su parte 1ª, os prometía una continuación sobre las Nanopartículas, y, como lo prometido es deuda, aquí lo dejo. Para seguir el hilo, el final del día anterior fue como sigue:
Nanohilos semiconductores y nanohilos de diamnate
Nanohilo con un diámetro del orden de un nanómetro (10-9 metros)
No sólo las moléculas, los Nanotubos o el grafeno son las apuestas para sustituir al silicio. Otros elementos como los Nanohilos fabricados a partir de materiales semiconductores o los Nanohilos metálicos tendrán también cierto protagonismo. En concreto, los Nanohilos semiconductores presentan un gran potencial como transistores pero también presentan aplicaciones en campos como octo-electrónica o en la fabricación de censores biológicos. Por otro lado los Nanohilos metálicos, cuya síntesis controlada es más difícil, poseen gran interés como inter-conectores. En el caso de los Nanohilos formados de materiales Ni, Co o Fe se puede aprovechar también su potencial comportamiento magneto-resistivo para ser usados en dispositivos de almacenamiento magnético. Los Nanohilos metálicos son interesantes a su vez porque los efectos de tamaño inducen en ellos la aparición de transiciones de fase martensíticas y la aparición de configuraciones no cristalinas.” Veamos que pasa con las Nanopartículas.
Nanopartículas
Quizás, junto a los nanotubos de carbono, las nanopartículas representan los materiales que tienen una repercusión tecnológica más inmediata. Además de sus propiedades intrínsecas, las nanopartículas representan los materiales que tienen una repercusión tecnológica más inmediata. Además de sus propiedades intrínsecas, las nanopartículas, debido a su pequeño tamaño, pueden convertirse en diminutos dispositivos capaces de realizar otras funciones, como transportar un medicamento específico por el torrente sanguíneo sin obstruirlo. Para lograr esto, las nanopartículas deben ser el soporte de capas de moléculas auto-ensambladas que confieren una funcionalidad adicional a las mismas.
Nanomateriales
Como su propio nombre indica, el término “nanopartícula” designa una agrupación de átomos o moléculas que dan lugar a una partícula con dimensiones nanométricas. Es decir, que su tamaño está comprendido entre 1 y 100 nm. Dependiendo de cuáles sean los átomos o moléculas que se agrupan se originarán diferentes tipos de nanopartículas. Así, por ejemplo, tendremos nanopartículas de oro, de plata o nanopartículas magnéticas si están formadas por átomos de Fe o Co. Su pequeño tamaño hace que la relación superficie/volumen crezca y por tanto que estas estructuras tengan unas propiedades características y esencialmente distintas a las que presenta el material en volumen.
Una estrategia para la formación de nanopartículas es recubrirlas con distintas capas de manera tal que cada una aporte funcionalidades diferentes al sistema. Así, por ejemplo, recientemente se han descrito nanopartículas cuyo interior está formado por un material magnético, como el Co, seguido de una capa intermedia de SiO2 que aporta estabilidad al sistema y finalmente una superficie de oro.
El tamaño final de la nanopartícula es de 3 nm, y esta estructura laminar hace que tengan un núcleo magnético que posibilite su guiado, y una superficie de oro que facilite el auto-ensamblado de moléculas orgánicas o biológicas para diferentes aplicaciones. Entre éstas destaca su uso como biosensores.
Para ello se inmoviliza material biológico, como ácido desoxirribonucleico (ADN) o el llamado ácido nucléico péptidico (PNA, del inglés peptide nucleic acid), que siendo un ácido nucléico artificial, presenta un “esqueleto” molecular formado por enlaces péptidicos y una estructura de bases nucleicas exactamente igual a la del ADN. El PNA puede reconocer cadenas complementarias de ADN, incluso con mayor eficiencia para la hibridación que la que representa el ADN para reconocer su hebra complementaria. Por este motivo, el PNA se ha propuesto como sonda para la fabricación de biosensores altamente eficientes. Estas macromoléculas unidas a superficies o nanopartículas son capaces de detectar diferentes analítos de interés, particularmente moléculas biológicas.
Sin embargo, el concepto de nanopartícula debe concebirse en un sentido más amplio ya que no sólo puede estar basada en un núcleo inorgánico, pudiéndose sintetizar nanopartículas poliméricas. Yendo un poco más allá una cápsida vírica puede entenderse como una nanopartícula formada por una carcasa proteica. Esta cápsida vírica tiene dimensiones nanométricas y, en muchos casos, burla con facilidad las membranas celulares. Por esta razón este tipo de “nanopartículas” se proponen para su uso en nanomedicina, y son el objeto de estudios básicos en los que las herramientas como los microscopios de fuerzas atómicas juegan un papel esencial. En particular, estas herramientas nos permiten caracterizar las propiedades mecánicas y las condiciones de ruptura de cápsidas víricas así como la forma en la que dichas cápsidas se comportan ante, por ejemplo, cambios controlados de humedad.
En un discurso recientemente impartido en la Universidad Europea de Madrid, William F. Clinton, ex-Presidente de los EE.UU, afirmó que ” el cometido del siglo XXI será salvar al mundo del cambio climático, regenerar la economía y crear empleo. El futuro más allá será la Nanotecnología y la biotecnología”. El propio W.F. Clinton fue el impulsor de la Iniciativa Nacional de Nanotecnología durante su mandato, convirtiendo durante los últimos 10 años a EE.UU en el líder mundial en la generación de conocimientos básicos y aplicados en el ámbito de la Nanotecnología.
Nadie pone en duda las afirmaciones de W.F. Clinton sobre el papel de la Nanotecnología en nuestro futuro a medio y largo plazo, por lo que es imperativo estar suficientemente preparados para construir este nuevo paradigma científico. En el caso concreto de España, las dos últimas ediciones del Plan Nacional de I+D+I han encumbrado las investigaciones en Nanociencia y Nanotecnología a la categoría de Acción Estratégica. En la actualidad se están poniendo en marcha varios centros dedicados a Nanotecnología. Dichas iniciativas son producto, por lo general, de costosos impulsos puntuales, locales, dirigidos por científicos con iniciativa, pero no son fruto de una actuación de conjunto, planificada siguiendo una estrategia quiada por unos objetivos ambiciosos, en los que impere la coordinación y el uso eficiente de los recursos. La actual coyuntura económica no invita al optimismo a este respecto, por lo que sería necesario poner en marcha iniciativas que promuevan la adquisición de infraestructuras, la formación de técnicos, la coordinación entre centros emergentes, etc.
Otro punto sobre el que no hay que descuidarse tiene que ver con la formación, en todos los niveles educativos, en Nanotecnología. En este sentido son numerosas las universidades españolas que ofrecen cursos de master y/o doctorado con contenidos relacionados con la Nanotecnología. Sin embargo, muchos de estos cursos tienen pocos estudiantes inscritos, al igual que ocurre con muchos estudios de grado relacionados con las ciencias básicas. La tarea de fascinar y atraer a nuestros jóvenes hacia la ciencia debe comenzar mucho antes. En este sentido, los conceptos inherentes a la Nanotecnología deben formar parte del conocimiento que debe llegar a los estudiantes de educación secundaria, como ocurre en países como Alemania, Finlandia, Taiwán, Japón, EE.UU., etc. Además, la Nanotecnología es una materia que causa cierta fascinación a los adolescentes por lo que puede ser un buen punto de partida para incentivar las vocaciones científicas. Esta ha sido una de las principales razones por las que los autores de este artículo junto con otros investigadores (Carlos Briones del Centro de Astrobiología y Elena Casero de la Universidad Autónoma de Madrid) accedieron a la petición de la Fundación Española de Ciencia y Tecnología (FECyT) para escribir una Unidad Didáctica de Ciencia y Tecnología. Dicho libro ya se encuentra en todos los institutos españoles de educación secundaria y bachillerato, y se puede descargar desde la web de la FECyT. Esperemos que esta pequeña contribución, junto con otras de mayor calado que deben promoverse desde las diversas administraciones públicas, permita tomar la senda que nos lleve a medio plazo hacia la tan ansiada sociedad basada en el conocimiento.
Fuente: Revista Española de Física. Volumen 23 número 4 de 2009
Los Autores:
D. José Ángel Martín Gago, del Instituto de Ciencia de Materiales de Madrid, Concejo Superior de Investigaciones científicas, Centro de Astrobiología /CSIC/INTA), Instituto Nacional de Técnica Aeroespacial, y, D. Pedro A. Serena Domingo, del Instituto de Ciencia y Materiales de Madrid y del Consejo Superior de Investigaciones Científicas.
Que haya sido de vuestro agrado.
Jun
5
¡El Futuro! Ese misterio II
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Finalmente, aunque no parece lo más probable, si el universo se hunde en un Big Crunch futuro en el tiempo finito, entonces no hay esperanzas a primera vista. Con el tiempo, el universo en proceso de hundimiento se contraerá lo suficiente para que se fundan galaxias y estrellas hoy separadas por millones de años luz. De hecho, actualmente, nuestra vecina la galaxia Andrómeda se está acercando hacia nosotros, que estamos en la Vía Láctea, y ambas galaxias terminarán fundiéndose en una gran galaxia (claro que, esto es una consecuencia de que, al estar ambas galaxias en el Grupo Local, la fuerza de Gravedad que generan actúan para que, con el tiempo, se unan de manera irremisible).
Las temperaturas crecerán tanto que moléculas y átomos se disgregarán. Una vez más, como en el futuro lejano, la vida tiene que existir en alguna forma incorpórea abstracta, quizá entretejida en la fábrica del espacio y el tiempo. Resulta sorprendente que esta supervivencia indefinida no está descartada mientras el tiempo se defina de forma adecuada. Si el tiempo verdadero al que marcha el universo es un tiempo creado por la propia expansión, entonces es posible que un número ínfimo de “tics” de este reloj ocurra en la cantidad finita de tiempo que parece estar disponible en nuestros relojes antes de que alcance el Big Crunch.
Hay un último truco que podrían tener guardado en su manga esos supervivientes súper avanzados en universos que parecen condenados a expandirse para siempre. En 1.949, el lógico Kart Gödel, amigo y colega de Einstein en Princeton, le dio una sorpresa al demostrar que el viaje en el tiempo estaba permitido por la teoría de la gravedad de Einstein. Incluso encontró una solución a las ecuaciones de Einstein para un universo en el que esto ocurría. Hay teorías y propuestas más modernas en las que, una civilización avanzada en el futuro, podrá viajar en el tiempo a través de un agujero de gusano; para ello tendrá que conseguir material-energía exótica que impedirá el cierre de la boca de entrada del agujero.
Por desgracia, el universo de Gödel no se parece en nada al universo en que vivimos. Gira muy rápidamente y está en desacuerdo con casi todas las observaciones astronómicas que se mencionan. Sin embargo, los estudios de Kip S. Thorne y su equipo, son más certeros y nada descabellados, sus ecuaciones sobre la posibilidad de viajar en el tiempo (al menos en teoría) son positivas y se ajustan en todo al universo en que vivimos y, en lo que al material o la energía exótica requerida, parece que la fuente puede tener su origen en el conocido “Efecto Casimir”
Es tanta nuestra ignorancia que el único camino a veces, para poder seguir tratando algún tema, es el de la especulación, ya que, nuestra imaginación siempre llega más allá de la realidad y, desde luego (menos mal) no se conforma con lo que hemos alcanzado hasta el momento, siempre estará latente la curiosidad que nos empuja a ir más allá al querer contestar las preguntas que incansables nos formulamos.
emilio silvera