Jul
15
Los misterios de la Tierra
por Emilio Silvera ~ Clasificado en Energías de la Tierra ~ Comments (3)
La más destructiva intensificación temporal de los normalmente suaves flujos de energía geotectónica – erupciones volcánicas o terremotos extraordinariamente potentes – o de energía atmosférica – vientos o lluvias anormalmente intensas –, parecen irrelevantes se comparan con las repetidas colisiones del planeta con cuerpos extraterrestres relativamente grandes.
Hace unos seis mil años, en una región argentina denominada Campo del Cielo, se suscitó una lluvia de meteoritos, producto de la explosión en la atmósfera de un asteroide que pesaba unos 840 mil kilos. En la actualidad, se conserva uno de esos fragmentos, al cual se le denominó como “El Chaco”. Es el segundo más pesado del cual se tiene , pues en la báscula registra 37 toneladas.
En los primeros años del siglo XIX, varios exploradores se asentaron en Cape York, Groenlandia, en donde descubrieron que los habitantes de las tribus del lugar utilizaban armas punzocortantes hechas, supuestamente, con materiales de origen meteórico. Años más tarde, Robert E. Peary fue quien encontró los resquicios de un gran asteroide que golpeó la Tierra en la llamada “Edad de Hierro”. A esta gran piedra se le llamó Ahnighito, la cual fue venida al Museo Americano de Historia Natural, en donde actualmente se le observar.
Este meteorito cayó miles de años en Bacubirito, Sinaloa. Se dice que en 1863, varios pobladores de dicha localidad hallaron esta gran piedra, aunque no se dio a conocer al mundo sino hasta finales del siglo XIX, gracias a la labor periodística de Gilbert Ellis. Bacubirito pesa cerca de 20 toneladas; mide más de cuatro metros de largo y dos metros de ancho, características por las cuales lo convierten en el quinto meteorito más grande que ha caído en el planeta. Hoy en día se encuentra en la explanada del Centro de Ciencias de Culiacán.
No sabemos un asteroide “asesino”, caerá sobre la Tierra. Los Encuentros espaciales, han sido relativamente frecuentes en la historia del planeta y, luego, no podemos asegurar que no se volverá a repetir, sino que, por el contrario, lo único que no sabemos es cuando pasará.
Existen simulaciones de lo que ser el choque del meteorito en la Tierra y, desde luego, no quisiera estar aquí cuando suceda. La Tierra está siendo bombardeada continuamente por invisibles partículas microscópicas de polvo muy abundantes en todo el Sistema Solar, y cada treinta segundos se produce un choque con partículas de 1 mm de diámetro, que dejan un rastro luminoso al autodestruirse en la atmósfera. También son relativamente frecuentes los choques con meteoritos de 1 metro de diámetro, que se producen con una frecuencia de, al , uno al año.
Pero los impactos, incluso con meteoritos mayores, producen solamente efectos locales. Esto es debido a que los meteoritos que deambulan por la región de asteroides localizada Marte y Júpiter están girando alrededor del Sol en el mismo sentido que la Tierra, de manera que la velocidad de impacto es inferior a 15 Km/s.
Marte y Júpiter hay cientos de miles de cuerpos pequeños que orbitan alrededor del Sol llamados asteroides. podemoas encontrarlos más allá de Plutón, llamado cinturón de Kuiper, y que en este caso reciben el de objetos transneptunianos y que están hecho de hielo. Ceres es el asteroide más grande y 913 km de diámetro.
El cráter de Arizona, casi perfectamente simétrico, se formó hace 25.000 por el impacto de un meteorito que iba a una velocidad de 11 Km/s, lo que representa una potencia cercana a 700 PW. Estas gigantescas liberaciones de energías palidecen cuando se comparan con un choque frontal con un cometa típico. Su masa (al menos de 500 millones de toneladas) y su velocidad relativa (hasta 70 Km/s) elevan su energía cinética hasta 1022 J. Aunque se perdiera un diez por ciento de esta energía en la atmósfera, el impacto sería equivalente a una explosión de unas 2.500 bombas de hidrógeno de 100 megatones. Está que un fenómeno de estas características produciría impresionantes alteraciones climatológicas. Sin embargo, no es seguro y sí discutible que un impacto parecido fuese la causa de la extinción masiva del cretácico, siendo lo más probable, si tenemos en cuenta el periodo relativamente largo en que se produjo, que se podría explicar por la intensa actividad volcánica de aquel tiempo.
La frecuencia de impactos sobre la Tierra disminuye exponencialmente con el tamaño del objeto. Muchas toneladas son las que recibimos cada año de pequeños fragmentos de todo pero, cuando estos van aumentando de tamaño, los sucesos de espacian de manera sustancial
Aproximadamente, cada cincuenta o sesenta millones de años se produce una colisión con un cometa, lo que significaría que la biosfera, que ha evolucionado durante cuatro mil millones de años, ha debido superar unos cuarenta impactos de este tipo. Está claro que ha salido airosa de estas colisiones, ya que aunque haya sido modificada, no ha sido aniquilada.
Esperemos que imagen no la podamos ver nunca en directo
Igualmente, la evolución de la biosfera ha sobrevivido a las explosiones altamente energéticas de las supernovas más “cercanas”. Dado que en nuestra galaxia se produce por término medio la explosión de una supernova cada 50 , el Sistema Solar se encuentra a una distancia de 100 parsecs de la explosión cada dos millones de años y a una distancia menor de 10 parsecs cada dos mil millones de años. En este último caso, la parte alta de la atmósfera se vería inundada por un flujo de rayos X y UV de muy corta longitud de onda, diez mil veces mayor que el flujo habitual de radiación solar, lo que implica que la Tierra recibiría, en unas pocas , una dosis de radiación ionizante igual a la que recibe anualmente. Exposiciones de 500 roentgens son setales para la mayoría de los vertebrados y, sin embargo, los diez episodios de esta magnitud que se han podido producir en los últimos 500 millones de años no han dejado ninguna consecuencia observable en la evolución de la biosfera.
Si suponemos que una civilización avanzada podría preparar refugios la población durante el año que transcurre ente la llegada de la luz y la llegada de la radiación cósmica, se encontraría con la inevitable dosis de 500 roentgens cada mil millones de años, tiempo suficiente para permitir el desarrollo de una sociedad cuyo conocimiento le sirviera para defenderse de un flujo tan extraordinario y de consecuencias letales.
nos queda tiempo, hablemos de… ¡La fotosíntesis! Y, sus consecuencias.
Todo el Oxígeno de la Atmósfera terrestre procede del oxígeno que desprenden los organismos autótrofos la fotosíntesis.
La fotosíntesis es el principal proceso bioquímico que consigue pasar materiales desde el biotopo hasta la biocenosis de un ecosistema. Una vez incorporados parte de los organismos autótrofos, los heterótrofos (por ejemplo, los animales) solo tienen que aprovecharse de aquellos; con la existencia de pequeñas cantidades de agua, todo está preparado para que el ecosistema entero comience a funcionar. Además, siempre habrá animales depredadores, carnívoros, que seguirán aprovechando los materiales de otros.
La conocida ecuación básica que describe la reacción endotérmica por la cual se sintetiza una molécula de glucosa a partir de sus seis moléculas de CO2 y H2O, y 2’8 MJ de radiación solar, es una simplificadísima caja negra. Una caja negra más realista sería la siguiente:
106 CO2 + 90 H2O + 16 NO3 + PO4 + nutrientes minerales + 5’4 MJ de radiación = 3’258 g de protoplasma (106 C, 180 H, 46 O, 16 N, 1 P y 815 g de cenizas minerales) + 154 O2 + 5’35 MJ de calor disipado.
Sin macronutrientes ni micronutrientes no se producir fitomasa, que está compuesta por los nutrientes básicos necesarios para todos los seres heterótrofos: azúcares complejos, ácidos grasos y proteínas.
La síntesis de fitomasa en el ciclo reductor del fosfato pentosa (RPP) – un proceso con varios pasos de carboxilación por catálisis enzimática, reducción y regeneración – tiene que empezar con la formación de trifosfato de adenosina (ATP) y nicotinamida adenina dinucleótido fosfato (NADP), que son los dos compuestos que suministran energía a todas las reacciones biosintéticas. La síntesis de las tres moléculas de ATP y las dos de NADP que se necesitan para reducir molécula de CO2 requiere de diez cuantos de radiación solar con longitud de onda próxima al pico rojo de absorción de la clorofila (680 nm). El carbono procedente del CO2, combinado con el hidrógeno del agua y con los micronutrientes, dará lugar a nueva fitomasa que contiene 465 KJ/mol.
La cantidad de energía de un cuanto de luz roja es de 2’92×10-19 J (el producto de la constante de Planck, 6’62×10-34 por la frecuencia de la luz, que a su vez es el cociente la velocidad de la luz y la longitud de onda).
Un einstein (definido como un mol o de Avogadro, 6’02×1023) de fotones rojos tiene una energía aproximadamente igual a 17 Kg. Suponiendo que la RFA es el 45% de la luz directa, la eficiencia global de la fotosíntesis es del 11%, que equivale a 456/(1.760/0’43). Esta eficiencia se reduce por lo en una décima parte más si tenemos en cuenta la reflexión de la luz en las hojas y la pérdida que supone atravesar la cubierta vegetal. Ninguna planta, sin embargo, se acerca siquiera a esta eficiencia teórica, porque parte de la luz absorbida por las clorofilas (generalmente, el 20 – 25 por ciento) vuelve a ser emitida en forma de calor, debido a que los pigmentos no pueden almacenar la luz y las reacciones enzimáticas no se producen con suficiente velocidad como para utilizar completamente el flujo de energía incidente. En la respiración se cede el carbono fijado en el metabolismo de la planta y en el mantenimiento de las estructuras que la soportan.
La luz y el calor que en una pequeña fracción recibinmos de la energía solar, posible todas estas maravillas en nuestro planeta. La vida incluida.
Para cada especie, la tasa con la que se pierde carbono está determinada principalmente por el tipo de fotosíntesis. Así, existen diferencias sustanciales las plantas C3 y C4. La respiración a escala de una comunidad o ecosistema depende del estado de crecimiento, y varía entre del 20 por ciento en plantas jóvenes en rápido crecimiento, hasta más del 90 por ciento en bosques maduros.
Con una pérdida del 25 por ciento para la reacción, y otro tanto para la respiración, la eficiencia fotosintética es ligeramente superior al 5 por ciento. En este punto, las estimaciones teóricas y los valores reales coinciden, ya que el valor medio de fotosíntesis neta en plantas muy productivas y en óptimas y durante cortos periodos de tiempo, oscila entre el 4 y el 5 por ciento. La mayoría de las plantas rinden en función de los nutrientes, especialmente nitrógeno y agua, o por las bajas temperaturas en las regiones de mayor altura y latitud. Los mejores rendimientos en sistemas naturales muy productivos, como los humedales y los cultivos, están entre el 2 y el 3 por ciento. En otros ecosistemas, como los pantanos tropicales templados y los bosques templados, el rendimiento de la transformación es del 1’5 por ciento, y en las praderas muy áridas sólo del 0’1 por ciento. Globalmente, la producción anual es, al menos, de 100.000 millones de toneladas de fitomasa, que se sintetizan con un rendimiento medio del 0’6 por ciento.
La fotosíntesis en los océanos, muy afectada por la escasez de nutrientes, es incluso menos . La productividad medie es de poco más de 3 MJ/m2 y se realiza con un rendimiento fotosintético del 0’06 por ciento. La media ponderada total es 0’2 por ciento, es decir, que sólo uno de cada 500 cuantos de energía solar que llega a la superficie de la Tierra se transforma en energía de biomasa en de tejido vegetal.
La mayor de esta energía se almacena en forma de azúcares simples, que contienen más energía, y que sólo se encuentran en las semillas.
La mayor parte de la fitomasa está en los bosques. En los océanos, los principales productores son los organismos que componen el fitoplancton, que son muy pequeños y flotan libres. Su tamaño varía algo menos de 2 y 200 μm de diámetro y están formados por cantidades variables de bacterias y protoctistas eucarióticos. Las cianobacterias cocoides son tan abundantes en algunas aguas oligotrópicas que pueden ser las responsables de la mayor parte de la producción de fitoplancton.
Los protoctistas fotosintetizadores varían entre los más pequeños flagelados pigmentados ( las criptomonas y crisofitos), hasta las diatomeas y dinoflagelados, que son mayores (más de 10 mm) y generalmente dominantes. Las diatomeas están formadas por células sin flagelos, con paredes de silicio amorfo mezclados con otros compuestos orgánicos. Presentan una sorprendente y amplia variedad de diseño, desde las que tienen simetría central (las de forma radial son las dominantes en el océano), a las pennadas (simetría lateral), y otras forman largas cadenas.
La productividad de fitoplancton está controlada por la temperatura del agua y por la disponibilidad de radiación solar y nutrientes. La temperatura no es determinante, porque muchas especies son muy adaptables y consiguen una productividad similar en distintos ambientes. Aunque es frecuente la adaptación a diferentes lumínicas, tanto el volumen como en contenido en clorofila de las diatomeas aumenta con la intensidad de la luz. En el mar abierto, la mayor limitación es la cantidad de nutrientes disponibles.
las carencias que más limitan la producción de fitoplancton está la de nitrógeno, el macronutriniente más importante, la de fósforo, y la de algunos otros micronutrientes clave como el hierro y el silicio.
Los medios productivos de la Tierra están en la capa superficial y la capa inmediatamente inferior de los océanos. En el mar abierto, las concentraciones más altas de nutrientes se encuentran entre los 500 y los 1.000 metros, a bastante más profundidad que la zona eufórica, capa en la que penetra la luz solar y que se extiende a unos 100 metros en las aguas transparentes.
El pequeñísimo tamaño de los productores dominantes es una adaptación eficaz a la escasez de nutrientes, ya que cuanto mayor sea el cociente entre la superficie y el volumen, y más lento el hundimiento de las células de fitoplancton en la capa eufórica, mayor es la tasa de absorción de nutrientes.
las corrientes elevan a la superficie las aguas frías y cargadas de nutrientes, la producción de fitoplancton aumenta sustancialmente. Las aguas costeras de Perú, California, noroeste y sudoeste de África, y de la India occidental son ejemplos destacados de ascensión costera de aguas frías. También se dan casos de ascensión mar adentro en la mitad del Pacífico, cerca del ecuador y en las aguas que rodean la Antártida. Otras zonas altamente productivas se encuentran en las aguas poco profundas cercanas a la costa que están enriquecidas por el aporte continental de nutrientes. Este enriquecimiento, con una proporción N/P muy descompensada, es especialmente elevados en los estuarios adonde van a parar grandes cantidades de aguas residuales y fertilizantes.
Las diferentes medidas de la productividad en las aguas oligotróficas de los mares subtropicales y de las aguas eutróficas con corrientes ascensionales, varían entre de 50 gC/m2 y 1 gC/m2, más de un orden de magnitud. Las estimaciones de la producción global de fitoplancton están comprendidas 80.000 y 100.000 millones de toneladas, que representan entre dos tercios y cuatro quintos de la fitomasa total terrestre. Contrasta con el resultado anterior el hecho de que, dado el corto periodo de vida del fitoplancton (1 – 5 días), la fitomasa marina represente sólo una pequeña fracción de todo el almacenamiento terrestre.
La distribución espacial del fitoplancton muestra zonas delimitadas que se extienden a escala local y global. La exploración desde los satélites es, con gran diferencia, la que permite detectar con mayor precisión las concentraciones de clorofila y la que ha posibilitado obtener las pautas de la distribución de fitoplancton. En las aguas que rodean la Antártida se observa claramente una distribución asimétrica en dos bandas casi concéntricas. La mejor distribución se explica por el hecho de que se deba a corrientes circumpolares y a la abundancia de ácido silicílico. las zonas de mayor riqueza de fitoplancton se encuentran cerca de los continentes donde los ríos arrastran abundantes nutrientes disueltos.
La vida necesita un aporte continuo de energía que llega a la Tierra el Sol y pasa de unos organismos a otros a través de la cadena trófica.
El fitoplancton es la base energética de las intrincadas pirámides tróficas. Las cadenas alimenticias en el océano, generalmente, son redes complicadas. Una gran parte de la fitomasa disponible no la consumen directamente los herbívoros, sino que primero se almacena en depósitos de materia muerta que, transformada por bacterias, se convertirá en alimento otros seres heterótrofos.
La gran producción de fitoplancton puede alimentar grandes cantidades de zoomasa. El kril, pequeños crustáceos parecidos a las quisquillas que se alimentan de diatomeas, son los organismos más abundantes en la superficie del mar; sus densas acumulaciones pueden contener mil millones de individuos y su producción anual de zoomasa quizá llegue hasta los 1.300 millones de toneladas. Esta prodigiosa cantidad de zoomasa sirve de alimento a focas, calamares y peces, así como a los mayores carnívoros de la biosfera, las especies de ballenas con barbas que se alimentan filtrando el agua.
emilio silvera
Jul
15
¿Las Mil y Una Noches?… Bueno, es mucho más que eso.
por Emilio Silvera ~ Clasificado en Rumores del Saber ~ Comments (1)
No es ningún secreto que la obra más famosa de la denominada literatura árabe, Alf Laylah wa-Laylah (Las mil y una noches), era en realidad una antigua obra persa. Hazar Afsana ( un millar de cuentos), que contenía distintos relatos, muchos de los cuales eran de origen Indio. Con el paso del tiempo, se hicieron adiciones a obra, no sólo a partir de fuentes árabes, sino también griegas, hebreas, turcas y egipcias. La obra que hemos leído (casi) todos, en realidad, es un compendio de historias y cuentos de distintas nacionalidades, aunque la ambientación que conocemos, es totalmente árabe.
Además de instituciones de carácter académico la Casa de la Sabiduría, el Islam desarrolló los hospitales tal como los conocemos hoy en nuestros días. El primero y más elaborado, fue construido en el siglo VIII bajo al-Rashid (el Califa de Las Mil y una noches), pero la idea se difundió con rapidez. Los hospitales musulmanes de la Edad Media que existían en Bagdad, El Cairo o Damasco, por ejemplo, eran bastante complejos para la época. Tenían salas separadas para hombres y mujeres, salas especiales dedicadas a las enfermedades internas, los desordenes oftálmicos, los padecimientos ortopédicos, las enfermedades mentales y contaban con casa de aislamiento para casos contagiosos.
Las bibliotecas científicas islámicas tuvieron una enorme influencia en el desarrollo y evolución de la civilización humana hasta que aparecieron con su imagen actual, sin embargo la biblioteca más conocida y famosa de este tipo sin duda fue la Biblioteca “Dar Al Hikmah” (La Casa de la Sabiduría), en Bagdad, que desempeñó el papel más trascendente para el conocimiento en la tierra, sin caer en la más mínima exageración. La Casa de la Sabiduría constituye uno de los tesoros científicos producidos por el pensamiento musulmán en la antigüedad, que también dio lugar a otras muchas bibliotecas científicas en diferentes lugares del Estado islámico, y cuya importante función ha olvidado la gente, a pesar de que ejercieron en aquella época un papel similar al de una científica internacional. Allí acudía todo tipo de alumnos, sin importar su género ni su religión, desde Oriente hasta Occidente, con el fin de estudiar las diferentes disciplinas científicas, en numerosos idiomas. Su luz estuvo iluminando y guiando a la humanidad durante cerca de cinco siglos, hasta que los tártaros la destruyeron.
El Islam, en este campo, también estaba muy avanzado, e incluso tenían clínicas y dispensarios ambulantes y hospitales militares para los ejércitos. Allí, en aquel ambiente sanitario, surgió la idea de farmacia o apotema, donde los farmaceutas, tenían que aprobar un examen, de preparar y recetar medicamentos.
Los conocimientos árabes llegaron Europa a través de España al ser Conquistada por el Islam
La obra de Ibn al-Baytar Al-Jami’fi al-Tibb (Colección de dietas y medicamentos simples) tenía más de un millar de entradas basadas en plantas que el autor había recopilado alrededor de la costa mediterránea. La noción de sanidad pública se debe a los árabes que, visitaban las prisiones para detectar y evitar enfermedades contagiosas.
Grandes médicos islámicos como Al-Razi, conocido en occidente por su nombre latino, Rhazes, nació en la ciudad persa de Rayy y en su juventud fue alquimista, después de lo cual se convirtió en erudito en distintas materias. Escribió cerca de doscientos libros, y aunque la mitad de su obra está centrada en la medicina, también se ocupó de temas teológicos, matemáticos y astronómicos. ¡Todo un personaje! Fue el primer médico Jefe del gran hospital de Bagdad. Se dice que elegir el sitio de ubicación del hospital, primero colgó tiras de carne en distintos lugares de la ciudad, y, finalmente eligió aquel donde la carne era menos putrefacta.
La gran obra de al-Razi fue el AL-Hawi (El libro exhaustivo), una enciclopedia de veintitrés volúmenes de conocimientos médicos griegos, árabes, preislámicos, indios e incluso chinos.
El otro gran médico musulmán fue Ibn Sina, a quien conocemos mejor por su latinizado, Avicena. Al igual que al-Razi, Avicena escribio doscientos libros, destacando la obra más famosa AL-Qanun (El canon) muy documentado e importante tratado.
Alejandría, en el año 641, había caído en manos de los musulmanes que, muchos años había sido la ciudad capital-mundial de los estudios matemáticos, médicos y filósofos, y allí los musulmanes encontraron una ingente cantidad de libros y manuscritos griegos sobre estos temas. Posteriormente, entre el profesorado de la Casa de la Sabiduría encontramos a un astrónomo y matemático cuyo nombre, como el de Euclides, se convertiría en palabra de uso cotidiano en todo el mundo culto: Muhammad ibn-Musa aL-khwarizmi.
La fama de al-khwarizmi descansa en dos libros, uno muchísimo más original que el otro. El volumen menos original se basa en el Sindhind, que es el nombre árabe del Brahmaghuta Siddhanta, el tratado de Brahmagupta que había llegado hasta la corte de al-Mansur y en el que se describen varios problemas aritméticos así comos los numerales indios. El trabajo de AL-khwarizmi se conoce hoy en una única copia, una traducción latina de un original árabe actualmente .
El título latino de esta obra es de numero indorum (sobre el arte de contar indio), trabajo es el responsable de la falsa impresión de que nuestro sistema numérico es de origen árabe.
al-khwarizmi no afirmó ser original en aquel sentido, sin embargo, la nueva notación terminaría siendo conocida como la de al-khwarizmi o, de corrupta, algorismi, lo que al final daría lugar a la palabra “algoritmo”, que define una forma particular de calculo.
Pero al-khwarizmi también es conocido el “padre del álgebra” y, ciertamente, su Hisab aL-jabr wa’L mugabalah contiene más de ochocientos ejemplos y, se cree que tiene su origen en complejas leyes islámicas relativas a la herencia:
¡La en que evolucionaron los números!
En el al-jabr, aL-khwarizmi introduce la idea de representar una cantidad desconocida por un símbolo, la x, y dedica seis capítulos a resolver los seis tipos de ecuaciones que conforman las tres clases de cantidades: raíces, cuadrados y números.
El al-jabr de al-khwarizmi ha sido considerado tradicionalmente como la primera obra de Algebra. Sin embargo, un manuscrito hallado en Turquía a finales del pasado siglo XX pone en duda tal mérito. Se titula Necesidades lógicas en las ecuaciones mixtas, el texto se ocupa más o de los mismos temas y resuelve algunas de las ecuaciones exactamente de la misma manera. Por tanto, parece que un manuscrito se basó en otro, aunque nadie sabe cuál fue el primero.
En las ciencias químicas, la personalidad árabe más destacada fue Jabir ibn-Hayyan, conocido en Occidente como Geber, y quien vivió en aL-kufah en la segunda mitad del siglo VIII.
Como todos en la época, él estaba obsesionado con la alquimia y, en particular, por la posibilidad de convertir los metales en oro (algo que Jabir pensaba podía conseguir mediante una misteriosa sustancia aún no descubierta, a la que llamó, el aliksir, de donde proviene la palabra “elixir”). Los alquimistas también creían que su disciplina era la “ciencia del equilibrio” y que era posible producir metales preciosos mediante la observación (y mejoramiento) de los métodos de la naturaleza mediante la experimentación y, es legitimo considerar a Jabir uno de los fundadores de la química.
Paralelamente a esto, aL-Razi ofreció una clasificación sistemática de los productos de la naturaleza. Dividió las sustancias minerales en espíritus (mercurio, sal amoníaco), sustancias (oro, cobre, hierro), piedras (hermatites, óxido de hierro, vidrio, malaquita), vitriolos (alumbre), Góraxes y sales. A estas sustancias “naturales” añadió las “artificiales”: el cardenillo, el cinabrio, la soda cáustica, las aleaciones. aL-Razi también creía en lo que podríamos denominar investigación de laboratorio y desempeñó un importante papel en la separación de la química propiamente dicha de la alquimia.
¡Son tantas las cosas que podemos recordar de tiempos pasados!
Si podeis, os recomiendo la lectura del libro “Ideas” de Peter Watson, en él podreis encontrar relatos que, como el que arriba habeis leído, os llevará al pasado y os contará maravillas, muchas veces olvidadas y que, en realidad, forjaron la senda que nosotros pudiéramos llegar hasta aquí.
emilio silvera
Jul
15
La Física no duerme
por Emilio Silvera ~ Clasificado en Física ~ Comments (1)
Arnold Sommerfeld percibió que la velocidad de los electrones en el átomo de hidrógeno es una fracción considerable de la velocidad de la luz, así que había que tratarlos conforme a la teoría de la relatividad. Vio que donde la teoría de Bohr predecía una órbita, la nueva teoría predecía dos muy próximas.
Esto explica el desdoblamiento de las líneas. Al efectuar sus cálculos, Sommerfeld introdujo una “nueva abreviatura” de algunas constantes. Se trataba de 2πe2 / hc, que abrevió con la letra griega “α” (alfa). No prestéis atención a la ecuación. Lo interesante es esto: se meten los números conocidos de la carga del electrón, e–, la constante de Planck, h, y la velocidad de la luz, c, sale α = 1/137. Otra vez 137 puro.
Las constantes fundamentales (constantes universales) están referidas a los parámetros que no cambian a lo largo del universo. La carga de un electrón, la velocidad de la luz en el espacio vacío, la constante de Planck, la constante gravitacional, la constante eléctrica y magnética se piensa que son todos ejemplos de constantes fundamentales.
La última lección importante que aprendemos de la manera en que números puros α (alfa) definen el mundo, es el verdadero significado de que los mundos sean diferentes. El número puro que llamamos constante de estructura fina, e indicamos con α, es como hemos dicho antes, una combinación de e, c y h (el electrón, la velocidad de la luz y la constante de Planck). Inicialmente, podríamos estar tentados a pensar que un mundo en el que la velocidad de la luz fuera más lenta sería un mundo diferente. Pero sería un error. Si e, h y c cambian de modo que los valores que tienen en unidades métricas (o cualesquiera otras) fueran diferentes cuando las buscamos en nuestras tablas de constantes físicas, pero el valor de α permaneciera igual; nuevo mundo sería observacionalmente indistinguible de nuestro mundo. Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza.
Fue Einstein el que anunció lo que se llamó principio de covariancia: que las leyes de la naturaleza deberían expresarse en una que pareciera la misma para todos los observadores, independientemente de dónde estuvieran situados y de cómo se estuvieran moviendo. Cuando trató de desarrollar este principio, Einstein tuvo dificultades; no encontraba la manera de expresarlo con la formulación matemática adecuada. Pidió ayuda a su amigo Marcel Grossmann, matemático, quien sabiendo de las necesidades exactas de Einstein, le envió la copia de una conferencia que dio un tal Riemann, unos sesenta años .
A la Izquierda Gauus, al que llamaron Príncipe de las matemáticas.
Einstein fue muy afortunado, ya que durante la última parte del siglo XIX en Alemania e Italia, matemáticos puros habían estado inmersos en el estudio profundo y detallado de todas las geometrías posibles sobre superficies curvas. Habían desarrollado un lenguaje matemático que automáticamente tenía la propiedad de que toda ecuación poseía una forma que se conservaba las coordenadas que la describían se cambiaban de cualquier manera. Este lenguaje se denominaba cálculo tensorial. Tales cambios de coordenadas equivalen a preguntar qué tipo de ecuación vería alguien que se moviera de una manera diferente.
Einstein se quedó literalmente paralizado al leer la Conferencia de Riemann. Allí, delante de sus propios ojos tenía lo que Riemann denominaba Tensor métrico. Einstein se dio de que era exactamente lo que necesitaba para expresar de manera precisa y exacta sus ideas. Así llegó a ser posible la teoría de la relatividad general.
Einstein pudo expresar su principio de covariancia expresando sus leyes de la naturaleza como ecuaciones tensoriales, que poseían automáticamente la misma forma para todos los observadores.
Este paso de Einstein completó un movimiento espectacular en la concepción física de la naturaleza que ha sido completado en el siglo XX. Está marcado por una evolución que se aleja continuamente de cualquier visión privilegiada del mundo, sea una visión humana, basada en la Tierra, o una visión basada en patrones humanos, la naturaleza tiene sus propios patrones.
Está que pensar siquiera en que en nuestro universo, dependiendo de la región en la que nos encontremos, habrá distintos leyes físicas, sería pensar en un universo chapuza. Lo sensato es pensar como Einstein y creer que en cualquier parte del universo rigen las mismas leyes físicas, que no se encuentre pruebas reales a favor de lo contrario, los científicos suponen con prudencia que, sea cual fueren las causas responsables de las pautas que llamamos “Leyes de la Naturaleza”, es mucho más inteligente adoptar la creencia de la igualdad física en cualquier parte de nuestro universo por muy remota que se encuentre; los elementos primordiales que lo formaron fueron siempre los mismos, que interaccionan con las cuatro fuerzas fundamentales naturales.
sabemos que las fuerzas de la naturaleza, la fuerza nuclear fuerte, la fuerza nuclear débil, el electromagnetismo y la gravedad, no son tan diferentes como parece a primera vista. Parecen tener intensidades muy diferentes y actuar sobre partículas elementales diferentes. eso es ilusorio, es la sensación creada por nuestra necesidad de habitar en un lugar del universo donde la temperatura es más bien baja y, es así, como se manifiestan las fuerzas de la naturaleza que, en dicha temperatura permite la existencia de átomos y moléculas.
Conforme la temperatura aumenta y las partículas elementales de materia colisionan entre sí a energías cada vez más altas, las fuerzas separadas que gobiernan nuestro mundo de baja temperatura, se hacen más parecidas. La fuerza fuerte se debilita, la fuerza débil aumenta y fortalece. Aparecen nuevas partículas a medida que se alcanzan temperaturas más elevadas y consiguen producir interacciones entre las familias separadas de partículas que a temperaturas bajas, parecen estar aisladas entre sí. Poco a poco, a medida que nos acercamos a esas inimaginables de temperatura “última” que Max Planck encontró definida por las cuatro constantes de la naturaleza, G, K, c, h, esperamos que las diferencias entre las fuerzas naturales se vayan borrando completamente para finalmente quedar unificadas en una única fuerza como, por otra parte, se cree que fue al principio de todo, en el Big Bang, el proceso ocurrió al contrario. Había una increíble temperatura, un plasma primordial lo invadía todo y se expansionaba, naciendo el tiempo y el espacio cuando reinaba la simetría total y una sola fuerza lo regía todo.
El universo continuó su expansión y comenzó a enfriarse, la simetría se rompió y lo que era una sola fuerza se dividió en las cuatro que conocemos. Previamente, a partir del plasma, al la temperatura, surgieron los quarks que se juntaron formar protones y neutrones que, a su vez, se juntaron para formar núcleos que, al ser rodeados por los electrones atraídos por la carga positiva de los núcleos, formaron los átomos, que se unieron para formar moléculas, que se juntaron para formar la materia, que más tarde, dio lugar al nacimiento de las primeras estrellas y galaxias con sus variedades de objetos estelares, planetas, satélites, cometas, meteoritos, y, en definitiva, todo lo que exoiste en el universo y que podamos ver o detectar.
Las fuerzas de la naturaleza que gobiernan la electricidad, el magnetismo, la radiactividad y las reacciones nucleares están confinadas a un “mundobrana” tridimensional, mientras que la gravedad actúa en todas las dimensiones y es consecuentemente más débil.
emilio silvera
Jul
14
Sí, el Universo es… ¡Asombroso!
por Emilio Silvera ~ Clasificado en El Universo y... ¿nosotros? ~ Comments (2)
El complejo binario Wolf-Rayet BATT99-49, nos muestra como sus energías producen coloridos tonos en la espesas nubes de gas hidrógeno que ocultan las estrellas nuevas de potente radiación que ionizan el lugar. Aquí podemos contemplar la bonita imagen conseguida por la unidad Melipal del telescopio VLT, del Observatorio Europeo del Sur , resuelve con espléndido detalle el complejo BAT99-49 de esta nebulosa. La luz emitida por los átomos de helio se registra en azules, la del oxígeno en verdes y la del hidrógeno en rojos. Una de las estrellas de esta dupla es del tipo enigmático Wolf-Rayet , mientras que la otra es una estrella O masiva. Esta pareja estelar y su nebulosa se encuentran en la Gran Nube de Magallanes , la más grande de las galaxias-satélite de nuestra Vía Láctea . Las estrellas Wolf-Rayet constituyen uno de los objetos más calientes del universo, mientras que las O son las más energéticas y masivas de la secuencia principal de evolución estelar.
Vientos solares que crean burbulas en la Nebulosa
Las estrellas de Wolf-Rayet o estrellas Wolf-Rayet (abreviadas frecuentemente como WR) son estrellas masivas (con más de 20-30 masas solares), calientes y evolucionadas que sufren grandes pérdidas de masa debido a intensos vientos solares.
Este tipo de estrellas tiene temperaturas superficiales de entre de 25.000 – 50.000 K (en algunos casos incluso más), elevadas luminosidades, y son muy azules, con su pico de emisión situado en el ultravioleta. Sus espectros muestran bandas de emisión brillantes correspondientes a hidrógeno o helio ionizado -los cuales son relativamente escasos-. La superficie estelar también presenta líneas de emisión anchas de carbono, nitrógeno y oxígeno. Constituyen el tipo espectral W, el cual se divide a su vez en tres tipos: WN (si abunda el nitrógeno, que se explica por la presencia en la superficie estelar de elementos que han intervenido en el ciclo CNO), y WC y WO (si abunda el carbono y si abunda el oxígeno respectivamente; el segundo es mucho más raro y en ambos casos, la presencia de dichos elementos se interpreta como la presencia en la fotosfera de productos del proceso triple alfa). Las estrellas Wolf-Rayet más brillantes son del primer tipo.
mediante el proceso Triple Alfa, las estrellas crean Carbono
A menudo suelen formar parte de sistemas binarios en los cuales la otra estrella suele ser también una estrella masiva de tipo espectral O y B, o bien, en unos pocos casos, un objeto colapsado como una estrella de neutrones o un agujero negro.
Estas estrellas masivas tienen una vida más corta que las estrellas como nuestro Sol o las enanas rojas que, llegan a alcanzar edades más largas que la que tiene actualmente nuestro Universo. Lo normal es que una estrella muy masiva, que consume gas hidrógeno en cantidades asombrosas, es decir, que fusiona los materiales más sencillos en otros más complejos, viven unos pocos millones de años hasta que, no puede seguir fusionando material y queda a merced de la Gravedad que la comprime más y más, explota como Supernova para convertirse en un aestrella de neutrones o agujero negro y, las capas exteriores, son eyectadas al espacio interestelar para formar una Nebulosa.
Los agujeros negros, aunque nadie ha podido visitar ninguno hasta el momento, se cree son los objetos más densos del universo y, hasta tal punto es así que el material que los conforma se contrae tanto que, llega a desaparecer de nuestra vista y, estrellas de más de 80 0 100 masas solares, quedan así, convertidas en puntos, o, singularidades de inemnsa densidad y energía. Hasta tal punto es así que la gravedad que genera no seja escapar ni a la luz que, como sabéis, camina a 300.000 Km/s.
El Universo amigos míos, como siempre digo: ¡Es asombroso!
Lo hemos comentado aquí en muchas ocasiones. El cerebro se cuenta entre los objetos más complicados del Universo y es, sin duda, una de las estructuras más notables que haya podido producir la evoluciòn y, si pensamos que toda esa inmensa complejidad ha tenido su origen en los materiales creados en las estrellas, no tendremos otra opción que la del asombro. ¿A partir de la materia “inerte” llegaron los pensamientos?
Antes incluso del advenimiento de la moderna neurociencia, se sabía ya que el cerebro era necesario para la percepción, los sentimientos y los pensamientos. Lo que no está tan claro es por qué la conciencia se encuentra causalmente asociada a ciertos procesos cerebrales pero no a otros.
En tanto que objeto y sistema, el cerebro humano es especial: su conectividad, su dinámica, su forma de funcionamiento, su relación con el cuerpo al que ordena qué funciones debe desarrollar en cada momento dependiendo de tal o cual situación dada y también su relación con el mundo exterior a él que, por medio de los sentidos, le hace llegar información de todo lo que ocurre para que, pueda ado0ptar en cada momento, las medidas más adecuadas. Su carácter único hace que ofrecer una imagen fidedigna del cerebro, que pueda expresar todo lo que es, se convierta en un reto extraordinario que, en este momento, la ciencia no puede cumplir. Sin embargo, sí que puede, al menos, dar alguna que otra pista de lo que el cerebro y la conciencia puedan llegar a ser y aunque, aún lejos de una imagen completa, sí se puede dar una imagen parcial que siempre será mejor que nada, especialmente si nos da la suficiente información como para tener, una idea aproximada, de lo que el cerebro y la conciencia que surge de él, pueden llegar a ser.
Si nos paramos a pensar en el hecho cierto de que, el cerebro humano asulto, con poco más de un kilo de peso, contiene unos cien mil millones de células nerviosas o neuronas, La capa ondulada más exterior o corteza cerebral, que es la parte del cerebro de evolución más reciente, contiene alrededor de 30 mil millones de neuronas y más de un billón de conexiones o sinapsis. Si contarámos una sinapsis cada segundo, tardaríamos 32 millones de años en completar el recuento. Si consideramos el número posible de circuitos neuronales, tenemos que habernósla con cifras hiperastronómicas: 10 seguido de un millón de ceros. No existe en el Universo ninguna optra cosa de la que pueda resultar una cantidad igual. Incluso el número de partículas del universo conocido es de 10 seguido de tan sólo 79 ceros. En comparación con el número de circuitos neuronales…¡No es nada!
El impulso nervioso viaja a lo largo del axón de la célula del cerebro, a través del espacio sináptico a otra célula del cerebro y así sucesivamente. Cuando una neurona se activa a otra de esta manera, es como si un interruptor se encendiera. Las neuronas se encienden, como una línea de fichas de dominó cayendo. Esta actividad es el proceso que crea el camino del pensamiento complejo, llamado también trazas de la memoria o caminos neuronales.
El impulso nervioso viaja a lo largo del axón de la célula del cerebro, a través del espacio sináptico a otra célula del cerebro y así sucesivamente. Cuando una neurona se activa a otra de esta manera, es como si un interruptor se encendiera. Las neuronas se encienden, como una línea de fichas de dominó cayendo. Esta actividad es el proceso que crea el camino del pensamiento complejo, llamado también trazas de la memoria o caminos neuronales.
Entrando de lleno en toda esta complejidad que aún, no hemos podido llegar a desvelar en toda su inmensidad y sólo conocemos pequelas parcelas de su estructura y funcionamiento, podemos tener una idea (más o menos) acertada de lo muchom que nos queda por aprender de nosotros mismos, de nuestro cerebro y de nuestro centro neurálgico dónde se fabrican los pensamientos, surgen los sentimientos, se delata el dolor y la tristeza y, en fín, podríamos decir sin el menor temnor a equivocarnos que, aquí, en este complejo entramado que llamamos cerebro, en el que reside la conciencia y de donde surge la mente, está todo lo importante que nos hace diferentes a otros seres que, con nosotros comparten el mismo planeta. Gracias a ésta compleja “maquina” creada por la Naturaleza, podemos ser conscientes y “saber” del mundo, de nosotros, del universo en toda su magnitud y esplendor.
No pocas veces hemos podido oir: “El cerebro es como una gran computadora”. Lo cierto es que, no es verdad, nuestro cerebro, nuestra mente, es mucho más que ese algo artificial creado por el hombre y que, simplemente, trata de “imitar” de manera grosera, lo que el cerebro es. ¿Cómo puede una máquina generar sentimientos? Y, ¿Cómo puede pensar? Bueno, la inteligencia del ser humano (precisamente basada en este maravilloso cerebro del que hablamos), podrá crear sistemas que imiten y pretendan recrear lo que es un cerebro pero, al final del camino, será otra cosa muy diferente. No digo si mejor o peor, pero distinta.
Las neuronas de las que existen una gran variedad de formas, poseeen unas proyecciones arborescentes llamadas dendritas mediante las cuales realizan las conexiones sinápticas. posee asímismo una proyección única más larga, el axón, que establece conexiones sinápticas con las dendritas o directamente con el cuerpo celular de otras neuronas. Nadie ha contado con precisión los diferentes tipos de neuronas del cerebro, pero uhna estima groso modo de unos cincuenta tipos seguramente no sería excesiva. La longitud y patrones de ramificación de las dendritas y el axón de un tipo determinado de neurona caen dentro de un rango de variación determinado, pero incluso dentro de un mismo tipo, no existen dos células iguales.
Hemos examinado la escasa bibliografía fisiológioca existente que no es ucha más que la que había en la època de William James, por ejemplo, y hay que concluir diciendo que no existen pruebas suficientes para poder limitar los correlatos neuronales de la cionciencia al menos del cerebro completo. Eso sí, se ha podido descubrior que sólo una porción determinada de la actividad neuronal del cerebro, contribuye de forma directa a la conciencia -asó se ha podido determinar de complejos y profundos experimentos con estimulación y lesiones -o está relacionada de forma directa con aspectos de la experiencia consciente- como indican los estudios de registros de actividad neuronal. ¿Quiere esto decir que, en realidad, todavía sólo utilizamos una mínima parte del cerebro? No lo sabemos con certeza. Pero lo que si parece es que utilizamos todo el cerebro con el que podemos contar hoy, mañana, cuando evolucionado desarrolle más intelecto, podremos utilizar lo que el cerebro podrá ofrecer en el futueo.
emilio silvera
Jul
14
¡La Física! en el siglo XIX
por Emilio Silvera ~ Clasificado en Rumores del Saber ~ Comments (0)
La Física, como todo, evoluciona.
Simplemente con echar una mirada al siglo XIX, nos podemos percatar de que, ese período fue apasionante la Ciencia y la Tecnología que comenzaron a cambiar de manera acelerada produciendo importantes cambios en nuestra Sociedad, sus usos y sus costumbres.
No es extraño encontrar textos de la época en los que, aquella sucesión imparable de inventos y de muchos descubrimientos, marcarían el desarrollo de una nueva Humanidad.
Faraday y J. C. Maxwell.
Las lecturas de la época dejan a veces traslucir sentimientos de asombro, admiración, desconcierto y, a veces, un poco de temor de todos aquellos avances que parecían sacados de una novela de ciencia ficción.
Sí, queremos mostrar episodios referidos a grandes descubrimientos que, por estas razones, llaman la atención. Claro que, si nos trasladamos mentalmente a aquellos momentos y aquella época, podremos comprender mejor, todas aquellas reacciones entonces desencadenadas que , vistas en perspectiva, son lo que sería de esperar y de una total normalidad.
¿Que sería de nuestro mundo sin las personas que aparecen en esta foto?. Sería difícil nombrar a un físico relevante del siglo XX que no aparezca en ella. Corresponde a la quinta conferencia, año 1927, promovida por el filántropo belga Ernerst Solvay. De los 29 asistentes, 17 ya habían, o lo harían poco después, ganado el premio Nobel (al menos una vez). Schrödinger, Einstein (repite en esta lista), M. Curie, Bohr, Planck, Lorentz, Heissenberg, Pauli… científicos inigualables que cambiaron el concepto del mundo, desde el vasto Universo hasta el pequeño átomo.
Aquellos episodios fueron recogidos en lecturas y manuales de Física del siglo XIX, y, lo mismo que fueron saliendo a la luz (sin orden ni concierto), serán aquí comentados. Lo cierto es que, todo aquello nos trajo consecuencias históricas, sociales y educativas.
En general, el siglo XIX es el de la consolidación de la Física como disciplina autónoma. Se manifiesta en ella un afán por establecer un campo de estudio propio, separándose por un lado de la Química, y por el otro de las matemáticas, a la que ha pertenecido hasta entonces como una rama de la misma: las matemáticas mixtas(óptica, estática, astronomía.
En ese momento la Física comienza a adquirir importancia las distintas ramas del saber. Dos factores contribuyen a ello. El primero, la incorporación de nuevos conocimientos que amplían espectacularmente el horizonte de la disciplina. El segundo, el fundamental: el cambio de orientación con relación al espíritu especulativo que estuvo presente hasta bien avanzado el siglo anterior.
Pronto llegarían nuevos conceptos, nuevas teorías
De este modo, la Física asume un enfoque más experimental, al tiempo que dará paso a una utilización creciente de las matemáticas.
Drespretz, en el prólogo de su Física Experimental (1839): “La Física, en el estado á que ha llegado en la actualidad, no tiene de común más que el con la Física llamada escolástica, que los preceptos de Bacón y los ejemplos de Galileo han contribuido felizmente á desterrar de la enseñanza pública.”
La Física de orientación escolástica todavía perdura, especialmente en nuestro país, a principios del siglo XIX. marcar las diferencias, se insiste en que la nueva Física es Física Experimental que se contempla como “ciencia útil” y capaz de incidir con sus aplicaciones en la vida de las personas y en las Sociedades en general.
Aquellos tiempos eran de carruajes que comenzaron a correr sin caballos, máquinas de vapor que “aprovecha la potencia motriz del fuego” que surgieron en Inglaterra del siglo XVIII para sustituir a los animales en el bombeo del agua, cuando ésta inundaba las minas de carbón. La máquina “atmosférica” de Newcomen fue la primera, seguida por la de Watt que mejoró el diseño con un condensador para el vapor, haciéndola mucho más eficiente.
En 1827, el ingeniero francés Marc Seguir inventó la caldera tubular, que obtenía mayor provecho de la fuerza generada por el vapor. Stephenson aplicó sistema a la locomotora The Rocket, que era capaz de transportar 12.942 kilos a 24 km por hora con una pendiente del 2%.
Ninguno de aquellos avances se llevó a cabo con respaldo teórico hasta que aparecen los estudios de Carnot en 1824. En ese nace la termodinámica y a partir de ahí el progreso se dispara.
La Máquina de vapor tiene lugar preferente en los manuales de Física de la época y se describen de manera minuciosa todos y uno de los elementos que intervienen en su funcionamiento. Faltaba sin embargo, la fundamentación teórica, la cual tardaría varias décadas en ser incorporada.
A lo más, los dos únicos principios explicativos que aparecen son la “fuerza elástica del vapor” y “la caída de presión cuando el vapor se condensa”. Claro que, la máquina de vapor adoptó nuevos y más modernos diseños y, de estar fijas en sus lugares de , pasaron a poder desplazarse con la gran ventaja que ello suponía, y, hasta tal punto fue así que, aquella idea del desplazamiento, dio lugar a la llegada del Ferrocarril por una parte y de la Navegación fluvial a vapor por otra, con lo cual, aquello nos llevó en volandas hacia el futuro. Un futuro hasta hacía poco impensable.
“[…] máquinas admirables que lo mismo producen su efecto en puntos fijos, como marchando con una prodigiosa velocidad, ya sobre las barras de hierro, borrando las distancias, ó ya surcando los mares sobre unas tablas, y haciendo vecinos los dos mundos que estos mares separan. (Rodríguez, 1858, p. 320, en su manual de Física general y aplicada a la agricultura y a la industria. Madrid, Aguado (1858).”
Resulta muy curioso en la que eran presentados estos nuevos inventos y las referencias que utilizaban para ello al tratar de transmitir al lector novedades de tal magnitud:
“Igualmente se las ha aplicado á los carruajes que se hacen marchar sin caballerías para transportar cargamentos muy considerables, ó mejor para arrastrar tras de sí un número mayor o menor de carruajes ordinarios cargados de todas las mercancías, ó de otra clase de objetos. (Beudant, 1841, p. 283. Tratado Elemental de Física (3ª Edic.) Madrid, Imprenta de Arias (1841).”
Como vemos, lo era descrito en base a lo ancestral. Se percibe que comienza a producirse cambios de incalculables consecuencias, que hará que el mundo, deje de ser lo que era.
Tras haber pasado desapercibida siglos, la electricidad comienza un desarrollo fulgurante en el siglo XVIII. En ese período se establecen las leyes básicas y surgen las primeras teorías explicativas de los fenómenos conocidos. Coulomb cierra el siglo estableciendo la primera ley cuantitativa e introduciendo la electricidad en el marco de la ciencia newtoniana.
La bateria eléctrica de Volta y las primeras ciudades alumbradas
Volta apiló discos de igual tamaño de cobre y de cinc, sólo o con estaño, alternados, que llevan intercalados cada uno de ellos un paño humedecido. Esta “pila de discos” empieza y termina con discos de diferente tipo. Conectando con un alambre los discos situados en los extremos logró que fluyera un flujo eléctrico. Impregnando el paño en determinadas sales la corriente obtenida era mucho mayor.
Así, en el siglo XIX se abre con una aportación de gran trascendencia: la pila de Volta, cuyos efectos “son tan extraordinarios que sin exageración se puede decir que es el instrumento más maravilloso que ha creado la inteligencia humana” (González Chávarri, 1848). La pila amplia el campo de la electricidad incorporando todos los fenómenos relacionados con la entonces llamada “electricidad galvánica”. Poco más tarde, gracias a los trabajos de Oersted y Faraday, aparece otro dominio de inmensas posibilidades: el electromagnetismo. El descubrimiento de la conexión entre corriente eléctrica e imanes va a ser seguida de la puesta a punto de aparatos y máquinas que serán el soporte de la electricidad industrial y marcarán el tránsito hacia la Sociedad contemporánea.
La Electricidad acuña fama de ser un agente físico poderoso y, al mismo tiempo, sorprendente, vistos los fenómenos y efectos que suele protagonizar. Se presenta como capaz de hacer posible todo lo imaginable e inimaginable. Tanto es así que por ejemplo, es capaz de producir luz ¡sin utilizar fuego! Así, los manuales describen la experiencia realizada por Davy en 1801, que mediante una pila de gran de elementos hace saltar un arco de luz cegadora (arco voltaico) entre dos barras próximas de carbón.
Liebherr, en el emplazamiento británico de Sunderland, se decidió por el moderno procedimiento por arco voltaico pulsado, por lo que utiliza sistemas digitales del TransPuls Synergic 5000 de Fronius.
La luz a diferencia de las chispas se mantenían durante un cierto tiempo, pero las barras se iban consumiendo y llegaba un momento en que cesaba el fenómeno. Con base a experiencia se construyeron aparatos destinados a la iluminación, provistos de un complicado sistema que mantenía las distancias de las barras. El arco estaba protegido de las corrientes de aire por un tubo de vidrio.
Otro inconveniente era la duración muy limitada de pilas y baterías, pero a partir de los años 1860 comenzaron a estar operativas las dinamos y problema quedó solucionado.
No sería justo hablar de la luz sin nombrar a N. Tesla
Poco más tarde, 1880 y gracias a que el espabilado Edison se apropió de las ideas de Tesla, surgió y se impulsó la bombilla de incandescencia, dispositivo durable y de bajo coste de producir luz mediante la corriente. Ha sido el sistema que hemos conocido hasta nuestros días.
Podríamos seguir hasta llegar a lo que hoy es la Fisica, sin embargo, ni el sitio es tan extenso ni el tiempo lo permite.
emilio silvera