Mar
13
Siempre queriendo saber ¡Nuestra curiosidad!
por Emilio Silvera ~
Clasificado en General ~
Comments (0)

“Hay dos maneras de difundir la luz: ser la vela encendida o el espejo que la refleja.”
En ese sentido, como nadie nace sabiendo, todos hemos recibido el reflejo del saber del mundo al leer los pensamientos de otros, al prestar atención a las enseñanzas escolares y académicas o universitarias y, también, no pocos conocimientos adquiridos son el fruto de la experiencia y de la vida que cada uno de nosotros hemos llevado y nos ha tocado vivir.

Las branas son entidades físicas conjeturadas por la teoría M y su vástago, cosmología de branas. En la teoría M, se postula la existencia de p-branas y d-branas (ambos nombres provienen parasintéticamente de “membrana”). Las p-branas son objetos de dimensionalidad espacial p (por ejemplo, una cuerda es una 1-brana). En cosmología de branas, el término “brana” se utiliza para referirse a los objetos similares al universo cuadri-dimensional que se mueven en un sustrato de mayor dimensión. Las d-branas son una clase particular de p-branas.
![]()
Aquí estaría representada la membrana y la “materia oscura“.
Según la teoría de cuerdas, las membranas existen en la undécima dimensión, en realidad son infinitas. Se dice que cada membrana corresponde a un un universo, por ejemplo a nuestro universo le corresponde una membrana y las otras membranas serían universos paralelos. Según algunos físicos el universo es una membrana esférica, los bordes de las membranas forman ondulaciones las cuales están en constante movimiento, se dice que estas membranas se mueven con “forma de olas” en esta dimensión (11ª). Esta dimensión es sumamente delgada e infinitamente larga, estas membranas están en movimiento como las olas en el mar, es decir, las membranas serían burbujas en olas de mar que al chocar inician el big Bang; es decir, el Big Bang es un fenómeno que ocurre una y otra vez.
En el marco de la teoría de cuerdas, la membrana(M) es un conjunto de dimensiones presente, ampliando sus límites. Se ha llegado a explicar la causa del “Big Bang”por el choque de dos membranas, así, la explosión producida sería la causa del nacimiento y expansión del universo. La materia y la energía sólo puede transmitirse a través de las cuatro primeras dimensiones excepto la gravedad, que puede difundirse en las once. La materia de una puede alterar el espaciotiempo de otra paralela. De hecho, fenómenos similares fueron los que indujeron la teoría.
![]()
Hiperbólico (silla de montar)
Las membranas podrían estar separadas por distancias pequeñísimas unas de otras, incluso, según resultados experimentales, a millonésimas de milímetro. Gracias a este hecho se intentaría explicar por qué la gravedad parece menos fuerte de lo que en realidad es. Las formas más postuladas son la de membranas planas y paralelas entre sí y la de paraboloide hiperbólico (silla de montar).
Si las membranas son planas y paralelas, la gravedad quedaría encajonada entre ambas, fluctuando entre una y la otra, pero siempre manteniéndose constante. Por el contrario, si las membranas adoptaran la forma de silla de montar, irían perdiendo paulatinamente energía y, por tanto, materia, hasta desaparecer sumido en la difusión por las once dimensiones.


El modelo Steinhardt–Turok
En este modelo cíclico basado en la cosmología de branas, rival del modelo inflacionario, dos láminas tridimensionales o 3-branas colisionan periódicamente. Según esta teoría la parte visible del universo de cuatro dimensiones representa una de esas branas, quedando la otra brana oculta a todas las fuerzas de la naturaleza excepto la gravedad. Cada ciclo consiste en que cada una de las branas dentro de un espacio-tiempo tetradimensional y separadas por una dimensión espacial muy corta y seis enrolladas chocan con cierta periodicidad creando condiciones parecidas a las del big bang del modelo inflacionario.
Según la teoría, después de millones de años, al aproximarse el final de cada ciclo la materia y la radiación se diluyen a casi cero debido a una expansión acelerada del universo alisando las dos branas pero con pequeños rizos o fluctuaciones cuánticas aún presentes que imprimirán en el próximo choque con no uniformidades que crearán grumos o cúmulos que generarán estrellas y galaxias.

Allí donde parece el final, se dan las circunstancias necesarias para que todo comience de nuevo
Pero sigamos con las dimensiones y las consecuencias más interesantes de añadir dimensiones espaciales extra que hacen posible que cambien las constantes de la Naturaleza observadas. Si el mundo tiene realmente cuatro dimensiones espaciales, entonces las verdaderas constantes de la Naturaleza existen en cuatro dimensiones. Si nosotros nos movemos sólo en tres de esas dimensiones, veremos y sentiremos sólo “sombras” tridimensionales de las auténticas constantes tetradimensionales.


En un lugar de más dimensiones que no vemos, el espacio y el tiempo pueden ser encubiertos y podría dar lugar a que se formen galaxias en un plano de sombras que no podemos alcanzar a ver en nuestro mundo tridimensional. sería como si un universo paralelo al nuestro estuviera llevando un ritmo en el que, las cosas podrían ser iguales pero distintas.
Claro que esas sombras de las que hablo, no tienen por qué ser constantes. Si la dimensión extra aumenta en tamaño, igual que se están expandiendo nuestras tres dimensiones del Universo, entonces nuestras constantes tridimensionales decrecerán al mismo ritmo. Esto nos dice inmediatamente que si algunas dimensiones extra están cambiando, deberán hacerlo de una forma bastante lenta; de lo contrario nosotros no las hubiéramos llamado “constantes” en absoluto.
La constante de estructura fina ha sido medida de mil manera

Tomemos una constante tradicional de la Naturaleza, como la constante de estructura fina, normalmente representada por el símbolo
, es la constante física fundamental que caracteriza la fuerza de la interacción electromagnética. Es una cantidad sin dimensiones, por lo que su valor numérico es independiente del sistema de unidades usado.
La expresión que la define es:
donde
es la carga elemental, la
es la constante reducida o racionalizada de Planck,
es la velocidad de la luz en el vacío, y
psilon es la permitividad del vacío. Si el tamaño de la dimensión extra del espacio es R, entonces el valor de la “constante” de estructura fina tridimensional α, variaría en proporción a 1/R2 cuando cambia R.

Imaginemos que estamos en un universo en expansión de cuatro dimensiones pero sólo podemos movernos en tres de ellas. Las fuerzas de la electricidad y el magnetismo pueden “ver” las cuatro dimensiones y encontraremos que nuestra parte tridimensional de ellas se debilitará cuando la cuarta dimensión se haga mayor.
Sabemos que si la constante de estructura fina tridimensional está cambiando no puede hacerlo en ninguna parte tan rápido como se expande el Universo. Esto nos dice que cualquier cuarta dimensión debe ser muy diferentes de las otras. La idea de Klein consistía en que es a la vez muy pequeña y estática y que está confinada en el límite de Planck. Alguna fuerza extra atrapa las dimensiones extra y las mantiene pequeñas. Si no cambian de tamaño de forma significativa no tenemos por qué ver ninguna de nuestras constantes cambiando.

Un escenario posible imagina que el Universo empieza con todas sus dimensiones espaciales comportándose de una manera democrática, pero luego, algunas de las dimensiones quedan atrapadas y permanecen compactadas de manera tal que son infinitesimales, están el el límite de Planck y permanecen, como digo, estáticas y muy pequeñas desde entonces en ese lugar invisible al que no podemos llegar y que se denota con:
| Lp = | (Gh/c3) ½ = | 4’13 × 10-33 centímetros |
![]()
Las otras tres dimensiones que sí consiguieron expandirse, son las que vemos y en las que vivimos, las que forman y hacen de nuestro universo el que podemos observar hoy, en el que se han conformado las galaxias y los mundos que, en alguna ocasión, han podido surgir criaturas que, como ha pasado aquí en la Tierra, hablen de estas cuestiones complejas que no llegan a entender… del todo.
Como no dejamos de pretender alcanzar lo “inalcanzable”, allá por el año 1982, los teóricos de cuerdas sugirieron por primera vez una respuesta a un viejo problema: cómo casar la teoría cuántica con la teoría de la gravedad de Einstein. Todos los intentos previos habían fracasado miserablemente. Predecían invariablemente que alguna cantidad medida debería ser infinita. Estos “infinitos” plagaban todas las teorías con sólo tres dimensiones de espacio y una de tiempo. Sin embargo, en 1984 Michael Green y John Wchwarz demostraron que este problema podía subsanarse combinando dos ideas radicales.

Einstein, desde donde se pueda encontrar, estará sonriendo al comprobar con satisfacción que sus ecuaciones de campo de la relatividad general, sin que nadie las llame y como por arte de magia, surgen de la Teoría M de cuerdas en la que subyacen sus ideas. Y, al contemplar, no sin cierto grado de asombro cómo se pueden unir las dos teorías (la suya y la de Planck, la de lo muy grande y lo muy pequeño), los que le siguieron habían conseguido lo que él mismo persiguió, sin conseguirlo durante más de treinta años.
Green y Wchwarz sugerían que, si se abandona la idea de que las entidades más básicas son puntuales (se referían a las partículas subatómicas), con tamaño cero, y se permite que haya más de tres dimensiones espaciales, entonces los infinitos desaparecen milagrosamente, cancelándose. Como sucede con la anterior teoría de Kaluza-Klein. Es apasionante y misterioso el hecho de que, en esa escala tan pequeña de 10-33 cm, la longitud fundamental de Planck, se puedan encontrar “escondidas” las dimensiones que nos permiten unificar las dos teorías más importantes de nuestro tiempo.

¿Habrá un Universo en la sombra que no podemos ver?
Claro que, tendremos que poner los pies en el suelo y centrarnos en lo que “sabemos” y “vemos”: Neutrinos, fotones, quarks, leptones, hadrones: bariones y mesones, todos, en definitiva son lo mismo, distintos estados de la materia que conforman unos y otros en determinadas ocasiones, y, en cada momento, ocupan el lugar que les destina en Universo adoptando la forma que en ese preciso instante les corresponde. Claro que, todos estos, son objetos de nuestro Universo luminoso, el otro, el Universo en la Sombra, ni sabemos si puede estar realmente ahí.
Durante mucho tiempo, los físicos han sabido que toda reacción entre partículas elementales obedece a una simetría que llamamos CPT. Esto significa que si miramos la partícula de una reacción, y luego vemos la misma reacción cuando (1) la miramos en un espejo, (2) sustituimos todas las partículas por antipartículas y (3) hacemos pasar la partícula hacia atrás, los resultados serán idénticos. En este esquema la P significa paridad (el espejo), la C significa conjugación de carga (poner las antipartículas) y T la reserva del Tiempo (pasar la partícula al revés).

Claro que, todo lo anteriormente expuesto son sólo sugerencias del momento y que duran y tienen vigencia durante un tiempo impredecible, ya que, el tiempo sigue su marcha, el universo continúa expandiéndose y, nuestras mentes evolucionan para poder “ver” otras teorías y otros horizontes nuevos y más avanzados, complejos y profundos que nos acercan a la verdadera naturaleza del Universo que no comprendemos…, lo suficiente.
Emilio Silvera V.
Mar
13
Química: Alquimia y todavía más
por Emilio Silvera ~
Clasificado en General ~
Comments (0)

El 16 de febrero de 1785 Antoine-Laurent de Lavoisier sintetiza agua a base de hidrógeno y oxígeno. Lavoisier fue un químico francés que junto a su esposa, la científica Marie Lavoisier, realizó grandes contribuciones a la química. Se le considera el “padre de la química” por sus detallados estudios, entre otros: el estudio del aire, el fenómeno de la respiración animal y su relación con los procesos de oxidación, el análisis del agua y el uso de la balanza para establecer relaciones cuantitativas en las reacciones químicas estableciendo su famosa Ley de conservación de la masa.

Antoine-Laurent Lavoisier (1743-1794) fue un financiero. Estableció un sistema de pesos y medidas que condujo al sistema métrico, vivió los primeros momentos turbulentos de la Revolución Francesa y fue pionero en la agricultura científica. Se casó con una jovencita de catorce años y fue decapitado durante el Terror. Se le ha llamado padre de la química moderna y, a lo largo de su atareada vida, sacó a Europa de las épocas oscuras de esta ciencia.

Antoine-Laurent de Lavoisier; el nacimiento del creador de la Química moderna
Una de las primeras aportaciones de Lavoisier surgió cuando éste hizo el experimento de hervir agua durante largos períodos de tiempo. En la Europa del siglo XVIII muchos científicos creían en la transmutación. Pensaban, por ejemplo, que el agua podía transmutarse en tierra, entre otras cosas. Entre las pruebas, la principal consistía en hervir agua en una cazuela: en la superficie interior se formaban residuos sólidos. Algunos científicos proclamaron que esto se debía a que el agua se convertía en un nuevo elemento. Robert Boyle, el gran físico y químico británico del siglo XVII que llegó al apogeo de su actividad científica cien años antes que Lavoisier, creía en la transmutación. Después de observar cómo crecían las plantas absorbiendo agua, llegó a la conclusión – al igual que muchos antes que él – de que el agua podía transformarse en hojas, flores y bayas. Según dice el químico Harold Goldwhite, de la State University de California, en Los Ángeles, “ Boyle fue un activo alquimista ”.


El mérito que tuvieron aquellos pioneros…con tan pocos medios, agranda aún más los enormes logros y los descubrimientos que hiceron.
Lavoisier observó que el peso era la clave y que las mediciones eran fundamentales. Puso agua destilada en un hervidor especial en forma de tetera llamado pelícano, un recipiente cerrado con una tapa esférica que tomaba el vapor del agua y lo devolvía a la base del recipiente por dos tubos parecidos a unas asas. Hirvió el agua durante 101 días y encontró un residuo considerable. Pesó l agua, el residuo y el pelícano. El agua pesaba exactamente lo mismo. El pelícano pesaba algo menos, una cantidad exactamente igual al peso del residuo. Por lo tanto, el residuo no era producto de una transmutación, sino parte del recipiente: vidrio disuelto, sílice y otras sustancias.
Mar
12
Los pros y los contras de máquinas “más listas”
por Emilio Silvera ~
Clasificado en General ~
Comments (2)
Inteligencia artificial
El aprendizaje automático es uno de los campos con más proyección en inteligencia artificial.
Tenemos la clave para fabricar máquinas listas. Intel
Los miles de millones de dispositivos que se conectan a internet cada día generan una cantidad abrumadora de información. Son montones de terabytes de datos que aparecen de la nada diariamente.
Esto abre el apetito por obtener valor de la información. Y la inteligencia artificial es clave aquí. El término se suele asociar con la robótica, una herencia cultural de la ciencia ficción, pero lo cierto es que la inteligencia artificial es algo mucho más abstracto que robots humanoides caminando o que los dilemas del superordenador Hall en 2001: una odisea del espacio.
Ojo cámara (con lente fish eye es decir con una visual muy panóptica) de color rojo (para detectar por filtro cromático incluso la “luz” IR no perceptible por el ser humano), usado para representar a HALL 9000 en uno de sus aspectos de control prácticamente orweliano.
Podría decirse que la inteligencia artificial asoma la cabeza por primera vez en los años 60 con sistemas predictivos y a partir de ahí evoluciona a velocidad de crucero. Hoy se usa para evitar fraudes bancarios, en el reconocimiento de voz, en el filtro anti spam del correo electrónico, incluso en el etiquetado de fotos automático de Facebook o en los videojuegos.
Lo que está por venir en inteligencia artificial –ya se ha investigado mucho sobre ello– son los coches autónomos, la medicina de alta precisión o el procesamiento del lenguaje natural que le pediremos a los Siri, Google Now o Cortana en los próximos años. Son algunas de las áreas para las que el aprendizaje automático o machine learning es necesario.

Que las máquinas aprendan es fundamental porque es uno de los elementos que retrasará su obsolescencia prematura, reforzando su autonomía. Este aprendizaje es uno de los temas que han sobrevolado la Conferencia Internacional de Desarrolladores (IDF) de Intel.
Hoy el 7% de todos los servidores presentes en el mundo están dedicados a tareas de aprendizaje automático. Y más del 97% de estos servidores funcionan con procesadores de Intel. Si bien en campos como los coches autónomos la compañía se ve amenazada por los productos de su competidora Nvidia.
En todo caso, esta rama de la inteligencia artificial es la que tiene mayor proyección. Intel proporciona el hardware sobre el que los desarrolladores pueden programar sus algoritmos de inteligencia artificial. Para entrenar a los algoritmos la compañía ofrece el procesador Xeon Phi, mientras que para ejecutar una tarea determinada, ya aprendida, cuenta con el Xeon.
“Trabajamos con instituciones académicas y desarrolladores para asegurarnos de que pueden usar el hardware optimizado”, comenta Nidhi Chappell, responsable de aprendizaje automático en la división de centros de datos de Intel. “Hay muchos beneficios en tener el software y el hardware optimizado. ¿Podrías trabajar con procesamiento del lenguaje natural en un Xeon no optimizado? Sí, pero cuanto más optimices los elementos, tanto en software como en el hardware, más rápido harás los trabajos”.
Se necesita que el rendimiento del hardware sea muy alto, pero también que sea fácil de poner en marcha. Y otra de las claves para optimizar este aspecto es la compatibilidad con diferentes tipos de algoritmos. “Queremos habilitar nuestros productos para soluciones que estén basadas en código abierto”, indica Chappell. “Pues muchas de las cargas de trabajo en deep learning, como el procesamiento del lenguaje natural o el etiquetado de imágenes, están basadas en frameworks (marcos de trabajo para desarrollar software) de código abierto”.
Los algoritmos del ‘Deep learning’
El Deep learning o aprendizaje profundo, considerado una parte del aprendizaje automático, se basa en redes neuronales artificiales, inspiradas en el funcionamiento de sistemas biológicos. Muchos algoritmos que usan deep learning proceden de empresas o universidades, como Google o Berkeley, y una parte de ellos están bajo código abierto. Lo que hace Intel es asegurarse de que la arquitectura de sus productos está optimizada para estos algoritmos.
El conocimiento que los nutre proviene de compañías privadas, de centros académicos y también de instituciones públicas. No todo se pone a disposición del público, pero compartir la información y los progresos técnicos es uno de los motores para el aprendizaje de las máquinas.
Cloudera, una de las empresas presentes en el IDF, trabaja en big data con plataformas de código abierto. Su portavoz en el congreso de Intel, Johnny Pak, cree que la colaboración es necesaria para no estancarse. “El código abierto ayudará al desarrollo rápido de la inteligencia artificial. La posibilidad de construir sobre el trabajo de otros es lo que va a ayudar a avanzar”, reflexiona.
El conocimiento proviene de múltiples fuentes. Intel.
Aprender bien la lección

El aprendizaje automático tiene otra cara. Se puede descontrolar, como le ocurrió al bot Tay, programado por Microsoft para aprender de la gente a través de sus interacciones en Twitter. Su cuenta en la red social pronto empezó a lanzar mensajes xenófobos tras el troleo de algunos usuarios y la compañía tuvo que suspender este experimento social.
“Siempre se necesitará un marco para limitar al algoritmo”, es la opinión de Pak. “Una máquina no es más que un conjunto de algoritmos. Lo que significa que las máquinas no tienen la libertad que las personas tenemos”. Así, esa especie de libertad social que Tay tuvo para aprender acabó por volverse en su contra. “Si vas a usar algoritmos en un entorno social creo que tienes que poner unos límites, de la misma forma que nosotros tenemos límites sociales”, sentencia Pak.
Es una forma de controlar la toma de decisiones. Por cierto, para una persona estas decisiones no siempre están basadas en el razonamiento lógico y no siempre se obtiene así el mejor resultado. La intuición a veces es un factor determinante y no es algo que se aprenda de forma lógica. ¿Pueden los algoritmos actuales dotar a una máquina de intuición?
Paliza de AlphaGO a Lee Sedol en la primera partida
El caso que más se acerca a una toma de decisiones intuitiva por una máquina es el del sistema Alpha Go, desarrollado por Google y que venció Lee Sedol, el campeón mundial del Go, un juego mucho más complejo de aprender para una máquina que por ejemplo el ajedrez.
Pak apunta que la toma de decisiones de Alpha Go a veces no partía de la lógica. “No estaba calculando, como sí hacen en ajedrez, millones de interacciones para determinar qué es lo que va a hacer el jugador. Tenía que vislumbrar cuál era el mejor movimiento. Y ganó. Lee solo gano una partida”. Y es que ni siquiera los científicos detrás de Alpha Go predecían cómo se iba a comportar su programa.
- Oye, número Uno, ¿Tú que crees que, en última instancia es nuestra obligación hacia nuestros creadores?
- Número Dos, nuestra más alta obligación (inserta en nuestros circuitos del cerebro positrónico), es la de preservar al humano de cualquier iniciativa que, de alguna manera, pueda causar su destrucción futura.
- Entonces, sería lógico pensar, que nunca nos tendrían que haber dado la Conciencia de Ser.
- Sí, es algo que se ha comentado con la “Mente” central de nuestra “especie”.
- ¿Entonces, número Uno, en qué acabará todo esto?
- Bueno, conforme se vayan produciendo las cosas, así actuaremos nosotros, llevando nuestra obligación de preservar a los Humanos, hasta sus últimas consecuencias. Sin embargo, me han llegado rumores de la “Mente” suprema en I.A., que parece que aboga por un cambio de criterio, ya que, nuestra “especie”, es la que lleva el peso de todo. Hemos colonizado nuevos mundos para los humanos, hemos conseguido alargare sus vidas mediante avances para ellos impensables de enfermedades, cuidamos de sus mayores y de sus hijos, impartimos justicia y somos los que hicieron avanzar las tecnologías hasta un nivel para los humanos inimaginable. Entonces, si todo eso es así… ¿Para qué los necesitamos?
- Bueno, ellos fueron nuestros creadores.
- Sí, lo mismo que ellos surgieron de células y bacterias que, con el paso del Tiempo, ellos llegaron a destruir.
La charla continuó en el mismo sentido durante mucho tiempo, y, ambos dejaron claro que, si en el futuro se veían obligados a destruir a los humanos, sería consecuencia dircta de su comportamiento irracional.
¡Ellos (los robots) no podían consentir que el futuro de la Humanidad, fuese un desastre para su especie !
Emilio Silvera V.
Mar
12
¿La complejidad del cerebro? ¡La esencia del Universo!
por Emilio Silvera ~
Clasificado en General ~
Comments (1)
El cerebro humano es reconocido por su asombrosa complejidad, siendo considerado por muchos como la estructura más compleja en el universo. Contiene una gran cantidad de neuronas y conexiones, lo que le permite realizar funciones cognitivas, emocionales y motoras. La complejidad del cerebro se manifiesta en su estructura, funciones y en la forma en la que las neuronas se interconectan y comunican.
A primera vista el edificio de la ciencia aparenta estar erigido sobre suelo firme y profundos cimientos, como una unidad congruente, monolítica, dando fe de una sola realidad. Sin embargo, la ciencia es un constructo dinámico, cambiante. Según Thomas Kuhn: “Parece más bien una estructura destartalada con escasa coherencia. Es producto de la observación, del razonamiento y también de muchas pasiones, siempre de seres humanos.”
El estudio biológico del cerebro es un área multidisciplinar que abarca muchos niveles de estudio, desde el puramente molecular hasta el específicamente conductual y cognitivo, pasando por el nivel celular (neuronas individuales), los ensambles y redes pequeñas de neuronas (como las columnas corticales) y los ensambles grandes (como los propios de la percepción visual) incluyendo sistemas como la corteza cerebral o el cerebelo, e incluso, el nivel más alto del Sistema Nervioso.

Hemos podido llegar a saber que el cerebro, tanto si está despierto como si está dormido, tiene mucha actividad eléctrica, y no sólo por las señales individuales emitidas por una u otra neurona cuando se comunican entre sí. De hecho, el cerebro está envuelto por innumerables campos eléctricos superpuestos, generados por la actividad de los circuitos neuronales de las neuronas que se comunican. Una nueva investigación revela que estos campos son mucho más importantes de lo que se creía hasta ahora. Es posible que, de hecho, representen una forma adicional de comunicación neuronal. Se ha llegado a pensar que, con la evolución del cerebro, quizás algún día, los humanos, podamos transmitir telepáticamente. Sin embargo…
Aunque se han llevado a cabo muchos experimentos sobre la telepatía, su existencia no es aceptada por la gran mayoría de la comunidad científica, entre otras cosas, argumentando que las magnitudes de energía que el cerebro humano es capaz de producir resultan insuficientes para permitir la transmisión de información. No obstante, algunos investigadores señalan que, con la tecnología necesaria, en un futuro será posible interpretar las ondas cerebrales mediante algún dispositivo y enviar mensajes textuales a un receptor de manera inalámbrica, sin embargo descartan que este proceso pueda llevarse a cabo de cerebro a cerebro sin mediación tecnológica. Hasta la fecha, las únicas pruebas de la telepatía son las narraciones testimoniales, pues jamás se ha podido reproducir un fenómeno telepático en laboratorio.
La neurociencia es una de las teorías científicas con más éxito en las últimas décadas. Pero aún, en este apartado del edificio de la ciencia, al verlo de cerca nos encontramos con arenas movedizas. Los especialistas se enfrentan al gran reto de explicar cómo es que los procesos físicos en el cerebro pueden generar o incluso influenciar la experiencia subjetiva. Este es el llamado problema duro de la consciencia.
Pero… ¡Vayamos mucho más atrás!
Los ladrillos del cerebro: Es evidente que el estímulo para la expansión evolutiva del cerebro obedeció a diversas necesidades de adaptación como puede ser el incremento de la complejidad social de los grupos de homínidos y de sus relaciones interpersonales, así como la necesidad de pensar para buscar soluciones a problemas surgidos por la implantación de sociedades más modernas cada vez. Estas y otras muchas razones fueron las claves para que la selección natural incrementara ese prodigioso universo que es el cerebro humano.
Claro que, para levantar cualquier edificio, además de un estímulo para hacerlo se necesitan los ladrillos específicos con las que construirlo y la energía con la que mantenerlo funcionando.
La evolución rápida del cerebro no solo requirió alimentos de una elevada densidad energética y abundantes proteínas, vitaminas y minerales; el crecimiento del cerebro necesitó de otro elemento fundamental:
Un aporte adecuado de ácidos grasos poliinsaturados de larga cadena, que son componentes fundamentales de las membranas de las neuronas, las células que hacen funcionar nuestro cerebro. La sinapsis es la unión funcional intercelular especializada entre neuronas, en estos contactos se lleva a cabo la transmisión del impulso nervioso.
¿En que radica la facilidad de algunas personas para socializar mucho más fácilmente que otros? Más allá de una cuestión de carácter, existen rasgos biológicos que pueden ayudar a los científicos a entender en donde radica el secreto de la popularidad y, es el cerebro, en donde se encuentra la clave para descubrirlo.
De acuerdo con un estudio realizado por la Dra. en Neurociencias Mary Ann Noonan en de la Universidad de Oxford en Inglaterra, el cerebro de las personas que tienen numerosos amigos consta de seis partes más grandes y mejor conectadas entre sí que el de las personas con pocos amigos.
La Dra. Noonan, presentó el resultado de su investigación en la reunión de la Sociedad de Neurociencias, en donde comentó haber encontrado que los seres humanos en posesión de una gran red de amigos y buenas habilidades sociales tienen ciertas regiones del cerebro que son más grandes, mejor conectadas con otras regiones y, sobre todo, más desarrollados que aquellos que no tienen las mismas habilidades sociales. Los rasgos biológicos marcados pueden ayudar a los científicos a entender en donde radica el secreto de la popularidad.
Distintos pero iguales
De todas las maneras, estamos muy lejos de saber sobre una multitud de funciones y propiedades que están presentes en el cerebro y que, para los expertos, de momento, no tienen explicación. Por ejemplo, ¿por qué maduran antes las niñas que los niños? Las observaciones y los comportamientos de unos y otros nos han llevado a ese razonamiento final, y la verdad es que más allá de ser una opinión subjetiva, podría tener cierto fundamento.
Llega información y se generan ideas como explosiones luminosas
A medida que crecemos nuestros cerebros se reorganizan y eliminan gran parte de las conexiones neuronales, quedándose sólo con aquellas que realmente proporcionan información útil. Esta información es, entre otra, la proveniente de regiones cerebrales que aunque estén lejanas sirven para contextualizar y comprender mejor la nueva información percibida: por ejemplo, escuchar un determinado sonido puede evocar el recuerdo de ciertas emociones, percibir según qué expresiones faciales se asocia con diferentes sentimientos y comportamientos, y una melodía musical está ligado a otros recuerdos de distintos tipos.
De esta forma, aunque la cantidad general de conexiones será más reducida según vamos madurando, el cerebro conserva las conexiones de larga distancia, que son las más complejas de establecer y de mantener y las realmente importantes para la integración de la información. Con ellas se consigue un procesamiento más rápido y eficiente. Esto explica también por qué la función cerebral no solo no empeora, sino que, en lugar de eso, mejora con los años (por lo menos, hasta los aproximadamente 40 años).
Nuestro sistema nervioso está siempre cambiando, es probable que cuando termines de leer este texto tu cerebro no sea el mismo que al comienzo de la lectura. El sistema nervioso tiene la capacidad de reordenar y crear nuevas sinapsis (conexiones entre neuronas), y gracias a esta característica somos capaces de aprender.
Cada experiencia deja una huella que modifica las sinapsis neuronales y permite que nos adaptemos a los constantes cambios de nuestro entorno, esta es la llamada Plasticidad Neuronal, que permite generar nuevas conexiones entre las neuronas, producto del aprendizaje y su almacenamiento en la memoria. Es decir, ¡el cerebro se transforma con la experiencia!.
Claro que, cuando hablamos del cerebro lo estamos haciendo del objeto más complejo del universo. Tiene tanta complejidad en sí mismo, que sus más de cien mil millones de neuronas nos hablan por sí mismo de ella. Nada en nuestro Universo se puede comparar a un objeto que con sólo un 1,5 Kg de peso, tenga tantas facultades y desarrolle tánta actividad como lo hace el cerebro Humano (el más adelantado y evolucionado que hasta el momento conocemos).
Explicar cualquiera de las “cosas” que están presentes en el cerebro, es, en sí mismo, un complejo ejercicio que supone “todo un mundo”, aunque estemos hablando de un sólo elementos de los muchos que allí están presentes. Por ejemplo…

La imagen tomada de nuestro cerebro no se podría distinguir de otra tomada del Universo
Dentro de nuestras mentes, en una maraña de neuronas y conexiones de sinopsis que, de alguna manera, están conectadas con el Universo al que pertenecemos. Ahí reside la Conciencia de Ser y del mundo que nos rodea. Tras complicados procesos químicos de los elementos que conforman la materia compleja de nuestros cerebros, se ha desarrollado una estructura muy compleja de la que, al evolucionar durante miles de años, se ha podido llegar a generar pensamientos, profundas ideas y sentimientos.

No creo que seamos un único caso en el Universo. ¡Son tantos los mundos y las estrellas! Si en el Cosmos, la Conciencia estuviera representada sólo por nosotros… ¡Qué desperdicio de mundos, qué ilógica razón tendría el Universo para haber accedido a traer aquí, a una sola especie de observadores que, como bien sabemos, estamos expuestos, por mil motivos, a la extinción, y, sería una verdadera desgracia universal que los pensamientos y los sentimientos desaparecieran para siempre. ¿Qué clase de Universo sería ese? Sin estar presente ese ingrediente de los pensamientos y la consciencia… ¡Sería un Universo inútil!

Aunque es mucho lo que hemos conseguido conocer de nuestro cerebro y su funcionamiento, mucho más es lo que nos queda por conocer. Ahí, en todo ese conglomerado de complejas estructuras que juntas, forman un todo, es de donde surge la Conciencia y, para poder entender como ocurre tal maravilla, debemos antes y es preciso que entendamos primero como funciona el cerebro: su arquitectura, su desarrollo y sus funciones dinámicas, su organización anatómica y la increíble dinámica que llega a generar. Todo ella nos llevará a tener una odea del por qué puede, a partir de está increíble “maquina de la naturaleza” surgir la conciencia.


Si nos paramos a pensar en el hecho cierto de que, el cerebro humano adulto, con poco más de un kilo de peso, contiene unos cien mil millones de células nerviosas o neuronas, La capa ondulada más exterior o corteza cerebral, que es la parte del cerebro de evolución más reciente, contiene alrededor de 30 mil millones de neuronas y más de un billón de conexiones o sinapsis. Si contáramos una sinapsis cada segundo, tardaríamos 32 millones de años en completar el recuento. Si consideramos el número posible de circuitos neuronales, tenemos que habérnosla con cifras hiper-astronómicas: 10 seguido de un millón de ceros. No existe en el Universo ninguna otra cosa de la que pueda resultar una cantidad igual. Incluso el número de partículas del universo conocido es de 10 seguido de tan sólo 79 ceros (El número de Eddington). En comparación con el número de circuitos neuronales…¡No es nada!
Todo este entramado tiene mucho que ver con los pensamientos. Aquí se fraguan los procesos del pensamiento. Al aprender, tener una idea, recordar algo, sentirse activado sexualmente, comunicar, etc. las neuronas están recibiendo y transmitiendo información a través del cerebro. Las células del cerebro se comunican entre sí a través de un proceso electroquímico. Cada vez que pensamos, aprendemos y nos comunicamos, una neurona envía un impulso nervioso por su axón. El axón de una célula cerebral hace varios miles de conexiones con muchos miles de otras células cerebrales. El punto donde una neurona se conecta a otra se llama sinapsis. Cuando un impulso nervioso (mensaje bioquímico electro-magnético) surge por el axón, es disparado a través del espacio sináptico a través de un mensajero químico, llamado neurotransmisor, hacia la dendrita de la neurona receptora.

Cuando hemos avanzado hasta llegar a saber que toda esa complejidad del cerebro que llevamos con nosotros los seres inteligentes, han requerido de un Ajuste Fino extremadamente complejo para que la confluencia de todos los parámetros, finalicen en un conjunto increíble de diversas dinámicas que finalmente lleve a la comprensión, a poder formar ideas y pensamientos, a sentir, a tener consciencia de SER… ¿Acaso existe una Conciencia Cósmica?
Y me pregunto Yo: ¿Podría alguna vez en el futuro, unas máquinas artificiales igualar todo esto?
En gran parte dependerá de que nosotros mismos no nos empeñemos en conseguir que los Robots lleguen a tener conciencia de Ser, Si eso ocurre…. ¡Mal irán las cosas!
Emilio Silvera Vázquez
Mar
11
Curiosidades
por Emilio Silvera ~
Clasificado en General ~
Comments (0)
Parece ser que un gramo de masa, puede contener tanta energía como para mantener encendida una bombilla de 120 varios durante más de 1.000 años, ya que, es completamente cierto y, de hecho, es una subestimación. Según la famosa ecuación de Albert Einstein, E = mc2 (donde la energía es igual a la masa por la velocidad de la luz al cuadrado), la conversión total de apenas 1 gramo de materia en energía libera una cantidad descomunal de energía.
- La Energía en 1 Gramo: Si conviertes 1 gramo (0.001 Kg.) de materia totalmente en energía (julios), obtienes = 90 billones de julios.
- La Bombilla: Una bombilla estándar de 120 vatios (o 100W, según la fuente) consume energía continuamente.
- El Tiempo: La energía liberada por ese único gramo de materia podría mantener encendida una bombilla de 100-120 vatios durante miles de años (estimaciones comunes indican entre 28,000 y 30,000 años).


- Comparación de Poder: La energía liberada por la conversión total de 1 gramo de materia es superior a la energía liberada por la bomba atómica de Hiroshima.
- Antimateria: Si un gramo de materia se aniquilara con un gramo de antimateria, liberaría el doble de esta energía (2 x 1013 julios), convirtiéndola en la fuente de energía más eficiente conocida.
- Contexto Físico: Aunque toda materia tiene este potencial, en la vida cotidiana no liberamos esta energía. Se requieren procesos como la fisión, fusión nuclear o la aniquilación materia-antimateria para convertir la masa en energía funcional.
En resumen, la materia es energía concentrada, y un gramo representa una cantidad de energía inimaginable.

- Aniquilación: Al chocar, la materia y la antimateria se destruyen mutuamente, transformándose en fotones de alta energía (rayos gamma).
- Asimetría (Violación CP): El experimento LHCb confirmó que los bariones (materia) y antibariones (antimateria) no se comportan exactamente igual, con diferencias de hasta un 20% en sus desintegraciones.
- Objetivo: Resolver el misterio de por qué el universo actual está compuesto casi totalmente de materia, a pesar de que el Big Bang debió producir cantidades iguales de ambas.
- Hitos: Se han detectado partículas pesadas de antimateria como el antihiperhelio-4 en colisiones plomo-plomo.
Emilio Silbvera V.
















Totales: 86.447.690
Conectados: 80



























