Ir a contenido


Foto

Fisica. Termodinámica


  • Inicia sesión para responder
104 Respuesta(s) a este Tema

#41 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 15 mayo 2007 - 12:51

_________________________________________________________

Este enlace esta dado mas arriba, pero hoy queremos dejarle -por capitulos- una entrevista muy interesante, que es en verdad, una clase de biofisica.

http://www.fisicahoy...bioCerebro.html


Física de Hoy > Biofísica y Cerebro


IPB Image

Durante las próximas décadas, una parte importante de los físicos profesionales tendrán a su lado, en el mismo laboratorio, a biólogos (y químicos). La UAM ha puesto en marcha, a partir del curso 2003/2004, un master en Biofísica que procura satisfacer a ambas ramas de la ciencia: a los biólogos, porque tendrán acceso a técnicas más cuantitativas de análisis y manipulación de moléculas; y a los físicos, por el reto que para ellos siempre ha supuesto la Biología: el más apasionante dentro de lo que se denomina Sistemas Complejos.


De nuevo la Física aparece como una ciencia con capacidad para adentrarse en otras muchas disciplinas (por ejemplo en la Biología). ¿Qué significa esto? ¿estamos ante una transformación profunda de la disciplina clásica? ¿cuál será, en tu opinión, el perfil del físico del futuro?

Una entrevista al profesor de la UAM Nestor Parga

Lo que ocurre es que la Física lleva una ventaja considerable en su desarrollo, y por ello cuenta con un bagaje de métodos y técnicas de investigación tanto experimentales como teóricas muy poderosas. Esto se manifiesta, por ejemplo, en el éxito obtenido por esta disciplina en la explicación de una amplia variedad de fenómenos, desde aquéllos referidos al mundo sub-atómico hasta el universo.


Pregunta....¿Significa ésto que los conocimientos adquiridos a través de la Física pueden aplicarse sin más a otras disciplinas?.

Respuesta... Podría creerse que si una técnica ha servido para resolver muy bien algún problema de la Física esa misma técnica podría aplicarse en modo inmediato a problemas de otras disciplinas, siempre que exista alguna semejanza formal entre ellos. Este es un enfoque muy simplista sobre cómo utilizar en otros campos la experiencia obtenida en la Física. Hay un cierto camino que es necesario recorrer para que el traspaso de información entre diferentes campos resulte útil. Ante todo es necesario conocer con cierta profundidad la otra disciplina, sus problemas, motivaciones y técnicas, y también sus posibilidades y sus limitaciones en la actualidad. Sólo entonces podremos saber si aquéllo que hemos aprendido los físicos puede usarse positivamente para agregar conocimiento a la otra disciplina.

¿Cómo se llega a esta meta?. Se trata en realidad de la formación de nuevos campos de investigación, de nuevas disciplinas que hoy llamamos pluridisciplinares porque requieren de la colaboración de varias disciplinas tradicionales. El modo como los físicos con formación "clásica" intentamos acercarnos a las otras ciencias es interactuando con sus investigadores. Sin embargo, el resultado de este acercamiento es sólo el inicio del proceso de fusión de los diferentes campos. Para que la nueva disciplina se desarrolle es necesaria la formación de nuevos científicos, proporcionándoles los conocimientos adecuados de los diferentes campos.

De este modo, por ejemplo, podemos hablar de un neurocientífico que conoce tanto la biología y las funciones de los diferentes elementos del cerebro como técnicas computacionales, ya sean matemáticas o numéricas, que permitan modelizar a este sistema biológico.

Desde esta perspectiva, lo que tal vez distingue actualmente la formación que se puede adquirir como físico de aquélla que se obtiene con otras disciplinas científicas es la capacidad para comprender y resolver problemas, uniendo la comprensión del fenómeno bajo estudio con la abstracción necesaria para llegar a una modelización y explicación del mismo.

¿No es un poco ilusorio intentar entender la estructura del cerebro a partir de unos simples modelos físicos?


En el caso concreto de volcar la experiencia de la Física en el estudio de la Neurociencia, no se trata entonces de aplicar tal o cual modelo de uso común en la Física sino de, una vez definidos los problemas a resolver para lograr una comprensión del funcionamiento del cerebro, ser capaces de diseñar los métodos y técnicas adecuados para afrontar su solución.


De entre todos estos sistemas, ¿cúales son los que merecen vuestra atención?

Un problema que nos ha interesado, y que puede servir para ilustrar lo anterior, se refiere a comprender qué relación existe entre las vías sensoriales (por ejemplo la visión) y los estímulos (por ejemplo las escenas visuales que nos llegan a través de la retina, y que podemos representar en una fotografía). Las neuronas que realizan el procesamiento de los estímulos visuales tienen propiedades fascinantes. En la corteza cerebral hay células que se activan cuando "ven" el borde de un objeto, pero lo perciben sólo si está ubicado en un sitio preciso de la imágen y si tiene una orientación dada.

¿Cómo han adquirido esta propiedad?. El primer paso a dar para obtener una explicación es darse cuenta de que el mundo visual tiene una cierta estructura: está formado por objetos, cuyos límites están en general bien definidos. Una vez notado ésto, podemos formular una hipótesis de trabajo según la cual el sistema visual, al ser estimulado por imágenes durante el largo proceso de la evolución, ha aprendrendido la estructura propia del mundo visual. Este aprendizaje se refleja en que las neuronas que forman el sistema visual han adquirido propiedades y, conectándose entre sí, han formado circuitos que contienen todo lo aprendido sobre cómo está organizado el mundo externo.

IPB Image

Formulada la hipótesis, debemos verificarla. El trabajo necesario para ello presenta varias facetas. Ante todo debemos estudiar las propiedades de los estímulos: ¿en qué consiste la estructura que poseen las imágenes? ¿cómo se la describe? ¿qué es lo relevante en ellas?.

Una vez entendido ésto, debemos comprender qué reglas sigue el sistema visual para aprender esa estructura y reorganizarse de acuerdo con ella. Una vez comprendidas las dos cuestiones anteriores, debemos aplicarlas para obtener predicciones sobre el sistema visual a partir de imágenes. Por último, se deben contrastar las predicciones con lo que ha sido observado experimentalmente sobre el sistema visual.

Hemos estudiado estos problemas durante algún tiempo, y nos encontramos en esta última etapa.

IPB Image

El cerebro nos presenta una cantidad enorme de problemas aún por comprender. La memoria es uno de ellos. En varios sitios del cerebro se observa que las neuronas se mantienen activas aún cuando el estímulo ha sido retirado. Esta actividad podría representar información que el estímulo ha extraído y que está siendo mantenida para ser utilizada inmediatamente.

Si giramos la cabeza posiblemente necesitemos recordar qué o quién ha quedado detrás para poder continuar con nuestra tarea; ese recuerdo se mantiene en la actividad neuronal. Esto plantea un problema: ¿Cómo es posible que exista actividad representando un estímulo en ausencia de éste?. Una explicación posible es que este tipo de memoria es el resultado de la cooperación entre un número grande de neuronas. Cada neurona activa se mantiene así porque hay otras que también lo están.

Como resultado de la interacción entre las células ha "emergido" una propiedad de la población de neuronas que cada una de ellas por sí misma no podría tenerla.

Es posible que ésta sea la explicación correcta. Del punto de vista de la modelización del fenómeno hay varias cuestiones a resolver. Por ejemplo, ¿con qué grado de complejidad es necesario describir a las neuronas y a sus conexiones?. ¿Cómo afectan cada una de sus propiedades a la actividad de la red? ¿qué otras áreas "leen" la información que está siendo mantenida activa y con qué propósito? Este es un campo de investigación de gran interés en la actualidad y hemos trabajado sobre algunas de esas preguntas.

En el aspecto experimental de estas cuestiones, nuestro laboratorio trabaja en los mecanismos básicos de la transferencia de información, en las reglas de computación que utilizan los sistemas neuronales y en la memoria. Aunque muchos de estos experimentos los realizamos en invertebrados, permiten responder algunas de las cuestiones básicas para comprender el procesamiento cerebral.

#42 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 18 mayo 2007 - 04:02

______________________________________________________

Saltamos un capitulo de la entrevista anterior por el siguiente post. Dado tambien en el tema "La Tabla periodica de los elementos"
_______________________________________________________

Entregado por:

IPB Image
________________________________________________________

IPB Image

La idea de que la materia puede subdividirse en pequeñas unidades, discretas e indivisibles, llamadas átomos, se remonta a las enseñanzas del filósofo griego Demócrito, en el siglo V a.C.; suele considerarse que sus ideas son las más antiguas y auténticas de lo que los estudiosos de la filosofía griega han dado en llamar atomismo. El tejido del hilo filosófico del atomismo en la trama analítica de la física se inicia a fines del siglo XVIII y continúa durante el XIX.

Con frecuencia se atribuye a Robert Boyle el crédito de haber introducido el concepto de elementos químicos, que son las unidades irreducibles que ahora se identifican con los átomos individuales de un elemento dado. A principios del siglo XIX, John Dalton desarrolló una teoría atómica, en la cual postulaba que la materia estaba formada por átomos indivisibles semejantes a las unidades irreducibles de los elementos propuestos por Boyle; que todos los átomos de un elemento dado tienen características idénticas; que las diferencias entre los elementos se deben a diferencias fundamentales entre sus átomos constituyentes; que las reacciones químicas se producen por el simple reordenamiento de átomos indestructibles, y que los compuestos químicos constan de moléculas, que son agregados bastante estables de tales átomos indestructibles.

Los trabajos realizados por J. J. Thomson, en 1897, demostraron con claridad la constitución electromagnética de los átomos y, a partir de éstos, pueden extraerse unidades fundamentales de materia con carga eléctrica, que ahora se denominan electrones. La masa de los electrones representa una fracción muy pequeña de la masa atómica. En virtud de la neutralidad eléctrica de todo átomo, la masa atómica debe residir en una componente atómica de carga positiva, cuya magnitud sea tal que compense la negativa, pero con una masa mucho mayor.

Después de los trabajos de Thomson siguió, en 1911, la demostración de Ernest Rutherford, según la cual la carga positiva y casi toda la masa de un átomo se concentra en un pequeño núcleo, cuya dimensión es cerca de 10 000 veces menor que el diámetro atómico. En 1913, Niels Bohr y otros investigadores efectuaron, con bastante éxito, algunos intentos para construir modelos atómicos semejantes al sistema solar, en los cuales los electrones puntuales orbitaban alrededor de un centro positivo gracias a una atracción eléctrica mutua (aun cuando sólo se "permitían" algunas órbitas "cuantizadas").

Todos estos modelos quedaron desechados con el desarrollo de las teorías cuántico-ondulatorias de los electrones y los átomos.

La descripción moderna de la materia condensada (como los cristales sólidos) consta de un agregado de átomos o moléculas que, en virtud de su cercanía, responden con interacciones eléctricas atractivas, cuando sus distancias de separación son del orden de un diámetro atómico (esto es, casi 10-10 m); y repulsivas si las distancias son mucho menores. Estas interacciones están mediadas por los electrones, que en cierto sentido se comparten e intercambian entre todos los átomos de una muestra particular, y sirven como una especie de aglutinador interatómico que enlaza los centros atómicos, pesados, de carga positiva y que se repelen mutuamente.

El átomo de hidrógeno es el más simple y su espectro (o patrón de frecuencias luminosas que emite) es también el más simple. La regularidad de su aspecto había resistido todo intento de explicación, hasta que Bohr resolvió el asunto con tres postulados que constituyen un modelo util, pero insuficiente, para entender el átomo.

Postulado 1: la fuerza que mantiene unido a un electrón con un núcleo es la fuerza coulómbica entre dos cuerpos con carga eléctrica.

Postulado 2: el movimiento del electrón sólo se produce en ciertas órbitas estables, en las cuales no radia energía electromagnética, y son aquellas en las que el momento angula es un múltiplo entero de h/2? (condición cuántica de Bohr para el momento angular orbital). Cada órbita estable representa un estado discreto de energía.

Postulado 3: Cuando el electrón efectúa una transición de una órbita estable a otra, se produce una emisión o absorción de luz, cuya frecuencia es tal que la diferencia en las energías orbitales es igual a he (condición de A. Einstein para la frecuencia del fotón, el cuanto de luz).

Aquí se afirma que el concepto de momento angular, que en la física clásica es una medida continua del movimiento rotacional, tiene un comportamiento cuántico discreto tal que la medida de su cuantización se relaciona con la constante de Planck h , que es una constante universal de la naturaleza.

La mecánica cuántica moderna proporciona una justificación de la condición cuántica de Bohr para el momento angular orbital. También demuestra que no es posible retener el concepto de órbitas definidas, excepto en el caso límite de órbitas muy grandes. En este límite puede calcularse con exactitud la frecuencia, la intensidad y la polarización, aplicando las leyes clásicas de la electrodinámica a la radiación que proviene del electrón orbital. Este hecho ilustra el principio de correspondencia de Bohr, según el cual los resultados cuánticos deben coincidir con los clásicos en lo que toca a dimensiones grandes. Cuando las órbitas son más pequeñas que las correspondientes al caso límite, la desviación que se obtiene que se obtiene con la teoría clásica es de tal magnitud que ya no es posible describir con precisión una órbita definida. Las otras hipótesis de Bohr son válidas todavía.

De acuerdo con su teoría, las energías del átomo de hidrógeno están cuantizadas (es decir, pueden tener sólo ciertos valores discretos). Estas energías pueden calcularse a partir de las órbitas electrónicas permitidas por la cuantización del momento angular orbital. La órbita puede ser circular o elíptica, pero por razones de simplicidad sólo se considerará el caso de una órbita circular. Se supondrá que se tiene un electrón de masa m y carga eléctrica e, el cual describe una órbita circular de radio r alrededor de un núcleo de carga +e y de masa infinita. Si el electrón tiene una velocidad v, su momento angular será mvr, y el segundo postulado se convierte en la ecuación (1). El entero se llama número cuántico principal. Las energías posibles de los estados del átomo que no radian energía electromagnética están dadas por la ecuación (2). En esta ecuación 0 es la permitividad del espacio vacío, y se incluye para obtener las unidades correctas al expresar la ley de Coulomb en el sistema mks.


IPB Image


Cuando se resuelve la ecuación de Schrödinger para el átomo de hidrógeno, se obtiene esta misma ecuación para los niveles de energía de dicho átomo, a excepción de algunas correcciones pequeñas, aunque importantes.

La ecuación (3) determina las frecuencias de la luz o radiación electromagnética emitida o absorbida en las transiciones, en donde E' y E'' son las energías de los estados inicial y final del átomo.

IPB Image

Los espectroscopistas acostumbran expresar sus mediciones en longitudes de onda o en número de onda, a fin de obtener números de dimensiones convenientes. En la ecuación (4) se muestra el número de onda de una transición. Si T= -E/hc , se llega a la ecuación (5). T recibe el nombre de término espectral.

IPB Image IPB Image



Cuando se parte de la ecuación (2), los términos permitidos para el hidrógeno quedan determinados por la ecuación (6). La cantidad R es la importante constante de Rydberg. Su valor se ha medido con mucha precisión con espectroscopia láser y se relaciona, como se muestra en la ecuación (6), con los valores de otras constantes atómicas conocidas.

IPB Image

Como en realidad el núcleo no permanece en reposo en el centro del átomo, es preciso tomar en cuenta el efecto de la masa nuclear finita. El electrón y el núcleo giran alrededor de su centro de masas común. Este efecto puede tomarse en consideración en forma precisa y requiere un cambio pequeño en el valor de la masa efectiva m de la ecuación (6)

Además de las órbitas circulares ya descritas, también las elípticas son consecuentes con los requisitos de que el momento angular esté cuantizado. A. Sommerfeld demostró que paracada valor de n existe una familia de n órbitas elípticas permitidas con el mismo eje mayor, pero con diferentes excentricidades. Las órbitas se designan como s, p y d , y se asocian con los valores del número cuántico azimutal l = 0, 1 y 2, respectivamente. Este número determina la forma de la órbita, pues la razón del eje mayor al eje menor es n/(l+1). Como una primera aproximación las energías de todas las órbitas con el mismo valor de n son iguales. Sin embargo, en el caso de órbitas muy excéntricas, hay una ligera disminución de la energía ocasionada por la precesión de la órbita. Según la teoría de la relatividad de Einstein, la masa aumenta un poco en la parte interior de la órbita, pues tiene una velocidad más grande. El aumento de la velocidad es mayor conforme la excentricidad lo es también, lo cual ocasiona que en las órbitas de mayor excentricidad la energía disminuya aún más. La cantidad l se llama número cuántico de momento angular orbital, o número cuántico azimutal.

Cuando se intenta extender el modelo de Bohr a los átomos con más de un electrón, lo lógico es comparar los términos observados experimentalmente en los átomos alcalinos con los del átomo de hidrógeno, pues éstos contienen un solo electrón fuera de sus capas cerradas. Se encuentra una semejanza definida, pero con la notable diferencia de que los términos con l > 0 se duplican. Este hecho lo interpretaron S. A. Goudsmit y G. E. Uhlenbeck, quienes lo atribuyeron a un momento angular adicional de 1/2(h/2?) proveniente del giro (espín) del electrón alrededor de su propio eje. El número cuántico del espín del electrón es s = 1/2.

La mecánica cuántica relativista descubierta por P. A. M. Dirac proporciona las bases teóricas para la interpretación de esta observación experimental.

En la mayor parte de la exposición siguiente subyace implícitamente el principio de exclusión de W. Pauli enunciado por primera vez en 1925 y que, cuando se aplica a los átomos, establece lo que sigue: en un átomo con varios electrones no puede existir más de un electrón con el mismo conjunto de número cuánticos. En una aproximación de electrones hidrogenoides independientes de los átomos con varios electrones, sólo existen 2n 2 selecciones independientes posibles de los números cuánticos principales ( n ), orbital ( l ) y magnéticos ( m l , m s ) disponibles para los electrones que pertenecen a un valor determinado de n . Aquí m l y m s son las proyecciones cuantizadas de l y s sobre alguna dirección seleccionada. De este principio se deduce la organización de los electrones del átomo en capas de radio creciente (el radio de Bohr aumenta con n 2 ).

La energía de interacción del espín del electrón con su momento angular orbital recibe el nombre de acoplamiento espín-órbital. Una carga que se mueva en un campo eléctrico puro, o en un campo magnético puro (es decir, en campos percibidos como "puros" en un laboratorio estático), experimenta una combinación de campos eléctricos y magnéticos cuando su movimiento queda referido a un sistema móvil respecto del cual la carga está instantáneamente en reposo. Se sabe, por ejemplo, que las cargas en movimiento se desvían en campos magnéticos. No obstante, en un sistema en el cual tales cargas estén en reposo, no existe movimiento, y cualquier aceleración de una carga obedecerá a la presencia de un campo eléctrico puro detectado por un observador que analice el movimiento en ese sistema de referencia.

Una descripción burda de un electrón en rotación puede ser la de una pelota cargada que gira, lo cual equivale a un circuito de corriente eléctrica. Esta corriente eléctrica produce una distribución de campo magnético muy parecida a la de una pequeña barra imantada, con sus polos magnéticos norte y sur colocados simétricamente respecto del ecuador y a lo largo del eje de rotación (espín).

Esta barra imantada representativa puede interactuar con campos magnéticos externos; uno de tales campos es el que experimenta el electrón en un sistema de referencia, en el cual el electrón se encuentra en reposo, y que tiene por causa el movimiento orbital del electrón a través del campo eléctrico que produce el núcleo del átomo.

En los átomos con varios electrones pueden haber interacciones adicionales, aunque en general son más débiles y obedecen a las interacciones magnéticas de cada electrón con sus vecinos, tanto porque su movimiento es relativo como porque todos tienen espín.

La intensidad del campo producido por la barra imantada equivalente a cada espín electrónico, así como su dirección en el espacio, se caracterizan con una cantidad que se llama el momento magnético, el cual está también cuantizado en virtud de la cuantización del espín.

Los estudios de los efectos producidos por campos magnéticos externos en los átomos demuestran que la magnitud del momento magnético asociado con el espín del electrón es igual a la unidad llamada el magnetón de Bohr.

La energía de interacción entre el momento magnético del electrón y el campo magnético que genera su movimiento orbital suele producir una pequeña corrección al término espectral, la cual depende del ángulo entre el momento magnético y el campo magnético, esto es, entre los vectores de momento angular de espín y de momento angular orbital (que es perpendicular al plano de la órbita, y su magnitud es la medida del momento angular orbital). Como la teoría cuántica requiere que el número cuántico j de momento angular total del electrón tome valores cuya diferencia sea un número entero, existen entonces sólo dos orientaciones posibles de s relativas a l , ya que l es siempre un número entero; esto es: s debe de ser paralelo a l o antiparalelo a l .

En el caso de un solo electrón fuera del núcleo, la corrección espín-órbita de los términos espectrales queda determinada por la ecuación (7), obtenida de la teoría de Dirac.

IPB Image

En los átomos que poseen más de un electrón, la estructura fina se manifiesta en la llamada estructura de multipletes. Por ejemplo, los dobletes en los espectros de los elementos alcalinos se deben al acoplamiento espín-órbita; en este caso puede aplicarse la ecuación (7), haciendo las modificaciones adecuadas.

Cuando en un átomo se encuentra presente más de un electrón, existen varias maneras en las que pueden interactuar los espines y los momentos angulares orbitales, cada espín puede acoplarse a su propia órbita, como en el caso de un solo electrón; las otras posibilidades son órbita-órbita, espín-espín, y así sucesivamente. La interacción más común en los átomos ligeros es el acoplamiento LS o acoplamiento de Russell-Saunders, que de manera esquemática se describe en la ecuación (8 ).

IPB Image

Esta notación indica que el acoplamiento entre los l i es fuerte para formar un L resultante, que representa al momento angular orbital total, el acoplamiento entre los s i también es fuerte y dan lugar a una S resultante, que es el momento angular de espín total. El acoplamiento más débil es el que hay entre L y S para formar J , que es el momento angular total del sistema de electrones del átomo en ese estado.

El acoplamiento del tipo LS se aplica, por lo general, a los estados de baja energía de los átomos ligeros. El siguiente tipo más común de acoplamiento es el jj , y se representa en la ecuación (9).

IPB Image

Cada electrón tiene su espín acoplado a su propio momento angular orbital para formar un j i de ese electrón. El acoplamiento entre los distintos j i es más débil y da lugar a J . Este efecto se observa tal cual muy raras veces. En los átomos más pesados es común encontrar una condición intermedia entre los acoplamientos LS y jj ; puede utilizarse cualquiera de las notaciones LS o JJ para describir los niveles, pues el número de niveles para una configuración electrónica dada no depende del esquema de acoplamiento.

La mayor parte de los núcleos atómicos también poseen espín, pero su rotación es 2000 veces más lenta que la de los electrones, porque su masa es 2000 veces mayor que la de éstos. Por esta razón, existen campos magnéticos nucleares muy débiles, análogos a los electrónicos, los cuales producen una estructura fina en las líneas espectrales y separan aún más los niveles de energía atómicos.

En consecuencia, la separación de las líneas espectrales que generan depende de las orientaciones relativas entre los momentos magnéticos nucleares y los electrónicos, lo cual implica diferentes energías de interacción. El patrón de niveles de energía que se obtiene, y las líneas espectrales correspondientes, se llama estructura hiperfina.

Las enormes capacidades de los láseres sintonizables han permitido hacer observaciones que antes no eran posibles. Por ejemplo, la espectroscopia de saturación de alta resolución, donde se utiliza un haz saturado y un haz sonda del mismo láser, se ha utilizado para medir la estructura hiperfina de las líneas de resonancia del sodio (llamadas líneas D 1 y D 2 ). La separación más pequeña distinguible fue menor de 0.001 cm -1 , la cual es mucho menor que la anchura Doppler de las líneas.

Las propiedades nucleares afectan también a los espectros por medio del corrimiento isotópico. Éste es el resultado de la diferencia entre las masas nucleares de dos isótopos, que produce un cambio ligero en la constante de Rydberg. Algunas veces se presenta una distorsión del núcleo.

Sería falso pensar que el destino más probable de los electrones atómicos excitados fueran las transiciones a órbitas inferiores acompañadas de la emisión de un fotón. De hecho, al menos para los elementos del primer tercio de la tabla periódica, la forma preferida de desexcitación de la mayor parte de los sistemas atómicos o iónicos excitados, en casi todos los estados de excitación, es el proceso de emisión electrónica, que por primera vez observó P. Auger, en 1925, y que a la fecha lleva su nombre.

Por ejemplo, un ion de neón con una sola carga, al que le falta un electrón 1s, tiene una probabilidad 50 veces mayor de desexcitarse pro emisión de un electrón que por emisión de un fotón. Durante este proceso, un electrón atómico exterior desciende para llenar una vacante interna, en tanto que el átomo emite otro electrón para conservar la energía total y el momento angular del átomo. La causa común de esta emisión es la repulsión coulómbica entre los electrones

#43 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 26 mayo 2007 - 12:19

______________________________________________

Biofisica y cerebro.... continuación


Pregunta = Podrías enumerar cuáles son los campos de la física que hoy en día juegan un papel esencial en vuestras investigaciones.

IPB Image


Respuesta = La Física contribuye a la Neurociencia de muchísimas maneras, desde sus ramas más básicas (la electricidad, el magnetismo, la óptica y la física molecular) hasta las técnicas matemáticas y numéricas más abstractas. Nosotros usamos mucho una rama de la Física, llamada Física Estadística, que se ocupa de describir sistemas en los que hay muchos cuerpos, tantos que es posible tratarlos estadísticamente.

También, dado que el cerebro coge información de un sitio (por ejemplo, de los estímulos sensoriales), y la procesa y transmite hacia otros sitios (por ejemplo, hacia los músculos), una disciplina llamada Teoría de la Información resulta muy útil para estudiar el funcionamiento del cerebro. Hay varios problemas en los que hemos podido utilizar herramientas propias de la Física Estadística en la Neurociencia Teórica. Uno de ellos es que a un cierto nivel la corteza cerebral presenta un cierto "desorden", en particular las conexiones entre las neuronas no parecen seguir un patrón muy regular, y también la eficiencia con la que una neurona afecta a otra varía de una célula a otra en un modo aleatorio. Hace ya algunos años que muchos físicos se han preguntado qué propiedades de una red de neuronas se pueden derivar de que éstas están conectadas de un modo aleatorio, y la experiencia que poseían sobre estudios de sistemas desordenados (por ejemplo ciertos materiales magnéticos) ha permitido responder a preguntas tales como cuánta información es posible almacenar en estas redes de neuronas. Los físico no "inventaron" las redes neuronales con desorden, pero antes de sus trabajos sólo se disponía de técnicas numéricas un tanto rudimentarias, con las que es difícil interpretar los resultados.

Hay una cuestión muy básica de la Neurociencia: la neurona tiene una membrana que es un aislante pero que presenta en muchos sitios canales por los que pueden pasar cargas eléctricas. Si se estimula a la neurona se produce un intercambio de cargas entre el interior de la neurona y el medio extracelular y el potencial de la membrana comienza a variar. Esto ocurre todo el rato. De pronto, ocurre que se produce un aumento grande y localizado del potencial que comienza a viajar por el axón de la neurona hacia los sitios en que ésta se comunica con otras células. De esa manera comienza la transmisión de información sobre el estímulo de una neurona a otra. Aquí surgen preguntas fundamentales: ¿el tiempo preciso en que ocurre este fenómeno nos dice algo sobre el estímulo?, ¿cuántos de estos eventos se producen por unidad de tiempo?, ¿cómo codifica éste número al estímulo?. La respuesta dependerá de cómo ha sido el estímulo, de las propiedades de los canales por los que pasan las cargas eléctricas y de cómo se produce el contacto entre las neuronas. La Física Estadística nos provee de técnicas poderosas con las que estudiar estas cuestiones.

También nos interesa comprender cómo ha influido el mundo sensorial, a lo largo de la evolución, en la formación de las correspondientes vías sensoriales en el cerebro. Por ejemplo, nos hemos preguntado qué relación hay entre imágenes naturales y el sistema visual. Para intentar responder a esta pregunta hemos encontrado útiles ciertos modelos matemáticos que explican propiedades de los fluidos turbulentos. Esto puede parecer sorprendente ya que ciertamente las imágenes y los fluidos son, físicamente, objetos muy distintos. Nosotros hemos encontrado una analogía formal: si se inyecta energía en un fluido ésta se disipa en el fluido en torbellinos de muchos tamaños. Del mismo modo, al observar una fotografía se ven en ella variaciones en la cantidad de luz, debidas a que los objetos que muestra la foto están iluminados de manera diversa. Estos cambios de luz se verán también, y con más detalle, si se mira la imágen con una lente. Ha sido fascinante notar que el modo cómo se relacionan la imágenes observadas con lentes de diferentes aumentos es semejante al modo como se disipa la energía en torbellinos de diferentes tamaños.

Preg = ¿Cuáles son los retos inmediatos en este campo?


"...Un reto inmediato... es llegar a comprender cómo representa el cerebro la información y cómo la procesa "


Resp.- Puede decirse que el campo está en sus comienzos, en comparación con otras ciencias, tanto en el estudio experimental como en el teórico. Sin embargo desde hace poco más que una década está experimentando un avance considerable. Cuestiones que no hace mucho tiempo parecían inabordables están siendo actualmente objeto de estudio. Un reto inmediato, por su relevancia en toda la neurociencia, es llegar a comprender cómo representa el cerebro la información y cómo la procesa.

Seguramente utiliza más de una estrategia para ello, y descubrirlas se hace más difícil a medida que nos movemos desde los sitios donde se produce la recepción de los estímulos hacia el procesamiento que realiza la corteza cerebral. Pero aún lo que ocurre en las primeras etapas del procesamiento sensorial está lejos de ser comprendido, tanto al nivel de los mecanismos celulares como al nivel más alto en el que se produce el reconocimiento del estímulo.


Consideremos por ejemplo la situación "sencilla" en la que un estímulo externo (una imágen, un sonido, la superficie de un objeto...) activa nuestros receptores. Se produce inmediatamente una cadena de actividad en las neuronas que procesan esa estimulación, si pudiésemos introducirnos en el cerebro y ver qué ocurre notaríamos que sólo una pequeña parte de las células se activan, que cuando lo hacen su respuesta cambia con el tiempo, y que algunas de éstas neuronas a veces parecen coordinarse y reponder juntas. Por supuesto que no somos conscientes de este proceso, todo lo que notamos es que casi inmediatamente reconocemos al estímulo: podemos describir la imágen, o reconocemos al sonido o la textura del objeto.

IPB Image

¿Cómo hacer para comprender lo que está ocurriendo?

Nos gustaría ante todo poder descifrar el significado de la actividad neuronal, saber qué está haciendo el sistema y comprender por qué lo hace de ese modo. Esto por sí mismo constituye un campo de investigación enorme.

También nos gustaría entender cómo se llega a la etapa final de este proceso: el reconocimiento del estímulo. Y también cómo están relacionados estos dos aspectos del problema. El reconocimiento de una imágen es muy rápido, requiere del orden de 100 milisegundos: ¿cómo hacemos para reconocer que en una imágen aparece la figura de un animal, por ejemplo, en tan breve tiempo?.

La respuesta a esta pregunta no se conoce, pero existen propuestas que hacen uso de nociones tomadas de la Estadística: tan pronto se produce la estimulación el cerebro no sólo se preocupa de representar al estímulo internamente usando la actividad neuronal, sino que también efectúa una hipótesis sobre los objetos que aparecen en la imágen.

Luego es necesario comprobar si esta hipótesis es correcta, para lo que el mismo cerebro debe comparar su hipótesis con la representación interna que ha construido.

Cuando la hipótesis se verifique se habrá reconocido al objeto.
¿Es esto correcto o este procesamiento es demasiado lento?.

Posiblemente aún se requieren mucho trabajo antes de tener una respuesta a esta cuestión.

_________________________________________________________

#44 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 27 mayo 2007 - 12:09

________________________________________________

Biofisica y cerebro,...continuacion

Pregunta = Me imagino que "experimentar" con el cerebro humano puede causar algunos problemas de tipo ético ¿Cómo se contrastan los modelos teóricos?

IPB Image

Respuesta = Por supuesto. La observación directa de la actividad neuronal en el cerebro humano sólo puede hacerse con técnicas no invasivas, tales como fMRI (que describiré luego en más detalle). Pero estos métodos no permiten aún observar el cerebro con suficiente detalle.

También existen otras maneras de aprender cosas sobre el cerebro, por ejemplo por medio de experimentos de psicofísica, en los que el hombre realiza alguna tarea simple mientras el investigador observa cómo la hace, registrando las observaciones del individuo o midiendo el tiempo que se demora en hacerla.

Hay ejemplos sorprendentes de lo que es posible hacer de esta manera: los colores que observamos son el resultado de tres tipos de pigmentos que están en la retina; en 1802, mucho antes de saberse de su existencia, Thomas Young propuso la teoría del tricromatismo, que explicaba nuestra visión del color en términos de tres variables.

Los ilusiones visuales, en las que nuestro cerebro "nos engaña" sobre cómo es realmente la escena visual haciéndonos interpretarla de un modo incorrecto, también nos ayudan a conocer cómo funciona el cerebro.


Preg. = ¿Cuáles son los avances más espectaculares en este terreno?

"En los últimos años la Neurociencia ha tenido un avance enorme en relación con su desarrollo anterior a la década del los ochenta"

Resp = En los últimos años la Neurociencia ha tenido un avance enorme en relación con su desarrollo anterior a la década del los ochenta.

Esto ha ocurrido tanto en el terreno experimental como en el teórico. Hasta fines de esa década en los laboratorios sólo se registraba la actividad de una única neurona por experimento. Esto se debía tanto a limitaciones técnicas como conceptuales.

Sin embargo, los sistemas neuronales seguramente se sirven de la actividad coordinada de un gran número de neuronas para procesar información. En un llamativo estudio reciente, en un laboratorio registraron la actividad simultánea de un grupo de células de una rata mientras el animal exploraba un laberinto.

Las neuronas observadas tienen la facultad de activarse cuando la rata pasa por un sitio bastante preciso de la trayectoria, de modo que en el registro se vió la secuencia en la cual las células se activan a medida que el animal se mueve.

Sorprendentemente (o tal vez no tanto...), cuando registraron la actividad de esas células mientras la rata dormía vieron que repetían la misma secuencia: el animal soñaba que visitaba el mismo laberinto que antes había recorrido despierto!.

_______________________________________________________

#45 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 28 mayo 2007 - 12:41

_____________________________________________________

Biofisica y cerebro,...continuacion

La posibilidad de registrar la actividad de varias neuronas (por ejemplo una centena) simultáneamente tiene una relevancia enorme en aplicaciones a la medicina y la robótica.

Cuando un mono extiende su brazo para coger alimento, hay neuronas en su cerebro que dan a los músculos la orden de moverse para realizar este movimiento.

En un laboratorio se ha conseguido que, al mismo tiempo que el animal ejecuta esta acción, la actividad de unas 100 neuronas es registrada con micro-electrodos implantados cerca de ellas y es transmitida a un ordenador el que a su vez hace mover el brazo de un robot.

Todo ocurre de tal modo que el robot reproduce el movimiento del brazo en tiempo real!.


Hay otras técnicas que están ayudando a comprender mejor el cerebro y su funcionamiento, y en las que los conocimientos propios de la Física juegan un papel importante.

Por ejemplo el uso del magnetismo para observar la actividad cerebral.

La técnica de Imágen de Resonancia Magnética funcional (fMRI) permite observar la actividad de las neuronas a través de una señal de origen magnético que produce el oxígeno de la sangre al ser metabolizado por la neurona activa.

A diferencia de los micro-electrodos, ésta técnica no daña los tejidos y puede utilizarse en el hombre.


IPB Image

______________________________________________________________

#46 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 30 mayo 2007 - 05:54

__________________________________________________


Preg = ¿Te atreverías a aventurar una fecha en la que podamos entender el cerebro humano tan bien como hoy comprendemos, por ejemplo, la física de los semiconductores?

Resp = No.

Preg = ¿Qué repercusiones puede tener estos avances en el terreno de la inteligencia artificial?

Resp = Las técnicas experimentales están teniendo una rápida evolución. En estudios de las bases neuronales del comportamiento, es usual enseñar al animal a realizar una cierta tarea, y para ello se lo recompensa cuando la hace bien. En el caso de la rata que explora el laberinto, se dejan pequeños trozos de alimento a lo largo del camino, lo que incentiva al animal. Pero muy recientemente se ha hecho un experimento en el cual tanto las instrucciones como el premio son "virtuales".

Normalmente la rata reconoce el camino por medio de sus bigotes, y cuando uno de estos bigotes toca la superficie se activa una neurona en cierto sitio de la corteza cerebral. Lo que han hecho en este laboratorio es implantar micro-electrodos directamente en esas neuronas y así con pequeños pulsos eléctricos dados por control remoto instruyen al animal a realizar giros a la derecha o a la izquierda.

Cuando lo hace bien se lo premia, pero en este experimento la recompensa también se da al animal a través de un implante en la región del cerebro adecuada. No es difícil especular sobre aplicaciones de estos resultados en las que se guía al animal de modo que éste llegue a sitios de otro modo inaccesibles o, más ampliamente, en el desarrollo de "robots" que combinen las habilidades del animal con implantes semejantes a los de este experimento.

___________________________________________________

Fin del articulo:

IPB Image

Nestor Parga

Profesor del Departamento de Física Teórica de la UAM.
Imparte las asignaturas sobre procesamiento cerebral tales como Introducción a la Modelización del Cerebro y Organización de Sistemas Neuronales.


Una clase magistral !!!

_____________________________________________________


__________________________________________________

#47 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 31 mayo 2007 - 08:38

____________________________________________________

IPB Image


Gustavo Yepes
Profesor del Departamento Física Teórica de la U.A.M.


Desarrolla su investigación en el campo de la formación de galaxias e imparte las asignaturas de Introducción al Cálculo Computacional (2º) y Mecánica Teórica (3º). También coordina el programa de Doctorado de Astrofísica y Cosmología.

La Astrofísica y la Física del Espacio han sido algunos de los campos más activos en los últimos años gracias, en gran parte, a la gran carga de datos observacionales que ha aportado el telescopio espacial HUBBLE. Cada vez nos encontramos más cerca de responder preguntas que todos nos hemos planteado alguna vez: ¿tuvo el universo un origen? ¿es finito? ¿cómo evolucionará en el futuro?...

______________________________________

Quizá podíamos empezar hablando de Marte y esos viajes proyectados, ¿qué resultados podemos esperar de todo eso?

Ni los astrónomos ni, incluso, geólogos planetarios, esperan grandes cosas de un viaje a Marte. Los viajes del Apolo a la Luna tampoco aportaron grandes cosas, desde el punto de vista científico. Trajeron algunas piedras que venían a confirmar lo que ya los satélites habían detectado. No obstante, el interés político y social hacia estos campos repercute favorablemente en nuestra labor. La Astrofísica es hoy un área prioritaria en España, en los planes de I+D, aunque eso sí, no por el interés en viajar a Marte...

¿Y el HUBBLE? ¿cuál es la importancia del HUBBLE dentro de la historia de los telescopios?

IPB Image

La importancia del HUBBLE comienza porque es el único telescopio capaz de observar en el rango óptico que hay en el espacio. Existen, no obstante, otros telescopios, de menor tamaño, que detectan la luz en otras frecuencias, como son los telescopios de rayos X, infrarrojos, radiotelescopios (telescopios de microondas), etc. El HUBBLE ha representado un desarrollo enorme para la Astrofísica porque ha permitido la observación del "espacio profundo", de objetos cuya señal es muy débil y que, por lo tanto, están muy alejados en el tiempo, lo que ha hecho posible conocer mucho de la Historia del Universo.

¿Porqué un telescopio alejado de la Tierra?

La ventaja de situar un telescopio en el espacio es que allí no existen las turbulencias de la atmósfera por lo que de partida se logra una mayor resolución que el mismo telescopio instalado en tierra. Por otra parte, el HUBBLE no es muy grande, mide 2m., cuando en tierra ya existen telescopios de 10 m de diámetro y hoy se planea construir futuros telescopios de 30 m y más.

¿Porqué se quiere "jubilar" ahora, después una importante inversión técnica y económica que corrigió una óptica defectuosa?

Ya sabéis que la historia del HUBBLE ha sido bastante accidentada: no se hicieron las pruebas suficientes y nació "miope". Hubo que ponerle unas "gafas". Luego, en sucesivas intervenciones se ha ido mejorando: cambiando giróscopos (básicos para la orientación), instalando detectores mucho más sensibles, etc., hasta situarlo en la actualidad (2004) como un instrumento de una enorme capacidad. Sin embargo, desde la explosión del Columbia, las futuras misiones de mantenimiento se han suprimido (creo que le quedan solo un par de giróscopos funcionando, de manera que cuando le fallen perderá la órbita) por lo que su jubilación forzosa está muy próxima y la NASA se dedicará a otras cosas. Proyectos no parece que le falten.

Has mencionado los telescopios de tierra, ¿qué pueden aportar con una competencia como la del HUBBLE?

IPB Image

Bien, el desarrollo de los telescopios en tierra también ha sido muy importante en los últimos años. En la actualidad de lo que se trata es de combinar varios al mismo tiempo (algo parecido a cuando utilizamos ordenadores "en paralelo") unidos, en este caso, por fibra óptica.

El Hubble ha representado un desarrollo enorme para la Astrofísica...

El objetivo es aumentar la capacidad colectora (el nº de fotones por unidad de superficie, que depende del tamaño del espejo). En teoría, cuanto más grande es el espejo del telescopio, mejor. No obstante, es casi imposible lograr un espejo de una sola pieza de más de 8 m debido a las deformaciones que provoca en la lente la fuerza de la gravedad (al orientar el telescopio y cambiar de posición la lente, pesadísima, ésta se curva). Necesariamente, hay que dividir el cristal en muchos trozos pequeños.

Estos telescopios de tierra, aunque tienen una fuerza colectora muchísimo mayor que la del HUBBLE, tienen las limitaciones de la atmósfera mencionadas antes: hay ciertos tipos de ondas de luz, ultravioleta, por ejemplo, que son absorbidas por la atmósfera y que, por lo tanto, resultan indetectables. En la UAM, para no ser menos, tenemos nuestro propio observatorio que es un laboratorio de enseñanza donde hay un telescopio grande (0,5 m) y otros pequeños que se instalan en la terraza del observatorio y que se conectan a una serie de ordenadores, tal como se hace en la astronomía profesional. Esto se completa con una serie de cámaras digitales (CCD).
Puedo afirmar que los alumnos disfrutan muchísimo cuando suben allí arriba.

¿Es imprescindible "mirar" a través de estos medios para avanzar en el conocimiento del Universo? ¿no son suficiente los modelos teóricos? ¿o se mira para confirmar precisamente esos modelos?

Por todo lo dicho antes, yo diría que el gran avance de los últimos años experimentado por la Cosmología proviene precisamente del enorme desarrollo de los sistemas de observación que nos permiten retrotraernos en el tiempo hasta los primeros instantes tras el Big Bang.

________________________________________

#48 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 02 junio 2007 - 09:50

________________________________________________________________

IPB Image



¡¿?!.....

A ver. Los modelos teóricos del Big Bang arrancan con la Teoría de la Relatividad de Einstein (1918), que es una interpretación muy general de la atracción gravitacional descrita por ...se posee una primera evidencia experimental directa de una predicción de los modelos Big Bang.

Newton. ...se posee una primera evidencia experimental directa de una predicción de los modelos Big Bang.

Estos modelos son unos entre los varios posibles que se derivan de esta teoría. Presuponen un momento de gran concentración de energía en un punto, con una densidad infinita, a partir del cual, el Universo empezó a expandirse. Como inciso, es curioso señalar que el propio Einstein no creía al principio para nada en la validez de estos modelos evolutivos del Universo y que incluso propuso otros modelos alternativos, igualmente válidos, desde el punto de vista matemático que los modelos de Big Bang. Pues bien, a partir del desarrollo de las tecnologías en observación astronómica que mencionábamos antes, especialmente desde mediados de los años 60, pudo romperse un impas que no permitía considerar como cierta o falsa ninguno de los modelos cosmológicos propuestos , la de un Universo expansivo donde toda la materia se crea a un T=0 o, por el contrario, la de un Universo, donde la materia se está formando eternamente a medida que las galaxias se alejan mutuamente (Modelo Estacionario). Sin embargo, con el descubrimiento casual de una señal de radio que parece venir de cualquier punto del espacio, lo que se denomina Radiación de Fondo, se posee una primera evidencia experimental directa de una predicción de los modelos Big Bang.


Vale. Dentro de vuestro departamento, ¿cómo os dividís el trabajo de investigación?

IPB Image

Muy fácil: la Astrofísica y Cosmología cubren todo lo que va desde la Estratosfera hacia arriba.

Hay una serie de escalas o divisiones: si uno investiga en el Sistema Solar, hablamos de Física Planetaria; si la investigación va más allá del Sistema Solar pero dentro de nuestra Galaxia, se trataría de Física Estelar o Galáctica; si el objeto de estudio está fuera de nuestra Galaxia, estaremos hablando de Física Extragaláctica; finalmente, si a uno le interesa mirar más allá, a las galaxias en su conjunto, más allá en el tiempo y en el espacio, entonces estaremos hablando de Cosmología, física, teórica, etc.

En nuestro Dpto. cubrimos todo este rango. Aquí hay profesores trabajando en formación estelar dentro de nuestra Galaxia y en la detección de planetas en otras estrellas, que es algo muy reciente y que suscita mucho interés. Se trata de un proyecto muy importante de la ESA (Agencia Europea del Espacio) para la creación de una batería de telescopios en el espacio destinados a detectar otros planetas que tengan condiciones habitables. Otros planetas enormes, tipo Júpiter, ya se han detectado pero lo realmente interesante, el salto verdaderamente cualitativo sería encontrar algún planeta como la Tierra.

Hay también profesores que se dedica a estudiar sistemas extragalácticos y otros investigando en la formación de galaxias y su relación con la Cosmología , a un nivel más teórico. En este caso, nuestro objeto de atención es lo que se llama "materia oscura" de la que supuestamente está formado el Universo en un 90% pero que, sin embargo, es invisible porque no interacciona con la luz. Hay, no obstante, una serie de evidencias científicas que conducen a pensar que esa materia efectivamente existe pero lo cierto es que desconocemos totalmente su posible composición o naturaleza.

__________________________________________________________

#49 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 04 junio 2007 - 06:43

_____________________________________________

IPB Image

He oído hablar alguna vez de ese asunto pero o me lo han explicado mal o no lo he entendido.....

Para "pillar in fraganti" a esa materia utilizamos un método de trabajo basado en la búsqueda de interacción entre esa materia y otras pertenecientes al mundo "visible".

IPB Image

Toda materia, por el hecho de serlo, tiene interacción gravitatoria, atrae a otra materia ya sea visible u obscura, e incluso a la luz.


Una de las evidencias de la presencia de esta materia exótica, es el conocido como Efecto Lente. Todos sabemos que la luz, cuando pasa de un medio menos denso a otro más denso, se curva. Pues bien, cuando apuntamos un telescopio hacia lo que se conoce como cúmulo de galaxias, que son gigantescas aglomeraciones de materia, en algunas afortunadas ocasiones, nos encontramos con imágenes de galaxias más lejanas que están distorsionada por la presencia de la materia de ese cúmulo.

La luz de estas galaxias lejanas ha sufrido un efecto similar al que ocurre cuando ponemos una lupa. Las vemos en forma de arco, unas manchas curvas que aparecen en muchas fotos del HUBBLE y que asemejan a la difracción que sufre la luz al pasar de un medio a otro.

Sin embargo, la explicación a este fenómeno no tiene nada que ver con índices de refracción. Es una predicción también de la Relatividad General de Einstein. Lo que ha ocurrido es que la presencia de una gran concentración de masa ha distorsionado el espacio alrededor de ella, y por tanto, la visión de la luz procedente de cualquier objeto que haya detrás de esa zona de ahi el nombre de "Lente Gravitacional"

Pues bien, aplicando las teoría de Einstein, uno puede calcular la cantidad de materia que hace falta para producir las distorsiones, arcos de luz, que el HUBBLE ha detectado en algunos cúmulos de galaxias. El resultado es sorprendente.

Es más de 10 veces mayor que la suma de todas las galaxias que componen ese cúmulo. Uno podría pensar que estamos cometiendo algún error al estimar este valor, sin embargo, existen otras muchas observaciones, por ejemplo mediante los telescopios de rayos X de los que hablé antes, que son totalmente independientes de esta que acabo de contar y que también nos predicen que debe existir al menos 10 veces más materia en el Universo de la que podemos ver.

Me imagino que para un científico esta labor de detective debe ser apasionante.....


Bueno es que recientemente se ha descubierto algo que viene a complicar, o a hacer más interesante, según se vea, el escenario...... Se trata del tema de la Energía Oscura, una energía extraña que algunos califican como la "quinta esencia", en alusión a los antiguos alquimistas. Esta energía se opone a la gravedad generada por la Materia y al hasta hace poco considerado inevitable proceso de ralentización en la expansión del Universo, como consecuencia de las fuerzas de atracción entre los cuerpos. De hecho, esta Energía operaría de forma contraria, no solo no frenando si no acelerando la expansión del Universo


No somos nadie....

Tranquilo. Todo esto tan aparentemente lejano y sofisticado tiene, sin embargo, aplicaciones prácticas muy inmediatas. Por ej., el chip de las cámaras de vídeo o de fotografía digital (el famoso CCD), es una aplicación directa de las investigaciones de los astrónomos en la búsqueda de un soporte más fiable que la película fotográfica, un soporte de información lineal que pudiera ser leído por un ordenador.

Otra aplicación, informática en este caso, se deriva de la necesidad de analizar la información sobre el Universo. Información que combina varias dimensiones y que resulta tan compleja que, necesariamente, precisa de herramientas de cálculo potentísimas y que ha dado lugar a la super computación.

En definitiva, yo diría que dar respuesta a nuestras preguntas representa para la industria grandes retos que, a su vez, movilizan potentes departamentos de desarrollo.

La investigación en Ciencia Básica no es dinero tirado, como pueden pensar algunos. Un país que no invierta en Ciencia Básica es un país sin futuro.

____________________________________________________

Fin del articulo
____________________________________________________


#50 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 06 junio 2007 - 01:54

__________________________________________________

Hemos publicado algunas entrevistas de esta pagina.

Ahora se las dejo, es una bella introduccion y gran un incentivo a la reflexion y al pensamiento.

________________________________________________

UNA AVENTURA DEL SABER


No es fácil, o debería decir imposible, resumir en una pocas líneas todas las aplicaciones, interrelaciones y desafíos que afronta la física hoy en día, por lo que ni intentaremos hacerlo. Esto es así porque todo fenómeno natural es un fenómeno físico. Aunque alguien pueda calificarnos de "integristas", todas las ramas del conocimiento científico no son más que especialidades de las Ciencias Físicas, y con esta aseveración no pretendemos minimizar su importancia, si no más bien todo lo contrario. Mostrar que esto es cierto es uno de los objetivos que perseguimos con este website: enseñaros como las aplicaciones de la física moderna abarcan todas las escalas y dominios, rompiendo las barreras interdisciplinares y resultando imprescindibles en todas las esferas del saber.


Sólo tenemos que mirar a nuestro alrededor para que surjan cientos de preguntas relacionadas con la física: ¿por qué el cielo es azul?¿cómo es posible que pueda estar leyendo esto mismo en mi ordenador?¿por qué hoy hace sol o llueve?. Pero no todas las preguntas son de este índole mundano, pues también solemos preguntarnos sobre si estamos solos en el universo, si éste es infinito o de "que pasta" estamos hechos. Gracias a que en el pasado otros se hicieron preguntas de este tipo o simplemente se preguntaron si esto o aquello fuera posible, hoy tenemos muchas respuestas y otros tantos "artefactos"... pero como os podéis imaginar, aún queda un largo camino por recorrer.

A este viaje por el mundo de las ideas es al que nos referimos con el rimbombante título de "Una Aventura del Saber". Aventura, si, porque el objetivo es llegar a donde nadie antes ha llegado, descubrir, elucubrar y también equivocarse. En resumidas cuentas, emprender un camino pavimentado con ideas y no vulgar alquitrán, un camino que nunca sabemos muy bien a donde nos va a llevar pero en el podemos disfrutar del paisaje: agujeros negros, hologramas, partículas elementales, materiales de increíbles propiedades...

El viaje que os proponemos es largo y algunas veces, como no, difícil. Por eso es importante saber algo de lo que nos vamos a encontrar para evaluar si nos va a merecer la pena el esfuerzo. En este website hemos recopilado, en forma de entrevistas con profesionales, una pequeña (ínfima) parte de lo que significa hoy la física y de cómo ésta se interrelaciona con otras disciplinas, a priori tan dispares como la Biología, la Medicina, el Arte, el Medioambiente, la Informática, etc. Esperamos que después de echarle un vistazo a nuestros contenidos decidáis que efectivamente SI merece la pena y a partir de ahora cuando oigáis la palabra física la apreciéis en todo su amplio significado. Y a los más entusiastas: no dudéis en optar por la física como materia de estudios, ¡no saldréis decepcionados!


Nanotecnología

IPB Image

Para conocer qué es la Nanotecnología, empecemos por aclarar el significado del prefijo "nano": este hace referencia a la milmillonésima parte de un metro. Un átomo es la quinta parte de esa medida, es decir, cinco átomos puestos en línea suman un nanometro. Bien, pues todos los materiales, dispositivos, instrumental, etc., que entren en esa escala, desde 5 a 50 ó 100 átomos son objeto de estudio de la Nanotecnología.


Biofísica y Medicina

IPB Image

Durante las próximas décadas, una parte importante de los físicos profesionales tendrán a su lado, en el mismo laboratorio, a biólogos (y químicos). La UAM ha puesto en marcha, a partir del curso 2003/2004, un master en Biofísica que procura satisfacer a ambas ramas de la ciencia: a los biólogos, porque tendrán acceso a técnicas más cuantitativas de análisis y manipulación de moléculas; y a los físicos, por el reto que para ellos siempre ha supuesto la Biología: el más apasionante dentro de lo que se denomina Sistemas Complejos.


Astrofísica y Cosmología

IPB Image

La Astrofísica y la Física del Espacio han sido algunos de los campos más activos en los últimos años gracias, en gran parte, a la gran carga de datos observacionales que ha aportado el telescopio espacial HUBBLE. Cada vez nos encontramos más cerca de responder preguntas que todos nos hemos planteado alguna vez: ¿tuvo el universo un origen? ¿es finito? ¿cómo evolucionará en el futuro?...


Partículas Elementales

IPB Image

La Física de Partículas se ocupa del mundo sub-sub-atómico. Y si nos fijamos en los nombres que reciben esas porciones de materia, más pequeñas que los átomos, llegaremos a la conclusión de que nada está lejos entre sí. Ni siquiera la Física de la Literatura o la Poesía. Aun con todo, los laboratorios donde se desentrañan los secretos de la Materia son bastante "groseros", en el fondo: enormes conductos donde se confina cantidades descomunales de energía para lanzar partículas que se estrellan entre sí...


Biofísica y Cerebro

IPB Image

Algunos lo consideran el último desafio de la ciencia: entender la propia estructura en la que se fundamenta, comprender el cerebro humano. Pero ¿se puede explicar de forma racional la razón? En cualquier caso, ántes de adentrarnos en preguntas tan espinosas y controvertidas debemos comprender procesos que pertenecen sin duda al dominio de la física y la biología.

Física y Arte

IPB Image

Física y Arte que no el "arte de la física". En la actualidad es impensable imaginar un gran museo o un departamento de arqueología que no reclame periodicamente los servicios de físicos para tareas de datación, estudio y conservación de obras de arte. Las más sofisticadas tecnologías: aceleradores, fluorescencias con Rayos X, etc. al servicio de nuestro patrimonio artístico. Si Leonardo da Vinci levantara la cabeza....


Física y Medioambiente

IPB Image

Desde que en 1827 el matemático francés Fourier observó (se supone que tijeras de podar en mano) que ciertos gases, en particular el dióxido de carbono, retienen el "calor atmosférico" dentro de los invernaderos o más tarde, el Premio Nobel de 1903, el físico sueco Arrhenius, construye la teoría general del efecto invernadero y del calentamiento planetario, la Física y el Medioambiente iniciaron, como pareja de hecho, una fructífera colaboración que dura hasta nuestros días.


Mundo Cuántico

IPB Image

El término Mundo Cuántico es redundante, pues todo el mundo es cuántico en su naturaleza. Pero afortunadamente, en la mayoría de los casos, sus sutilezas sólo se manifiestan de forma patente a escala atómica. Y decimos afortunadamente porque la comprensión de ciertos fenómenos cuánticos representa un auténtico reto intelectual. Por si esto fuera poco, cada vez con mayor frecuencia estos fenómenos rompen su "barrera de escala" para sorprendernos con comportamientos de carácter macroscópico de gran utilidad práctica, como es el caso de la superconductividad, la criptografía cuántica o los condensados de Bose-Einstein.


Fotónica

IPB Image

La electrónica funciona con corrientes de electrones. Con electricidad, para entendernos. Pero la fotónica, funciona con corrientes de fotones....Con luz, en otras palabras. Aquella, forma parte de nuestra civilización de una manera tan profunda que solo cuando nos falta percibimos su valor. Las corrientes de partículas luminosas, los fotones, empiezan a hacerse hueco entre nosotros y algunas de sus aplicaciones ya son imprescindibles: los lectores de código de barras, las aplicaciones del láser en la medicina, la televisión digital....


_________________________________________________________

http://www.fisicahoy...a/aventura.html
_________________________________________________________

#51 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 08 junio 2007 - 11:08

_______________________________________________________


IPB Image


IPB Image

Mª José Herrero


Profesora Titular del Departamento de Física Teórica .
Imparte las asignaturas de Física de Partículas de 5º curso.
Es también miembro permanente del Instituto de Física Teórica.


Instituto de Física Teórica

La Física de Partículas se ocupa del mundo sub-sub-atómico. Y si nos fijamos en los nombres que reciben esas porciones de materia, más pequeñas que los átomos, llegaremos a la conclusión de que nada está lejos entre sí. Ni siquiera la Física de la Literatura o la Poesía. Aun con todo, los laboratorios donde se desentrañan los secretos de la Materia son bastante "groseros", en el fondo: enormes conductos donde se confina cantidades descomunales de energía para lanzar partículas que se estrellan entre sí...

Empecemos por la pregunta más básica: qué estudia y cuál es la importancia de la Física de partículas...

A un nivel muy simple, la Física de Partículas o Física de Altas Energías (luego entenderás porqué también se denomina así) es importante porque si conociéramos los componentes más básicos de la materia, lo que denominamos partículas elementales (son elementales porque, supuestamente, no se pueden dividir a un nivel más pequeño) y sus interacciones esto implicaría conocer el comportamiento de toda la materia, su forma de interactuar y, consecuentemente, entenderíamos mejor el mundo que nos rodea, porqué los cuerpos se atraen o no, porqué la materia se transforma, porqué vemos las imágenes en un televisor, porqué escuchamos nuestras voces en un teléfono fijo, y en uno móvil.....

El mundo de la Física de Partículas se mueve en el marco de la Física Cuántica, concretamente en el mundo "sub-sub-atómico", lo que en términos de medida sería lo que vemos a distancias tan pequeñas como 1/1000000000000000000 metros es decir un mundo muy, muy pequeñito....

¿Y no hay nada más pequeño?...

Bueno, los físicos entendemos que, por ahora, no hay nada más pequeño.... aunque en la ciencia siempre hay que estar preparado para sorpresas. La naturaleza nos ha sorprendido varias veces a lo largo de la historia mostrándonos nuevas estructuras que no nos esperábamos.

Quizás en el futuro encontremos nuevas estructuras, pero de momento aceptamos que toda la materia conocida esta hecha de dos tipos de partículas elementales: quarks y leptones.

De arriba abajo en estructura, si partimos de las moléculas y bajamos un nivel, nos encontramos con los átomos, en los átomos está el núcleo y, orbitando sobre éste, los electrones.

Dentro del núcleo, los protones y neutrones y dentro de estos, los quarks . Los electrones pertenecen a un grupo de partículas que se llaman leptones (que en griego significa “ ligeros”, es decir de masa muy pequeña), al que pertenecen también otras partículas, muy parecidas a los electrones (réplicas o clones de los electrones), y los llamados neutrinos (el nombre viene de que son neutros, es decir sin carga eléctrica, y por que son muy muy ligeros).

En total hay seis quarks diferentes y seis leptones diferentes que se agrupan en tres familias o también llamadas generaciones. No te menciono los nombres para no liar mucho el asunto, y porque tengo que reconocer que suenan un tanto ridículos (quark “extraño”, quark “con encanto”, etc.… ).

La propia palabra quark no significa nada concreto, simplemente fue el capricho del físico que planteó su existencia (Gell-Mann) al extraer ese nombre de una obra de James Joyce (‘Finnegans Wake’).

IPB Image

__________________________________________________________

#52 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 09 junio 2007 - 01:54

________________________________________________

Continuamos....

IPB Image



¡Ah, referencias literarias!... ¡aire fresco!

...Y eso que he evitado nombrarte todos los leptones que se conocen...¡pura poesía en griego!...

¿Cuáles son vuestros laboratorios? ¿Qué instrumental usáis para profundizar tanto?

IPB Image

Te voy a responder haciendo, antes, una breve descripción del marco teórico:

Hoy nos movemos en el marco de lo que llamamos Modelo Estándar de las partículas elementales... En este modelo se incluyen todas las partículas elementales que antes te he mencionado y que forman toda la materia del Universo. Pero, a su vez, estas partículas interaccionan entre sí. En Física Cuántica, toda interacción entre partículas se concibe como un intercambio de otra partícula elemental que representa el "cuanto" (porción de energía) transferido en esa interacción. De manera que tenemos las partículas de materia, con masa, y otro tipo de partículas, también variadas aunque no tanto, que son las mediadoras de las interacciones entre las primeras y que determinan la fuerza de dicha interacción. Por ejemplo: en las interacciones electromagnéticas, las más comunes y de las cuales dependen todos los dispositivos eléctricos que nos rodean, desde una televisión, hasta un ordenador o teléfono, las partículas que se intercambian en la interacción son los fotones, que representan la fuerza electromagnética. El resto de las interacciones relevantes se resumen en:

la interacción o fuerza débil que se manifiesta en la radiactividad y la fuerza fuerte que hace que se mantengan unidos los quarks dentro de los protones y neutrones, y los protones unidos con los neutrones en el núcleo atómico. Las interacciones gravitatorias no parecen ser relevantes en la Física de Partículas, aunque ahora hay mucha discusión sobre esto….

Pero tú preguntabas sobre los aceleradores de partículas...


Si...


Bien, la idea es que en Física Cuántica hay un concepto básico que consiste en que si quieres observar o penetrar la materia a un nivel muy profundo, necesitas mucha energía.

Es decir, para observar pequeñas distancias, o longitudes de onda cortas, necesitamos energías grandes, y viceversa: para explorar distancias grandes necesitamos energías pequeñas.


De manera que un físico experimental, para acceder a distancias muy pequeñas, necesita de dispositivos de gran energía, como son los aceleradores que se basan en la generación de una determinada energía, la cinética, a base de acelerar a una grandísima velocidad (muy cercana a la velocidad de la luz) ciertas partículas.

Pero otro principio elemental es que la energía ni se crea ni se destruye sino que se transforma.

Así que, esa energía cinética acumulada, se puede transformar en otra forma de energía quizás más interesante y ahí está la gracia de los aceleradores. Por ejemplo, si ponemos un electrón en uno de estos anillos de colisión (los aceleradores), lo aceleramos más y más hasta que adquiera mucha energía cinética, y finalmente lo hacemos colisionar frontalmente (no nos sirve de mucho mantenerlo dando vueltas eternamente, ¡sería aburridísimo!) contra otro electrón que circula en sentido contrario, habremos conseguido que se acumule una gran cantidad de energía. Y te preguntarás a dónde va a parar tal cantidad de energía….

Pues bien, como existe otro concepto capital en la Física de partículas, que es que la materia, la masa, es también una forma de energía (de ahí la fórmula de Einstein , E=mc2), la energía liberada en la colisión se transforma en la creación de nuevas partículas que pueden ser mucho mas masivas que las de partida.

Parece magia, ¿verdad?. Todas estas partículas resultantes de la colisión son las que los físicos medimos y estudiamos, mediante detectores especiales, en los experimentos que se desarrollan en los aceleradores de partículas.

_______________________________________________________________

#53 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 13 junio 2007 - 07:36

_________________________________________________

Continuamos...

IPB Image


Estos aceleradores serán máquinas enormes, potentísimas...

Pues para que veas: el acelerador de partículas más popular de la historia es la propia televisión... Esta es, básicamente, un tubo de rayos catódicos, incandescente, que desprende electrones y que, a su vez, son acelerados mediante un campo electromagnético para que impacten en una pantalla. Cada impacto de electrón produce un punto en la pantalla y el conjunto de impactos configura la imagen que vemos. La diferencia con un acelerador de partículas, por ejemplo el llamado LEP (Large Electron-Positron Collider), ubicado en las instalaciones del CERN (Centre Européen pour la Recherche Nucléaire), es que la energía inducida a ese electrón es cien millones de veces mayor que la de la televisión...

Creo que alguna vez he leído que lo que se trata en esos aceleradores es reproducir las condiciones en las que surgió el Universo...

Sí, lo que se reproduce en un laboratorio de física son las condiciones que teóricamente existían instantes después del nacimiento del Universo, es decir, un Universo a mayor temperatura que el que conocemos....De nuevo la gran energía producida en un laboratorio se traduce en otro tipo de energía, en este caso calor. Evolucionando desde ahora hacia atrás en el tiempo, y utilizando como sistema una teoría de gases general (pensemos en las ruedas de los coches que ganan presión cuando se ponen en marcha, como consecuencia de la energía cinética; ese mismo aire, liberado, se expande y se enfría), debemos presuponer que ese viaje implica un aumento progresivo de temperatura. En el origen, estaría el famoso Big-Bang: a partir de aquella explosión, el Universo se va expandiendo y, en consecuencia, enfriando...

IPB Image


¿Qué cosas hay por ahí cuyo descubrimiento o confirmación supondrán un salto cualitativo para la Física Teórica? ¿Cuáles son los enigmas?...

Pueeeeeesss... Desde un punto de vista tangible o terrestre, digamos, el primer paradigma a resolver es la confirmación o descarte de la partícula denominada bosón de Higgs (nombre en honor al físico que la propuso), cuya existencia es muy importante.

Esta partícula aperece como una predicción matemática, dentro del marco del Modelo Estándar antes mencionado, pero no existe de momento ninguna evidencia experimental de su existencia. La importancia de esta partícula es que resulta ser la responsable que el resto de partículas constituyentes de la materia tengan masa... Si se lograra esa evidencia, es decir, si se detectara el bosón de Higgs sería un gran triunfo que ayudaría a explicar aspectos esenciales de la materia. Si, por el contrario, no se encontrara, tendríamos que cambiar profundamente nuestra concepción del origen de la masa… Por eso, hay mucho esfuerzo, dinero e ilusión puestos en el próximo acelerador europeo de partículas en el CERN, llamado LHC (Large Hadron Collider), en el que se espera encontrar dicha partícula.

Otro paradigma, éste un poco más abstracto.

Durante décadas, se ha intentado incorporar a ese esquema que hemos llamado Modelo Estándar, el otro tipo de interacciones, aparentemente menos relevantes, las interacciones gravitatorias
. Se trata, en definitiva, de construir un nuevo marco teórico, que incorpore todas las interacciones entre las partículas, es decir, las gravitatorias, las electromagnéticas, las fuertes y las débiles, y que podría conducirnos a nuevos paradigmas cuánticos. ¿Y porqué es importante esto? Pues por que si uno pretende entender el Universo desde sus orígenes, no solo debe entender las fuerzas gravitatorias de acuerdo con la Física Newtoniana o clásica, sino también la gravitación a escala cuántica. Si aceptamos lo que propone la comunidad científica sobre el origen del Universo, que estaba comprimido en una pequeñísima región referida a unas coordenadas de espacio-tiempo (la teoría del Big-Bang), necesitamos explicarlo partiendo de la gravitación cuántica, que es la que funciona en esas pequeñísimas distancias, muy inferiores a la escala sub-atómica.

_____________________________________________

smile_004.gif
_____________________________________________

#54 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 15 junio 2007 - 11:53

_________________________________________________

Continuamos...

IPB Image


Ya... ¿y eso es lo que hacéis los físicos de partículas hoy en día: buscar la confirmación científica para determinados modelos teóricos?...

Sí, somos bastante cabezotas, lo sé... Hoy, muchos físicos teóricos trabajan en las denominadas Teorías de Supercuerdas que podrían conducir a una unificación de las interacciones. Si las Partículas Elementales se estudiaban desde una aproximación puntual, es decir, desde una focalización sobre un punto en un momento determinado, hoy se trabaja sobre una extensión, o sea, sobre una cuerda......

El prefijo Super hace mención no al tamaño de las cuerdas como uno podría pensar, sino a una nueva simetría de las cuerdas llamada Supersimetría. Estas teorías necesitan, por coherencia, desarrollarse en un espacio-tiempo de más de cuatro dimensiones, es decir, habría otras dimensiones, además de las tres coordenadas espaciales y el tiempo, que son las que conocemos.

Estamos hablando, por tanto, de otros mundos absolutamente desconocidos que podrían conducir a fenómenos insospechados...Y no me refiero a nada "paranormal", sino a posibles manifestaciones contrastables en un laboratorio...¡lo que es bastante fascinante!

Hombre, cinco, seis o siete dimensiones, al mismo tiempo, es bastante "paranormal"...

Bueno, muchos de los trabajos que hoy en día se vienen haciendo en el campo de la Física Teórica, están un tanto alejados de la realidad que vivimos. Está por ver que efectivamente se corroboren experimentalmente, como dicta el método científico... En mi opinión, muchos modelos son bastante especulativos....


Me comentas que vuestra principal herramienta son las matemáticas. ¿Significa eso que no pisáis los laboratorios?...


Los físicos teóricos de partículas, como yo, no tenemos una relación demasiado directa con el instrumental de investigación... No obstante, mi caso se encuentra un poco 'a caballo' entre la parte teórica y la experimental. No tengo una relación directa con el laboratorio pero leo mucho y enseño a mis estudiantes técnicas experimentales de investigación.

Por otro lado, hoy en día la Física Experimental de Partículas tampoco podría concebirse sin la Física Teórica de Partículas. Yo tengo, evidentemente, que estar al tanto de las últimas tecnologías y aplicaciones de interés, como de las matemáticas aplicadas o las tecnologías modernas de computación...

Ya sabes que Internet (concretamente la red llamada www) lo inventaron los físicos de partículas, en el CERN, como resultado de una demanda, de la necesidad de un medio de comunicación de esas características.

¿Cómo llegan los alumnos a tus clases? ¿Vienen con las matemáticas aprendidas?

Vamos a ver, la formación en Matemáticas de los alumnos cuando llegan a la universidad es, en general, mala. Hemos ganado, con las generaciones de ahora, un cierto sentido práctico, la gente necesita conocer las aplicaciones directas de lo que estudia. Vale.

Sin embargo, desde el punto de vista de las ciencias puras, en mi opinión, los estudiantes han perdido una cierta capacidad de abstracción. De todos modos, creo que en esta facultad tenemos un buen sistema de enseñanza que posibilita el que, cuando lleguen a la materia que yo imparto, Física de partículas, en la última parte de la carrera, ya tengan una buena formación en Matemáticas, imprescindible para abordar esta materia.

¿Tenéis futuro los teóricos?... (silencio... siempre es una pregunta un poco delicada, pero eso ya lo sabía así que, yo tampoco, muevo un pelo).

Es cierto que se han abierto otros campos, de naturaleza interdisciplinar, como la bio-física o la nano-tecnología, que atraen la atención científica en la actualidad por sus aplicaciones a la vida cotidiana... ¡pero la Física Teórica tiene todavía mucho que decir! (¡viva!). De hecho, llevamos tiempo preparando un experimento del que esperamos grandes resultados. Se trata, como ya he comentado antes, del LHC , el Gran Colisionador de Hadrones, estrechamente ligado al ya existente LEP que también mencioné antes, ubicado en las instalaciones del CERN, en la frontera entre Francia y Suiza.

Se aprovecha el túnel subterraneo ya existente del LEP para acomodar allí mismo el nuevo acelerador LHC. En dos tubos separados se conseguirán acelerar en sentido contrario dos haces de protones, uno por cada tubo que luego se cruzan haciendo posible la colisión frontal de los haces. De este modo se podrán estudiar las colisiones de protones contra protones, con energías de unos catorce billones de electrón-voltios (catorce mil millones de veces más energéticos que los electrones de la televisión!).

Quizás allí se produzcan nuevas partículas completamente desconocidas por nosotros o encontremos manifestaciones inesperadas de las supuestas nuevas dimensiones…También se analizarán los choques entre iones muy pesados (mucho más que los del hidrógeno) para crear una especie de plasma de quarks que simule los primeros instantes de la evolución del Universo... No, no creo que nos falte material de estudio en el futuro...

(¡Glup!) icon_eek.gif

___________________________________________________

Fin del articulo... smile_004.gif
___________________________________________________

#55 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 18 junio 2007 - 05:45

________________________________________________

IPB Image


Aurelio Climent


IPB Image

Profesor del Departamento de Física Aplicada.

Imparte las asignaturas de Electromagnetismo en 2º, además de diversas asignaturas en los cursos de Doctorado.

Es también Investigador en el Centro de Micro-Análisis de Materiales (CMAM).
___________________________________________________


IPB Image

Física y Arte que no el "arte de la física". En la actualidad es impensable imaginar un gran museo o un departamento de arqueología que no reclame periodicamente los servicios de físicos para tareas de datación, estudio y conservación de obras de arte. Las más sofisticadas tecnologías: aceleradores, fluorescencias con Rayos X, etc. al servicio de nuestro patrimonio artístico. Si Leonardo da Vinci levantara la cabeza....

¿Física y Arte?....¿Física y poesía?

En realidad, al relacionar la Física con el Arte, se habla de los métodos físicos para estudiar o caracterizar determinados soportes físicos vinculados al arte. El arte, como toda manifestación humana que despierta en nosotros determinadas sensaciones, es demasiado general para asociarlo a la Física... Sin embargo, no creas que no es posible vincular física y poesía: pensemos en unos versos impresos en un papel de un poeta antiguo. Por medios físicos podemos estudiar las características de la tinta, o del propio papel, de donde extraeremos información valiosa que después, expertos en arte, interpretarán para autentificar la obra, para estudiar técnicas y métodos empleados en la elaboración de la obra de arte, etc.

Imagino que habrá tipo de obras, o soportes como lo denomináis vosotros, más frecuentes que otros...
Por citarte un ejemplo, se estudian con frecuencia objetos de bronce. Es decir, la aleación de cobre y estaño suele dar un montón de pistas relativas a la obra, la época, incluso la geografía. En esa aleación (el bronce), el elemento más importante es el estaño y a través del estudio de este material se puede deducir si había o no minas cercanas (con lo cual se situaría geográficamente la obra en una determinada zona), podemos saber si la extracción era difícil, lo cual se reflejaría en ahorro del material lo que sería causa de unas determinadas proporciones en la aleación, etc.

Son técnicas importantes para la detección de falsificaciones...

Desde luego. En la pintura, por ejemplo, si estudiamos determinados pigmentos y los materiales de base que lo forman, esta información traducida por el experto en arte, situará la obra en una época determinada. Supongamos un cuadro atribuido a un determinado artista del Renacimiento y al analizarlo presenta materiales que sabemos no se usaban en aquella época. Estaremos, entonces, con bastante probabilidad, ante un caso de falsificación...

Es decir, que vuestro trabajo es eminentemente técnico, que no entráis en valoraciones artísticas...

En efecto: el especialista en las técnicas analíticas aplicadas al arte colabora con el experto en arte o con el arqueólogo. La colaboración entre ambos especialistas es esencial.

Estas técnicas se utilizan, principalmente, para autenticar, es decir, aclarar si una obra pertenece o no a un determinado artista o época y para la datación o situación en el tiempo...

Autenticación-datación......Depende de las técnicas utilizadas. Hay técnicas específicas para la datación, como la termoluminiscencia o el carbono 14 (para las obras con presencia de carbono). Las técnicas para autenticar o descubrir procedencias, investigan la composición esencial de los materiales utilizados en la obra, como la composición isotópica. En el caso del plomo, la composición de isótopos, puede orientar sobre el lugar de extracción, y hay grupos que realizan este tipo de investigaciones.

___________________________________________________________

#56 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 23 junio 2007 - 12:43

______________________________________________________

Continuamos...

IPB Image


Quizá teníamos que haber empezado por el concepto de Arqueometría...

Bien, la Arqueometría es el uso de cualquier técnica de análisis aplicada a una obra de arte u objeto arqueológico.

Dentro de ese amplio espectro de técnicas, yo destacaría los análisis con haces de iones. Para nosotros tienen el interés de que su aplicación en España es reciente. Son técnicas de análisis de la composición elemental de los materiales, es decir, qué tipos de átomos componen la muestra y en qué proporción.

Destacaría especialmente una denominada PIXE (Particle Induced X-ray Emission), rayos X excitados por partículas, técnica cuyo fundamento físico es el mismo que la fluorescencia con rayos X o que EDAX (esta última consiste en analizar los rayos X producidos al bombardear la muestra con electrones en un microscopio electrónico de barrido (SEM)). La técnica PIXE es muy sensible para buscar elementos "traza".

¿Qué son los elementos traza?

Son elementos que existen en concentración muy baja en el material y que pueden resultar útiles para determinar su procedencia o alguna propiedad característica, podríamos decir que son las huellas dactilares del material. Dentro del campo del Arte, en el museo Louvre hay un acelerador de iones dedicado exclusivamente a analizar obras de arte. Por citar un ejemplo entre miles, hace algún tiempo hicieron el estudio de una estatuilla, una diosa Parta (creo que es la diosa Istar), que tenía unos rubíes en los ojos, la boca y el ombligo. Se trataba de descubrir, los Partos vivían por Mesopotamia, el origen de los rubíes.

IPB Image

Pues bien: a través de esos elementos traza, se llegó a la conclusión de que los rubíes procedían de Birmania, el lugar del Mundo de donde proceden los rubíes más apreciados. Los elementos traza son algo así como las "impurezas" de un material, aquello que lo convierte en único.

La intervención de la Física en la autenticación de piezas artísticas significa también la posibilidad de realizar copias absolutamente idénticas, de tal manera que desaparezca el valor del propio original...

Copiar, falsificar... En principio, copiar es más fácil que crear, eso está claro. Está el caso del oro tumbaga del antiguo Perú... mediante una ingeniosa técnica aleaban oro y cobre de forma que la superficie del objeto quedaba enriquecida en oro. Las figuras de oro tumbaga son muy valiosas y hay falsificaciones que se han descubierto por estar realizadas con oro de una pureza muy superior. Claro, con las técnicas de que hablamos, este tipo de “errores” ya no se cometerían y, en ese sentido, parece que el principal afectado sería el mercado del arte.

¿Cuál es el mercado de estas técnicas? Porque imagino que deben ser caras...

Museos, Departamentos Universitarios de Arte y Arqueología, entidades públicas, empresas privadas relacionadas con el mundo del Arte como galerías o joyerías... En nuestro caso del acelerador del Campus de la UAM tenemos acuerdos de colaboración con entidades públicas y empresas y, desde luego, una relación especial con la UAM.

Antes hiciste referencia a lo novedoso de estas técnicas en España... ¿Es distinto en otros países?

Comparado con otros países industrializados ha sido diferente, de hecho valdría la pena realizar un estudio que dilucidara el porqué...Estas técnicas, aunque son muy recientes en España, vienen utilizándose en los laboratorios de los países industrializados desde los años 70, aunque ya antes se sabía de su potencial utilidad. Los primeros aceleradores, de los años 30, se utilizaban para estudiar las propiedades de los átomos y núcleos atómicos, fueron evolucionando siempre en la búsqueda de unas mayores energías para poder profundizar más en el núcleo atómico.

A finales de los 60 y principios de los 70 muchos de los aceleradores que se habían quedado obsoletos en Física Nuclear, gracias al progreso de los detectores de partículas, se reciclaron hacia aplicaciones analíticas, menos exigentes en cuanto a energía máxima alcanzable. Entre las varias disciplinas a las que se aplicó las técnicas analíticas con haces de iones estaba la arqueometría.

A principios de los 80 se empezaron a construir ya aceleradores específicos, de baja energía, que es cuando surge la implantación iónica y otras técnicas basadas en aceleradores de interés industrial para la microelectrónica y ciencia de materiales. España en esa época, aun no dedicaba demasiado dinero para la investigación; mientras, en gran parte de Europa, Los Estados Unidos, Japón y otros países de prácticamente todos los continentes, los aceleradores se convertían en una tecnología bastante común.

He visto en vuestra web un "aparato" espectacular, imagino de esa generación de aceleradores específicos...


IPB Image

IPB Image

El corazón del Centro de Micro-Análisis de Materiales, del CMAM, es un acelerador electrostático de iones de tipo tandem, es decir, de dos etapas, capaz de alcanzar una tensión de terminal de cinco millones de voltios. Es el segundo acelerador de esta clase que se instala en España. El otro está en Sevilla, un acelerador de tres millones de voltios que se puso en marcha en 1998. El nuestro está funcionando desde el 2002. Ambos son muy jóvenes.

Recuerda que hace un momento mencioné que el principal interés de estas técnicas, de cara a nuestro desarrollo tecnológico, es su novedad en España. En líneas generales, el funcionamiento de un acelerador electrostático tandem del que venimos hablando, es muy sencillo. En una etapa previa, en una fuente de iones se crean iones negativos. Éstos son preacelerados e inyectados en la entrada del tanque del acelerador en cuyo centro se encuentra el terminal de alto voltaje. En esta nueva etapa, llamémosle etapa uno, el terminal, con tensión positiva, atrae hacia si a los iones negativos.

En su paso a través del terminal los iones pasan por un tubo que contiene gas de nitrógeno a baja presión de forma que los iones negativos, al interaccionar con las moléculas de gas pierden electrones y se convierten en iones positivos. Se inicia ahora la que podemos llamar etapa dos, en la que el terminal, con voltaje positivo, repele los iones hacia la salida del acelerador. Este proceso de aceleración con dos etapas es lo que le confiere el nombre de acelerador tipo tandem.

Ya una vez el haz de iones ha salido del acelerador, se conduce mediante lentes electrostáticas, imanes de conmutación y lentes electromagnéticas hacia una de las líneas con la cámara de experimentación donde está situada la muestra que queremos analizar. En el CMAM hay una línea dedicada a Arte y Arqueometría que tiene la peculiaridad de que el haz de iones se puede focalizar hasta alcanzar un tamaño de algunas decenas de micrómetros, y, además, se puede extraer al aire lo que evita tener que someter a vacío (bajas presiones ambientales) el eventual objeto de arte que se analice.


Estas técnicas, ¿representan algún tipo de riesgo para el objeto?

IPB Image

Es muy importante utilizar técnicas no destructivas para caracterizar obras de arte... No en un sentido microscópico, porque cualquier análisis sobre la obra, por muy inofensivo que parezca, repercute sobre la misma, sino en un sentido macroscópico, es decir, que la posible alteración no sea apreciable al ojo humano. En este sentido, y tomando las necesarias precauciones al hacer el análisis, se puede afirmar que las técnicas de análisis con haces de iones utilizadas en Arqueometría son no destructivas.

¿Estáis trabajando, ahora, en algún proyecto concreto?...

¡De hecho tenemos mucho trabajo acumulado!...Tenemos pendientes análisis con el depto. de Arqueología de esta universidad, con el Museo Arqueológico, con universidades europeas como Génova o Florencia. Hace poco estuvimos analizando la tinta de dibujos del Museo del Prado de pintores italianos del siglo XVI, en particular de Luca Cambiaso y su escuela, cerámicas del Museo de América y otros. En breve tenemos previsto estudiar el tesoro visigodo de Torrejimeno...

IPB Image


___________________________________________________________________

Fin del articulo
___________________________________________________________________




____________________________________________________________

#57 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 25 junio 2007 - 11:30

___________________________________________________


IPB Image


Francisco Jaque


IPB Image

Catedrático del Departamento de Física de Materiales de la UAM.

En la actualidad imparte clases de: Laboratorio de primer curso, así como las asignaturas Bases Físicas del Medioambiente y la optativa Luz y Medioambiente, en Ciencias Mediambientales



¿Cuál es la relación entre Física y medioambiente?

Vamos a ver: la presencia de la Física en el medioambiente y en las técnicas de control y medición de contaminantes se centra en tres áreas: el Sol, la Atmósfera, alta y baja
(estratosfera y troposfera), y la Tierra. Si consideramos la Atmósfera, nos adentramos en la
Física de Fluidos. ¿Porqué?, pues por que si hablamos de la contaminación atmosférica, esta se desplaza según la Dinámica de la propia Atmósfera.
Un ejemplo lo tenemos en la catástrofe de Chernobil, que sucede en Rusia pero que a los pocos días se detecta en Escocia, como consecuencia de un movimiento de masas de aire. De modo que conocer la Dinámica de la baja atmósfera, aquella que va desde el suelo hasta los 10.000 m. de altura, es fundamental para entender y predecir accidentes en nuestro medioambiente.

Pero es que además, la contaminación atmosférica está "globalizada": puede existir un crecimiento del agujero de Ozono localizado en el centro de Europa (en el Hemisferio Sur es donde este fenómeno se manifiesta de manera más contundente) que, en pocas semanas, se desplace hasta el hemisferio Sur. Y para conocer la Mecánica de Fluidos tienes que conocer, a su vez, las bases fundamentales de la Física: las leyes de la Mecánica; de la Conservación de la Cantidad de movimiento, Momento angular, de la Energía así como otros procesos físicos como la propagación de Ondas sonoras y electromagnéticas, etc., etc. Otro ejemplo: caso Prestige.

Para conocer los desplazamientos de las corrientes marinas, que determinarán el desplazamiento a su vez de las manchas de petróleo, se emplean métodos físicos, de los que hablaremos después.


IPB Image


Has citado la capa de Ozono....


IPB Image

Si, la contaminación en el mar o en la atmósfera pertenece a la Física Troposférica. Pero si miramos la Estratosfera, nos encontramos con la capa de Ozono que, como sabéis, es un absorbente de la radiación ultravioleta. En este caso entonces estamos hablando de radiaciones electromagnéticas, del conocimiento de las ondas electromagnéticas, que representan el movimiento de los campos eléctricos y magnéticos.

De manera que, para conocer el daño que se está produciendo en la Capa de Ozono, usamos una gran variedad de procesos físicos: absorción, intensidad de la radiación, espectro electromagnético, etc. De nuevo, Física.

Un problema más global: el calentamiento de la Tierra y por tanto el cambio climático. Ahí la Física está tan implicada que vale la pena hacer un poco de historia sobre las personas que, en su momento, señalaron el camino:

En 1827, el matemático francés Fourier, observa, por primera vez, que ciertos gases, en particular el dióxido de carbono, retienen el “calor atmosférico”. Este fenómeno es similar al que él mismo ha visto en los invernaderos y por ello crea el termino "effet de serre".

Desde entonces, el "efecto invernadero" ha sido el nombre utilizado para designar este fenómeno. Tyndall, físico irlandés de finales del XIX, destacado por sus investigaciones sobre la dispersión de la luz a través de las suspensiones coloidales y de sus estudios sobre el deshielo, profundiza en el estudio del clima y observa que gases como el CO2 presentes en la atmósfera absorben la radiación infrarroja, que es aquella que emite la Tierra, y por tanto pueden afectar al equilibrio térmico de nuestro Planeta.

Y el tercero, el que realmente organiza toda la teoría del efecto invernadero y del calentamiento planetario, es el Premio Nobel de 1903, el sueco Arrhenius, un físico que trabaja en electroquímica.

De manera que fíjate si la Física tiene presencia en el conocimiento del medioambiente.


___________________________________________________________________

#58 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 27 junio 2007 - 10:37

_______________________________________________________


Sí, da la impresión de que la Física ha tenido una importancia decisiva....

Y la tiene...... Para hacer todo ese cálculo uno se apoya en la emisión del “cuerpo negro”, ya sea del Sol o de la Tierra, como “cuerpo negro” imperfecto como consecuencia de la presencia de los gases de efecto invernadero.....

Ahí me he perdido....

IPB Image

Bueno, un “cuerpo negro” es un cuerpo que emite toda la radiación igual que absorbe toda la radiación que le llega.

La potencia P radiada por un cuerpo negro perfecto viene dada por la ley de Stefan: P = sT4 en donde T es la temperatura en grados kelvin y s la constante de Stefen-Boltzmann. La radiación electromagnética que emite tiene su máxima intensidad a una longitud de onda (expresada en µ) dada por la ley de Wien: I ~ 3000/T . Así como la superficie del Sol se encuentra a una temperatura de ~ 6000 K su máxima intensidad se emite para una longitud de onda de 0.5 µ que corresponde al verde. Por otro lado, la superficie de la Tierra se encuentra a una temperatura media de ~290 K y por lo que emite una radiación cuyo máximo está centrado alrededor de 10 µ. Por tanto, si existen gases en la atmósfera que absorben esta radiación la energía emitida por la tierra se mantiene dentro de ella produciendo un sobrecalentamiento. Este fenómeno es el denominado Efecto Invernadero.


Entiendo.......Yo mismo a finales de agosto y en bañador....

Ja, ja, ja.....¡sí, algo parecido!

Perdóname....Nos habíamos quedado en la Estratosfera....

Bueno, hay, dentro del medioambiente, otros tipos de contaminación que también conciernen a la Física. El ruido es uno de ellos, una onda sonora que como sabes se mide en decibelios (dB).

Una contaminación muy peligrosa, por cierto y cuyo principal causante en las ciudades es el tráfico (¡tenemos un vehículo por cada tres habitantes, trece veces más que hace sólo 35 años!...). Fíjate, nosotros aquí, ahora, estamos a 50/60 dB.

Una iglesia o sala de conciertos (sin público ni músicos, claro), puede tener un nivel sonoro de 20/30 dB. Pero si recibes un ruido en tu oído que viene de fuera, o de dentro, y que se llama tinítus que padece mucha gente (¡yo, por ejemplo!), con solo 10 decibelios, menos ruido que el que hace una hoja al caer, te puedes volver loco si tu sistema de defensa no lo puede rechazar....

______________________________________________________

icon_eek.gif smile_004.gif
______________________________________________________

#59 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 29 junio 2007 - 12:05

_________________________________________________


Continuamos.....

IPB Image



¿Debo pensar que estoy ante el típico “físico loco”?......

Si....¡Digo, no!....A ver, no nos dispersemos..... Finalmente está la contaminación radioactiva, que entra también de lleno en el campo de la Física. Por una parte, estamos sometidos a los rayos cósmicos y, por otra, utilizamos la radioactividad para aplicaciones médicas y producir energía, hoy de fisión y, probablemente en el futuro, de fusión. No obstante, este campo está muy solapado con el área de la Química.

Me estaba preguntando si un conocimiento tan detallado del medioambiente realmente nos protege frente al futuro.....

Hombre, yo creo que el conocimiento físico profundo sí que sirve para concienciar a la gente....... Aunque es cierto que todavía estamos lejos de cumplir los acuerdos de Kioto. Fíjate que hoy en día, que se compra y se vende todo, también se compra la cuota de emisión de contaminantes que, en virtud precisamente de estos acuerdos, tenemos los países. Es decir, los países pobres venden su potencial contaminante a los países ricos o industrializados, simplemente porque son pobres, porque carecen de industria y, por lo tanto, de capacidad para contaminar. Esta inercia hay que romperla más pronto que tarde....

¿Hay algún proyecto de investigación en el que trabajes actualmente?


IPB Image

Actualmente trabajo en un estudio sobre la relación entre la contaminación atmosférica y el fallecimiento por enfermedades respiratorias en la Comunidad de Madrid. Y la verdad es que es impresionante: hemos encontrado que un pequeño aumento de 10 µgr/m3 de Ozono produce un aumento en el número de fallecimientos por causas respiratorias del 14% en personas mayores de 65 años.

¿Pero no habíamos quedado en que la contaminación ha disminuido?.....

Bueno, la contaminación, en contra de lo que pudiera parecer, no ha disminuido.

Más bien ha aumentado. Es decir, ha disminuido la concentración de SO2, de partículas, de óxidos de Nitrógeno, y componentes orgánicos volátiles.....pero el Ozono ha aumentado. Este es un contaminante atmosférico indirecto porque proviene de una reacción de los óxidos de Nitrógeno y de los componentes orgánicos bajo la radiación Ultravioleta solar.

(¡Glup! ) ¿Y qué es lo que podemos hacer? La verdad es que no es muy halagüeño el futuro...

Hombre, yo creo que hay que encontrar una fuente de energía no contaminante.

El gran problema es el calentamiento del planeta a lo que contribuyen, principalmente, el transporte, la industria y centrales térmicas.

Y solo hay dos energías importantes posibles: la fusión y la fisión.


Hay otra menos importante, aunque significativa, que es la energía eólica.

IPB Image


La fisión, la energía que se libera con la desintegración del átomo, la energía atómica, tiene muy mala prensa por la supuesta inseguridad de las centrales nucleares y sobre todo por el problema de los residuos radioactivos, etc.......

Sin embargo, a pesar de todo, es la energía mejor de que disponemos ahora y, muy al contrario de lo que estamos haciendo, deberíamos seguir investigando en residuos y seguridad nuclear hasta tener a punto la otra gran energía, por fusión, para la que todavía es necesario que pasen bastantes años.


___________________________________________________________


#60 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 02 julio 2007 - 07:30

______________________________________________

Continuamos....

IPB Image



Sí, eso lo he leído o me lo ha comentado algún otro físico.....¡No pasáis una!, ¿eh?....Qué nos queda.....¡Ah, sí! Las técnicas físicas que se aplican para todo esto....

La Física tiene una importancia enorme en las técnicas de detección de contaminantes atmosféricos. La mayoría de las técnicas que hoy en día se están utilizando para medir, in situ, los contaminantes atmosféricos son técnicas físicas. Si empezamos por el Ozono, observamos como el aumento en la precisión de las técnicas actuales ha influido mucho en la percepción de los problemas.

Hasta hace poco se pensaba que 120 microgramos de metros cúbicos de Ozono no eran peligrosos. Hoy sabemos, precisamente mediante técnicas de absorción ópticas, que variaciones de 10 microgramos son importantes en el nivel de contaminación para considerarlas nocivas (¡ten en cuenta que estamos hablando de partes por billón de Ozono!. Para que te hagas una idea, lo que representaría un solo blanco entre una población de mil millones de negros....).

Para medir la concentración de los óxidos de Nitrógeno se utilizan métodos por quimiluminiscencia; el SO2, por fotoluminiscencia, también una técnica física; para medir la concentración de partículas se utilizan técnicas de absorción beta o técnicas de dispersión de luz..... No obstante, en los últimos años adquiere mucha importancia la detección remota, la que se utiliza para medir los contaminantes a gran distancia. La utilización de la emisión Láser es muy utilizada en las técnicas remotas: un pulso de luz Láser, muy potente, puede viajar muchos Km. Pues bien, ese rayo de luz, al devolverlo la atmósfera, trae consigo información de lo que ha encontrado por el camino.

Hoy día estos láseres se empiezan a montar en satélites que posibilitan la medición de la contaminación en diferentes áreas del Mundo, incluido el mar. O en aviones, desde donde se puede medir si en una determinada área de un país está contaminada su flora, por ejemplo. A través de la excitación con radiación ultravioleta, las plantas emiten una luz de longitud de onda distinta si están sanas o contaminadas (si están sanas y tienen clorofila emiten en el rojo; si están dañadas, que se denomina estrés de las plantas, emiten en el azul).

Para la medición del ruido se utilizan materiales basados en los PZT, materiales cuyo fundamento está dentro de la Física. No hablemos ya de la radioactividad o de la fusión, es decir, la fabricación de plasma por confinamiento. Algo parecido a lo que se produce en el Sol, formación de plasma por millones de grados, y que nosotros tratamos de lograr por confinamiento magnético. Métodos físicos todos ellos, como verás.

______________________________________________

Fin del articulo
______________________________________________