Ir a contenido


Foto

UNA OJEADA A LA MATERIA (Libro Completo)


  • Inicia sesión para responder
16 Respuesta(s) a este Tema

#1 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 18 junio 2007 - 11:17

________________________________________________

UNA OJEADA A LA MATERIA


IPB Image


Autores: GUILLERMO AGUILAR SAHAGÚN / SALVADOR CRUZ JIMÉNEZ / JORGE FLORES VALDÉS


EDICIONES

Primera edición (La ciencia desde México), 1986

Primera reimpresión, 1995

Segunda edición (La Ciencia para Todos), 1997

La Ciencia para Todos es proyecto y propiedad del Fondo de Cultura Económica, al que pertenecen también sus derechos. Se publica con los auspicios de la Secretaria de Educación Pública y del Consejo Nacional de Ciencia y Tecnología.

D.R. Š 1987 FONDO DE CULTURA ECONÓMICA, S. A. DE C.V.

D.R. Š 1997 FONDO DE CULTURA ECONÓMICA

Carretera Picacho-Ajusco 227, 14200 México, D.F.

ISBN 968-16- 5267-3

Impreso en México

_______________________________________________

DEDICATORIA

A la memoria de Raquel cuya existencia fue tan breve como profunda su huella. G.A.S.

_________________________________________________

PREFACIO



La gran rapidez con que la ciencia y tecnología se han desarrollado en el mundo durante las últimas décadas ha tenido repercusiones sociales y culturales muy importantes. Actualmente, muchas de nuestras actividades cotidianas están vinculadas con algún producto de esa continua inquietud que por entender a la naturaleza manifiesta el hombre. Sin embargo, pocas veces nos preguntamos sobre el origen y la magnitud del esfuerzo realizado por esa fracción de la humanidad, los científicos, dedicados al estudio de los fenómenos naturales, el dominio de los cuales trae como consecuencia el desarrollo tecnológico que, a su vez, produce un cambio en nuestra vida diaria.

La física ha sido siempre pilar fundamental del desarrollo científico, y en este libro deseamos presentar, en parte, el estado actual de esta ciencia. Se escribió tomando en cuenta al lector de cultura general, de manera que hemos omitido, hasta donde ha sido posible, el uso del lenguaje técnico. Hemos incluido una gran cantidad de ilustraciones vinculadas con el contenido del texto; sus pies de grabado permiten al lector enterarse del contenido básico del libro, al grado que puede leerse también en el material gráfico. Finalmente, deseamos hacer notar que el contenido didáctico de este libro puede ser de gran utilidad para el estudiante que se inicie en el estudio de la física.

NOTA

Este libro dirigido al estudiante, al lector interesado, fue dividido por sus autores en dos partes. La segunda de ellas es exclusivamente gráfica. Se propone, en consecuencia, una lectura paralela, aunque admite la separada, puesto que la secuencia y los pies de grabado del material gráfico están concebidos de modo que puede "leerse" en forma independiente, siguiendo la evolución de los descubrimientos así como su relación con múltiples aspectos del saber y del arte humanos.

[E.]

_____________________________________________________

PRIMERA PARTE



I. ESTADOS DE LA MATERIA
II. MUCHAS OTRAS PREGUNTAS
III. EL ATOMISMO DE LOS GRIEGOS
IV. LA MECÁNICA DE GALILEO Y NEWTON
V. LA GRAN SÍNTESIS DE MAXWELL
VI. RENACE EL ATOMISMO
VII. LA LUZ DE LOS ELEMENTOS
VIII. LAS PRIMERAS IDEAS CUÁNTICAS
IX. EL ÁTOMO TIENE ESTRUCTURA
X. EL MODELO DE BOHR
XI. LA NUEVA FÍSICA
XII. EL ÁTOMO DE HIDRÓGENO
XIII. ÁTOMOS COMPLEJOS
XIV. OTRA VEZ LA TABLA PERIÓDICA
XV. LA FORMACIÓN DE LAS MOLÉCULAS
XVI. LOS ACELERADORES ATÓMICOS
XVII. A MANERA DE RESUMEN
XVIII. LOS CONSTITUYENTES DEL NÚCLEO
XIX. LOS ACELERADORES NUCLEARES
XX. MODELOS TEÓRICOS DEL NÚCLEO
XXI. LA FÍSICA DE PARTÍCULAS MUY VELOCES
XXII. LA MECÁNICA CUÁNTICA RELATIVISTA
XXIII. LA HISTORIA DE LOS CRISTALES
XXIV. TEORÍA ATÓMICA DE LOS CRISTALES
XXV. ALGUNAS PROPIEDADES DE LOS SÓLIDOS
XXVI. EL MODELO DE PARTÍCULAS INDEPENDIENTES
XXVII. IMPUREZAS Y SEMICONDUCTORES
XXVIII. LA SUPERCONDUCTIVIDAD


_________________________________________________________

I. ESTADOS DE LA MATERIA



HIELO, agua, vapor... tan distintos en apariencia e idénticos en lo esencial. El hielo, frío y que mantiene su forma; el agua, líquida y que adopta la forma de su recipiente; el vapor de agua, caliente, que tiende a llenar todo el espacio que lo contiene. Sin embargo, éstas son tan sólo tres formas distintas -fases, las llaman los físicos- de la misma sustancia, el agua.

Cambiando su temperatura, el agua puede pasar de una fase a otra. Y esto no sólo se da en ella sino que ocurre con todas las sustancias. Con el paso de las diversas civilizaciones, el hombre ha inventado y descubierto procesos y máquinas que le permiten dar a una sustancia la fase deseada: sólida, líquida o gaseosa. Los hornos de las fundiciones son capaces de derretir metales como el hierro, plomo y otros; hay fábricas que producen hielo seco, que no es otra cosa que el bióxido de carbono solidificado. Y tenemos máquinas que licuan el aire, refrigeradores que solidifican el agua y calderas que la vaporizan.

Estas máquinas alteran no sólo la temperatura de la sustancia, sino que también cambian su presión o su volumen. La relación entre estos tres factores, temperatura, presión y volumen, depende de la fase en que se encuentre la sustancia. Esta relación, que resume un enorme conjunto de observaciones experimentales, era conocida, en muchos casos, desde hace bastante tiempo. Así, desde el siglo XVII se conocían las leyes de los gases, formuladas por Boyle, Mariotte, Charles y Gay Lussac, y que se pueden resumir diciendo que el producto de la presión por el volumen es proporcional a la temperatura del gas.

Esta relación es válida para todas las sustancias gaseosas a muy baja presión; en el caso opuesto, cuando la presión es muy alta, como la que se produce después de una explosión, también es posible encontrar relaciones entre la presión, el volumen y la temperatura, que son de carácter muy general. Para valores intermedios de la presión, las cosas se complican y ya no es posible hallar relaciones simples. Los físicos y los químicos han recurrido entonces a los diagramas PVT, que les permiten observar las condiciones en que se dan cada una de las fases, y el tipo de proceso que puede llevar de una a otra.

Entre las condiciones de presión y temperatura, existe una, la llamada condición normal, porque es muy parecida a la que soportamos en la vida cotidiana. La condición normal se da a una temperatura de 20°C y a una presión de una atmósfera. En condiciones normales, el agua es líquida, el oro y la plata son sólidos, y el hidrógeno, el oxígeno y el hielo se presentan en su fase gaseosa. żPor qué ocurre esto?

Resolver este porqué, y muchos otros que luego veremos, constituye un reto al que se da el nombre de física. Narrar un poco de su historia y de la situación en que se encuentra hasta nuestros días, forman el relato que ahora emprenderemos.

________________________________________________________

#2 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 22 junio 2007 - 08:05

_________________________________________________


II. MUCHAS OTRAS PREGUNTAS



A LO largo de su historia, el hombre acumuló experiencias y un enorme conjunto de observaciones sobre el mundo que lo rodea. Aprendió incluso a hacer experimentos, o sea observaciones en condiciones controladas por él y sujetas a repetición.

Con ello surgieron cuestiones, cuya solución siempre llevó a nuevas cuestiones. Así, después de descubrir las leyes de los gases, los científicos se preguntaron qué habría detrás de ellas, pues eran tan generales. Y cuando descubrieron que el helio, el neón, el argón y otros, eran gases raros, muy nobles, que no reaccionan químicamente, surgió el problema de entender por qué.

Desde que Arquímedes, en la antigua Grecia, exclamó Eureka! hasta nuestros días, el hombre ha experimentado con fluidos: líquidos y gases. El ascenso de un líquido por un tubo capilar, la forma que toman las gotas de agua o las pompas de jabón y la existencia de meniscos cóncavos o convexos en la superficie de un líquido, son tan sólo unos cuantos ejemplos de las interrogantes que se presentan a los físicos.

Y en el caso de los sólidos las preguntas pueden aun ser más variadas. Aunque la división no es tajante, se puede clasificar a los sólidos en dos grandes tipos: los metales y los que no lo son. Los metales son dúctiles, sólo se funden a muy altas temperaturas, conducen bien el calor y la electricidad, se dilatan con pequeńos cambios de temperatura y son opacos a la luz reflejando bien la radiación. Por su parte, los no-metales tienen las propiedades opuestas: son quebradizos, se funden fácilmente, son aisladores eléctricos y térmicos, dejan pasar la luz y no se dilatan fácilmente.

Además, los sólidos pueden presentarse en diversas formas: el mismo carbono que aparece en los restos de una fogata, puede hallarse en un escaparate fastuoso o en la puntilla de un lápiz. Cambiando las condiciones de presión y temperatura, se le puede llevar de una estructura amorfa hasta que aparezcan las hermosas facetas, perfectamente planas, de los diamantes cristalinos. De la dureza de éstos a la blandura del grafito, podemos ir también. żPor qué sucede todo ello con los sólidos? żEn qué radica la diferencia entre un metal y un no-metal?

Curiosamente, algunas de las respuestas a estas viejas preguntas son de origen muy reciente. Puede decirse que no se conocían antes de la primera Guerra Mundial. Es precisamente en el periodo de entre guerras, luego de la invención de la física cuántica, que los científicos empezaron a hallar algunas respuestas satisfactorias. Para ello hubieron de romper muchos tabúes, desechando muy viejos conceptos e inventando otros nuevos, que todavía hoy no están completamente claros. Veamos a vuelo de pájaro cómo ocurrió este proceso.


III. EL ATOMISMO DE LOS GRIEGOS



COMO nos interesa aquí relatarla, la historia de la física, o filosofía de la naturaleza, empieza con Demócrito, cuatrocientos ańos antes de Cristo. En la antigua Grecia, Demócrito y sus discípulos profesaban la doctrina del atomismo, según la cual las partes más elementales de la materia son diminutas, sólidas, incompresibles e indivisibles. Siendo indivisibles, se les llamó átomos. Demócrito afirmaba que los cambios ocurrían en el universo según se colocaban esas minúsculas partículas; las propiedades de la materia, por su parte, correspondían a las características de los átomos que la formaban. Con ello, la concepción del mundo era más objetiva, ya no dependiente de los caprichos del hombre; Las sensaciones de dulce, amargo y ácido, se debían a átomos con diferentes características: átomos lisos, sin protuberancias que rasguen y que irriten nuestros sentidos, producirían una sensación dulce, mientras que átomos rugosos o con aristas cortantes nos dejarían una sensación amarga o ácida.

Aunque la doctrina de Demócrito pueda parecer ahora ingenua, se deben reconocer sus grandes implicaciones filosóficas. La naturaleza se separa del albedrío humano y se hace externa, independiente, aun indiferente al hombre.

Contrasta esta concepción atomista de la naturaleza con las ideas platónicas, según las cuales un pensamiento ordenador había construido al mundo, siendo los elementos últimos de la materia los cuerpos simples, los poliedros regulares. El tetraedro, el más sutil, el más agudo, es el constituyente del fuego; el octaedro, el del aire, que puede descomponerse en dos tetraedros; el cubo, el de la tierra y él icosaedro, el del agua. Con ello se explican los cuatro elementos de Empédocles, quedando suelto el último elemento, al cual correspondería el otro poliedro regular, el dodecaedro; parece ser que Dios empleó el dodecaedro para el Todo, cuando dibujó el orden final. Contrasta esta geometrización de la física, en la que los entes más elementales son los cuerpos platónicos, con el número ilimitado de posibilidades que ofrecen Demócrito y su escuela.

Muy poco de nuevo nos proponen para entender la estructura de la materia Aristóteles y su escuela, o la ciencia medieval. De hecho, antes del siglo XIX, los grandes científicos se ocuparon más bien del movimiento macroscópico de los cuerpos y de la astronomía, y no fue sino hasta los trabajos del químico francés Joseph Proust y de su colega inglés John Dalton, que el concepto atómico de Demócrito revivió y tomó su lugar en la ciencia.


____________________________________________________

#3 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 25 junio 2007 - 11:37

________________________________________________

Continuamos...



III. EL ATOMISMO DE LOS GRIEGOS



COMO nos interesa aquí relatarla, la historia de la física, o filosofía de la naturaleza, empieza con Demócrito, cuatrocientos ańos antes de Cristo. En la antigua Grecia, Demócrito y sus discípulos profesaban la doctrina del atomismo, según la cual las partes más elementales de la materia son diminutas, sólidas, incompresibles e indivisibles. Siendo indivisibles, se les llamó átomos.

Demócrito afirmaba que los cambios ocurrían en el universo según se colocaban esas minúsculas partículas; las propiedades de la materia, por su parte, correspondían a las características de los átomos que la formaban. Con ello, la concepción del mundo era más objetiva, ya no dependiente de los caprichos del hombre;

Las sensaciones de dulce, amargo y ácido, se debían a átomos con diferentes características: átomos lisos, sin protuberancias que rasguen y que irriten nuestros sentidos, producirían una sensación dulce, mientras que átomos rugosos o con aristas cortantes nos dejarían una sensación amarga o ácida.

Aunque la doctrina de Demócrito pueda parecer ahora ingenua, se deben reconocer sus grandes implicaciones filosóficas. La naturaleza se separa del albedrío humano y se hace externa, independiente, aun indiferente al hombre.

Contrasta esta concepción atomista de la naturaleza con las ideas platónicas, según las cuales un pensamiento ordenador había construido al mundo, siendo los elementos últimos de la materia los cuerpos simples, los poliedros regulares. El tetraedro, el más sutil, el más agudo, es el constituyente del fuego; el octaedro, el del aire, que puede descomponerse en dos tetraedros; el cubo, el de la tierra y él icosaedro, el del agua.

Con ello se explican los cuatro elementos de Empédocles, quedando suelto el último elemento, al cual correspondería el otro poliedro regular, el dodecaedro; parece ser que Dios empleó el dodecaedro para el Todo, cuando dibujó el orden final. Contrasta esta geometrización de la física, en la que los entes más elementales son los cuerpos platónicos, con el número ilimitado de posibilidades que ofrecen Demócrito y su escuela.

Muy poco de nuevo nos proponen para entender la estructura de la materia Aristóteles y su escuela, o la ciencia medieval. De hecho, antes del siglo XIX, los grandes científicos se ocuparon más bien del movimiento macroscópico de los cuerpos y de la astronomía, y no fue sino hasta los trabajos del químico francés Joseph Proust y de su colega inglés John Dalton, que el concepto atómico de Demócrito revivió y tomó su lugar en la ciencia.



IV. LA MECÁNICA DE GALILEO Y NEWTON


HUBO de llegar el Renacimiento europeo, tan vivo e innovador, para que la ciencia moderna y sus reglas comenzaran a definirse. El misterio de las catedrales góticas y de la alquimia quedan atrás. Se invita a la experimentación en muchos ámbitos y no tarda en surgir un Galileo, quien tal vez sea el primer físico experimental en el sentido que hoy damos a este término.

Pocos ańos después, el gran Newton hace cuatro contribuciones fundamentales al avance de la física: formula las leyes de movimiento de los cuerpos, descubre la ley de la gravitación universal, postula que la luz está formada por corpúsculos e inventa el cálculo infinitesimal. Pocos habrían de hacer tantas y tan notables contribuciones a la ciencia.

Aunque Newton no las formuló así, es conveniente para nuestros propósitos posteriores hacer un breve resumen de las leyes del movimiento, que son tres, y que constituyen la base de lo que llamamos la mecánica clásica. Newton se dio cuenta de que para describir el movimiento de una partícula se requiere de un marco de referencia, o sea de un sistema de coordenadas, que nos ayude a fijar la posición de la partícula, y de un sistema de relojes, que nos indique cómo transcurre el tiempo. Entre todos estos sistemas de referencia, postulamos que existe uno en que una partícula aislada se moverá con velocidad constante, tanto en magnitud como en dirección.

A este sistema de referencia le llamaremos inercial.

Además, si existe otro sistema de coordenadas que se mueva con velocidad constante respecto a uno inercial, ese otro sistema también será inercial. Es decir, si existe un sistema inercial, habrá un número infinito de ellos. Postulamos también que las leyes de la mecánica no dependen del sistema inercial que se elija. A este último postulado, se le llama principio de relatividad de Galileo.

Ambos postulados constituyen la primera ley de movimiento, que es una ley muy general y válida no sólo en el mundo clásico de la física, sino también en el mundo relativista de Einstein que luego describiremos. Y, lo que es más, también válida en el dominio de la física microscópica, la mecánica cuántica.

Esta ley, pues, formulada como hemos indicado, ha resistido todos los embates de miles y miles de físicos y los resultados de una enormidad de experimentos y observaciones a lo largo de tres siglos.

Luego tenemos la segunda ley de Newton, que define la fuerza, resultado de la acción de un cuerpo sobre otro, y que es igual al producto de la masa por la aceleración que sufre ese cuerpo. Esta ley ya no resistió la revolución cuántica y fue reemplazada por otras, de mayor generalidad, como luego veremos. Tiene una jerarquía, pues, menor que la primera ley.

Finalmente, la tercera ley de Newton es todavía más particular y nos dice que a toda acción que un cuerpo ejerce sobre otro, corresponde una reacción que éste último ejerce sobre el primero; la reacción es igual en magnitud y dirección a la acción pero de signo opuesto.

Si juntamos tres de las cuatro grandes contribuciones de Newton, las leyes de movimiento, la gravitación y el cálculo diferencial, podemos explicarnos la rotación de los planetas alrededor del Sol regidos por las leyes que el astrónomo real de Dinamarca, Kepler, descubrió al resumir sus observaciones sobre las órbitas de los planetas.

No es este un logro menor; desde la más remota antigüedad había intrigado este problema al hombre de todas las civilizaciones.

__________________________________________________________


#4 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 29 junio 2007 - 12:13

__________________________________________________

Continuamos... una sintesis de conocimientos fisicos realmente notable.

UNA OJEADA A LA MATERIA

IPB Image


_____________________________________________________________


V. LA GRAN SÍNTESIS DE MAXWELL


YA LOS antiguos se preocupaban por los fenómenos eléctricos y magnéticos. Los chinos descubrieron la brújula, los griegos bautizaron a la electricidad con la palabra electrón: ámbar. Los rayos habían generado multitud de leyendas, al ser considerados siempre manifestación de la ira de los dioses. Pero llegó el Siglo de las Luces, y un puńado de brillantes experimentadores franceses e ingleses establecieron las leyes, válidas hasta el día de hoy, de la electricidad y el magnetismo.

Charles Coulomb, usando una balanza de torsión, estableció la fuerza entre los polos de dos imanes y entre cuerpos electrizados. Demostró que esta fuerza entre dos cargas es semejante a la que rige la ley newtoniana de la gravitación: las fuerzas son inversamente proporcionales al cuadrado de las distancias que separan a los cuerpos. Por la misma época, André Marie Ampère, otro físico y matemático francés, descubrió la ley fundamental de la electrodinámica: una corriente eléctrica, o sea una carga en movimiento, produce un campo magnético.

Finalmente, el químico y físico inglés Michael Faraday descubrió la inducción electromagnética, en que se genera una corriente en un circuito cuando se le sujeta a un campo magnético variable. Así se convirtió al magnetismo en electricidad, como él una vez dijo. Con ello se cerraba el ciclo y se unían los fenómenos eléctricos y magnéticos, que muestran una sola asimetría: no existe la carga magnética, el famoso monopolo magnético, es decir, los imanes tienen dos polos, o sea, al partir un imán obtenemos otro de la misma naturaleza..

La síntesis no se hizo esperar. Tan sólo cuatro décadas después del descubrimiento de Faraday, el gran físico escocés James Clerk Maxwell publicaba su Tratado sobre electricidad y magnetismo, uno de los mayores logros del genio individual en la historia de la cultura. En él, Maxwell hace suya la idea de campo, propuesta por Faraday y que se opone a la de acción a distancia introducida por Newton. En todo el espacio en que hay cargas e imanes, existen dos campos, el eléctrico y el magnético; cambios en uno de ellos, inducen cambios en el otro, como nos dicen las leyes de Ampère y de Faraday. Al plantear sus famosas ecuaciones, surge inevitablemente para Maxwell el carácter electromagnético de la luz. En sus propias palabras: "Es difícil no inferir que la luz consista en oscilaciones transversas del mismo medio que es la causa de los fenómenos eléctricos y magnéticos." Este medio es el éter.


VI. RENACE EL ATOMISMO


YA MENCIONAMOS a Proust y a Dalton, quienes mostraron que al combinarse algunos elementos químicos para formar compuestos, lo hacen siempre de manera tal que las cantidades de un cierto elemento que se combinan con las de otro cualquiera, están siempre en proporción a sus pesos, y serán siempre múltiplos enteros de uno al otro. Dalton concluyó que esta ley se puede explicar si se supone que los elementos están formados por átomos, siendo los compuestos químicos la combinación del átomo de un elemento con uno o más átomos de algún otro elemento. La hipótesis atomista de Demócrito, formulada más de 2000 ańos antes, tomó nueva vida con los trabajos de Dalton.

La teoría atómica de la materia avanza incontenible en el siglo XIX, mano a mano con la revolución industrial. Amadeo Avogrado, físico italiano, distingue claramente entre átomo y molécula, que seria la unión de varios átomos, y establece la llamada ley de Avogadro, válida para los gases perfectos o ideales: iguales volúmenes de diferentes gases, a la misma presión y temperatura, contienen el mismo número de moléculas.

El químico ruso Dimitri Mendeleiev, por su parte, arregla los elementos de acuerdo a su peso atómico y establece conexiones entre las propiedades de diferentes substancias. Genera así la tabla periódica de los elementos, que él consideraba no como un mero sistema para clasificarlos, sino como una ley de la naturaleza, que podría ser usada para predecir nuevos hechos. Con ella predijo la existencia de nuevos elementos, que faltaban en su tabla periódica; su profecía se cumplió pocos ańos después, al descubrirse el galio, el escandio y el germanio. Ahora sabemos que esta tabla y sus regularidades en si no constituyen una ley de la naturaleza, sino que pueden explicarse por la teoría cuántica de los átomos complejos. Esto, sin embargo, no ocurrió sino hasta cerca de 60 ańos después de los trabajos de Mendeleiev.

Una vez aceptada la teoría atómica de la materia, los físicos del siglo XIX desarrollaron la teoría cinética de los gases. Según ella, un gas está formado por un gran numero de moléculas (o de átomos) en continuo movimiento regido por las leyes de Newton. Cuando alguna de estas moléculas choca con la pared del recipiente que contiene el gas, ejerce una fuerza sobre esa pared: esta es la versión cinética de la presión. También la temperatura se puede explicar. Al moverse con una cierta velocidad, una partícula de masa dada tiene una energía cinética igual al producto de su masa por la mitad del cuadrado de la velocidad. La temperatura es proporcional a la energía cinética promedio de las moléculas en el gas.

Elevar su temperatura significa dar mayor movilidad a las moléculas. Con estos conceptos de presión y temperatura, la teoría cinética explicó las leyes de los gases, lo que dio más fuerza al atomismo. Para propósitos posteriores, es conveniente recalcar aquí que para lograr tanto éxito, la teoría cinética de los gases se concentró sólo en el movimiento de moléculas, sin tomar en cuenta que una de ellas podría chocar con alguna otra. A un modelo tal, lo llamamos ahora modelo de partícula independiente.

Cuando bajamos la temperatura, la energía cinética de las moléculas disminuye y se puede llegar a un punto en que las moléculas estén casi en reposo, a lo más oscilando respecto a una posición de equilibrio. Es obvio que esto es un sólido. Si las posiciones de equilibrio de las moléculas forman un arreglo ordenado, como en una greca, entenderíamos las hermosas facetas de un cristal; si el ordenamiento no es tan perfecto, tendríamos un sólido amorfo. żCuál de estos ha de ser el caso? o żcuál será el arreglo preferido para una sustancia dada? No podemos averiguarlo, a menos que conozcamos más de cerca a las moléculas y al átomo.

____________________________________________________________

#5 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 02 julio 2007 - 03:23

_____________________________________________________

Continuamos...

UNA OJEADA A LA MATERIA



VII. LA LUZ DE LOS ELEMENTOS


LA FÍSICA macroscópica llegó a establecer sus leyes viendo a los objetos. De esta manera, Galileo estableció la ley de la caída libre de los cuerpos y Kepler encontró las leyes del movimiento de los planetas. El agente que lleva la información del sistema físico al observador, al físico o astrónomo experimental, es la luz que penetra su sentido de la vista. La óptica, que estudia la luz, habría de desempeńar, pues, un papel esencial en el desarrollo de la teoría atómica de la materia.

La luz fascinó siempre al hombre y desde luego a los grandes científicos. A la óptica se dedicaron también Galileo y Newton. Este último, en 1660, observó el fenómeno de descomposición de la luz blanca en diferentes colores al pasarla a través de un prisma. Dos siglos después, Bunsen desarrolló el mechero que lleva su nombre y que revolucionó los trabajos en el laboratorio químico. Jugando con su mechero, Bunsen observó que los diferentes elementos emiten luz de colores característicos. Su espectro de emisión de luz, como se le llamó, es discreto, a diferencia del espectro de la luz blanca, superposición de todos los colores, que es un espectro continuo.

Con ello teníamos un arma poderosa para el análisis elemental de una substancia. Bastaba ponerla en la llama de un mechero y forzarla a que emitiera luz. Luego se analizaba su espectro de emisión, pasando la luz que producía por un prisma, como hizo Newton. Viendo qué colores emitía y comparándolos con los de los distintos elementos, era fácil deducir su contenido. Esta es la base de la espectroscopia óptica y el instrumento utilizado para producir y analizar la luz se llama espectroscopio óptico.

Los descubrimientos de Bunsen, aunados a la teoría electromagnética de la luz propuesta por Maxwell, permitieron establecer la relación entre el color de la luz y la frecuencia de la onda electromagnética. El espectro de emisión de un átomo corresponde a la emisión de ondas electromagnéticas de frecuencias particulares.

Pero ahora podemos proceder a la inversa. No dejar que los elementos emitan luz, sino que la absorban. Tomando, por ejemplo, vapor de sodio, hacemos pasar por él un haz de luz blanca y observamos la luz que lo cruza en un espectroscopio. Se encuentran que el espectro es continuo salvo por unas líneas oscuras, que son exactamente del mismo color de los rayos que emite el sodio.

Este nuevo espectro, llamado de absorción, es el negativo del espectro de emisión. Los elementos emiten y absorben luz con los mismos colores característicos. A través de una mica transparente de color rojo, todo lo vemos rojo.

El estudio de los fenómenos de absorción de la luz, se logra recurriendo a una nueva forma de hacer experimentos, más activa. Ya no esperamos a observar pasivamente a que un átomo o molécula emita radiación electromagnética y luego contentarnos con analizarla en un prisma. Ahora forzamos la interacción de un agente externo -la luz- con el sistema que queremos estudiar.

Observando lo que ocurre después de esta colisión, concluimos sobre las propiedades del sistema. Esto constituye toda una nueva forma de ver, más controlada, a los objetos, que no son ya necesariamente macroscópicos. Nos permite penetrar a su interior. Como veremos luego, éstas y otras espectroscopias, en que el agente no sólo es la luz sino incluso partículas, átomos, moléculas y otros, constituyen la base de la física moderna, y nos han permitido averiguar muy a fondo la estructura de la materia.


VIII. LAS PRIMERAS IDEAS CUÁNTICAS


LAS primicias cuánticas se deben a Planck y a Einstein. En la Navidad de 1900, el gran teórico alemán Max Planck presentó ante la Academia de Ciencias de Berlín un postulado extrańo. Para explicar la radiación que emiten los cuerpos incandescentes, Planck se vio forzado a suponer que la energía electromagnética se produce y propaga en múltiplos de un paquete de energía, cuanto como lo llamó.

El cuanto de energía es proporcional a la frecuencia de la onda, con una constante de proporcionalidad h, que luego llevó el nombre de Planck. Con esta rara suposición, tan ajena a la física clásica, Planck pudo explicar lo que se observaba experimentalmente para la radiación que emitía un cuerpo cuando se aumenta su temperatura. La idea de los cuantos se origina, pues, en un problema termodinámico que era un verdadero quebradero de cabeza para los científicos de fines del siglo XIX.

Es de imaginarse la conmoción científica que produjo la hipótesis de Planck, verdadero origen de la física moderna. Poco tiempo después, tan sólo cinco ańos, Einstein volvió a emplearla para explicar otro extrańo fenómeno, el efecto fotoeléctrico. Cuando se ilumina con luz a ciertos materiales éstos pueden, en las condiciones apropiadas, hacer que se cierre un circuito eléctrico. Este fenómeno es la base de las celdas fotoeléctricas usadas comúnmente hoy en día, para evitar que se cierre la puerta de un elevador por ejemplo.

Otra vez, la teoría electromagnética clásica, que supone la luz como una onda, es incapaz de explicar el efecto. En cambio, si se supone que el cuanto de luz existe, y que le comunica toda su energía a los portadores de la electricidad que están en el material fotoeléctrico, los resultados experimentales se adecuan a la teoría. Ese mismo ańo de 1905, el oscuro empleado de la oficina de patentes de Berna explicó el efecto fotoeléctrico, inventó la teoría de la relatividad de la cual luego hablaremos y explicó las observaciones hechas cien ańos antes por el botánico inglés Robert Brown, sobre el movimiento de pequeńas partículas suspendidas en un fluido, el conocido movimiento browniano. Quince ańos después, Einstein recibiría el premio Nobel de Física por su explicación del efecto fotoeléctrico.

Veamos ahora cómo evolucionaron estas ideas cuánticas para entender el átomo.


____________________________________________________________________





#6 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 16 julio 2007 - 03:31

_______________________________________________

Continuamos...

VIII. LAS PRIMERAS IDEAS CUÁNTICAS


LAS primicias cuánticas se deben a Planck y a Einstein. En la Navidad de 1900, el gran teórico alemán Max Planck presentó ante la Academia de Ciencias de Berlín un postulado extrańo. Para explicar la radiación que emiten los cuerpos incandescentes, Planck se vio forzado a suponer que la energía electromagnética se produce y propaga en múltiplos de un paquete de energía, cuanto como lo llamó. El cuanto de energía es proporcional a la frecuencia de la onda, con una constante de proporcionalidad h, que luego llevó el nombre de Planck. Con esta rara suposición, tan ajena a la física clásica, Planck pudo explicar lo que se observaba experimentalmente para la radiación que emitía un cuerpo cuando se aumenta su temperatura. La idea de los cuantos se origina, pues, en un problema termodinámico que era un verdadero quebradero de cabeza para los científicos de fines del siglo XIX.

Es de imaginarse la conmoción científica que produjo la hipótesis de Planck, verdadero origen de la física moderna. Poco tiempo después, tan sólo cinco ańos, Einstein volvió a emplearla para explicar otro extrańo fenómeno, el efecto fotoeléctrico. Cuando se ilumina con luz a ciertos materiales éstos pueden, en las condiciones apropiadas, hacer que se cierre un circuito eléctrico. Este fenómeno es la base de las celdas fotoeléctricas usadas comúnmente hoy en día, para evitar que se cierre la puerta de un elevador por ejemplo. Otra vez, la teoría electromagnética clásica, que supone la luz como una onda, es incapaz de explicar el efecto. En cambio, si se supone que el cuanto de luz existe, y que le comunica toda su energía a los portadores de la electricidad que están en el material fotoeléctrico, los resultados experimentales se adecuan a la teoría. Ese mismo ańo de 1905, el oscuro empleado de la oficina de patentes de Berna explicó el efecto fotoeléctrico, inventó la teoría de la relatividad de la cual luego hablaremos y explicó las observaciones hechas cien ańos antes por el botánico inglés Robert Brown, sobre el movimiento de pequeńas partículas suspendidas en un fluido, el conocido movimiento browniano. Quince ańos después, Einstein recibiría el premio Nobel de Física por su explicación del efecto fotoeléctrico.

Veamos ahora cómo evolucionaron estas ideas cuánticas para entender el átomo.

IX. EL ÁTOMO TIENE ESTRUCTURA


EN 1895 Roentgen descubrió los rayos X. Cuando se conectan dos electrodos a una fuente de voltaje y se rodean con un tubo de vidrio al vacío, es decir, se construye un tubo de Crookes, se generan los rayos llamados catódicos. Éstos, al chocar contra una superficie cualquiera, producen una radiación muy penetrante. Aunque fueron descubiertos por accidente, y al principio se consideraron de naturaleza diferente a la luz, no pasaron sino unos cuantos meses para que ya los médicos emplearan sus penetrantes radiaciones para obtener radiografías del esqueleto humano. El descubrimiento de los rayos X -X por misteriosos- encendió el entusiasmo de los físicos y en un tiempo no había investigador experimental que no tuviera un tubo de Crookes para experimentar con él.

Habría que entender, primero, la naturaleza de los rayos catódicos. Algunos científicos los suponían un nuevo estado de materia, hasta que Thomson descubrió que eran en realidad pequeńos corpúsculos materiales, con carga eléctrica negativa y una masa cerca de 2 000 veces menor que la del átomo de hidrógeno, el más ligero de todos. Thomson descubrió, por lo tanto, el electrón. Con ello ya podíamos explicarnos el origen de los rayos X. Podrían surgir al frenar rápidamente los electrones, cuando éstos chocan contra una superficie. Según la teoría electromagnética de Maxwell, toda carga eléctrica que se acelera genera radiación. Mientras mayor sea esa aceleración, mayor es la frecuencia de la radiación emitida y de ahí su gran energía y poder de penetración. Aunque como veremos más adelante, ésta no es la historia completa, en esencia es la explicación correcta.

El haber encontrado el electrón, partícula de carga negativa, sugirió a Thomson que el átomo podría no ser indivisible. Por primera vez surgió la posibilidad de que pudiera tener estructura y Thomson planteó su modelo del pudín de pasas: los electrones se hallarían embebidos en una zona de carga positiva como las pasas en un pastel. Con ello se aseguraba la neutralidad eléctrica del átomo. Este modelo de Thomson fue deshecho por los descubrimientos de un discípulo suyo, el físico neozelandés Ernest Rutherford, como ahora veremos.

Todavía en el siglo XIX, un ańo después del descubrimiento de Roentgen, Henri Becquerel encontró otro tipo de rayos misteriosos. A él se sumaron los esposos Pierre y Marie Curie, uniendo esfuerzos para entender a las recién llegadas radiaciones. Fue Rutherford quien las clasificó en tres clases: alfa, beta y gamma. La primera, de carga positiva, consiste en partículas cuya masa es muy semejante a la del átomo del helio, el segundo elemento de la tabla de Mendeleiev. Se demostró también que los rayos beta eran electrones y que los gamma tenían características semejantes a las de los rayos X, aunque con un poder de penetración todavía mayor.

Usando los rayos alfa, Rutherford se construyó su propia espectroscopia. Decidió que las partículas alfa serían útiles para obtener información sobre el átomo, ya que son tan pequeńas y veloces. En particular, si el modelo de pudín de pasas era el correcto, se esperaba que las partículas alfa no rebotaran contra el átomo. Los electrones, tan ligeros, no podrían desviarlas. Además, la carga positiva, el pudín, vería su carga apantallada por la de los electrones. Cuál no sería su sorpresa, cuando encontró que al bombardear laminillas de oro con partículas alfa, algunas de ellas rebotaban como si golpeasen contra algún objeto impenetrable. La única salida era desechar el modelo de Thomson y suponer que el átomo semejaba a un pequeńo sistema planetario, con una región pequeńísima y muy masiva con carga positiva, en el papel del Sol, y un conjunto de electrones orbitando a su alrededor, como si fueran planetas. Al descubrir esa zona tan masiva y positiva, Rutherford encontró el núcleo atómico y puso las bases para entender la estructura atómica, los rayos X y tantas otras cosas.

X. EL MODELO DE BOHR



SI TOMAMOS seriamente el modelo planetario del átomo, pronto encontramos dificultades insuperables para la física clásica. En efecto, a diferencia de los planetas que rodean al Sol, los electrones son partículas cargadas. Para orbitar alrededor del núcleo, deben ser acelerados hacia él. Como ya mencionamos, emiten entonces radiación electromagnética, como toda carga que cambia su velocidad. Pero esto implica emitir energía, la cual toman de su energía cinética. Llegará un momento, pues, en que su velocidad se reduzca a cero, cayendo indefectiblemente al centro. Este proceso, que según la teoría clásica ocurriría muy rápidamente, implica que el átomo planetario no es estable. ĄY esto contradice obviamente toda nuestra experiencia!

Después de mil vicisitudes, logra Niels Bohr realizar el viaje entre Dinamarca e Inglaterra, ya en los albores de la primera Guerra Mundial. Va a ponerse en contacto con Rutherford. Inspirado por las ideas de Planck, Bohr sugirió que así como la energía de la luz podría darse sólo en cuantos, podría haber ciertas órbitas especiales, y que al moverse en ellas podría un electrón no emitir energía. Esta emisión sólo se daría cuando un electrón brincara de una de esas órbitas especiales a otra. La diferencia de energía entre las órbitas se utilizaría para construir el cuanto de energía, y la luz emitida por el átomo tendría sólo ciertas frecuencias discretas.

Con su hipótesis de las órbitas especiales, o cuantizadas, como dio en llamárseles, Bohr resolvía varios problemas a la vez. Por un lado, evitaba la inestabilidad del átomo planetario; además, explicaba el espectro del átomo de hidrógeno con bastante precisión; finalmente, con el modelo de Bohr se entendían los estudios de Moseley, otro discípulo de Rutherford, sobre los rayos X.

Moseley había encontrado, luego de un análisis sistemático de los rayos X emitidos por diferentes materiales después de que incidían sobre ellos electrones muy veloces, que existe una relación entre las frecuencias de estos rayos y el tipo del material, o sea, del lugar que ocupa en la tabla periódica de los átomos. Cada elemento tenía un espectro característico de rayos X, como lo tenía también de emisión de luz, según había descubierto mucho antes Bunsen. La explicación que Bohr dio de este hecho es la siguiente: un electrón de los rayos catódicos saca a un electrón atómico de su órbita. Pronto, otro ha de ocupar su lugar. Este brinco puede dar origen a la emisión de un rayo X, cuando la diferencia de energías es grande entre las dos órbitas.

Sin embargo, el modelo de Bohr no resultó la panacea atómica. En particular, no explica satisfactoriamente la estructura de átomos más complejos que el hidrógeno. Hubieron de pasar más de diez ańos, hasta 1924, para que surgiera una teoría satisfactoria, que resultó por demás revolucionaria pues reemplazó a toda la física clásica.

______________________________________________________

Cientificos geniales... tantos descubrimientos tanto trabajo y... sin computadoras... icon_eek.gif
______________________________________________________

#7 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 22 julio 2007 - 01:31

______________________________________________________

Continuamos...
_______________________________________________________

XI. LA NUEVA FÍSICA



NEWTON propuso un modelo corpuscular de la luz apropiado para la óptica geométrica que trata con rayos. Los fenómenos luminosos de interferencia y de difracción, típicamente ondulatorios, requieren que la luz sea una onda. Maxwell nos hace ver que los entes que oscilan son los campos eléctricos y magnéticos. Einstein recupera el viejo modelo corpuscular, pues en el efecto fotoeléctrico y en otros, como el efecto descubierto por Compton, la luz se comporta como una partícula de energía y momento lineal bien definidos. Estamos, pues, frente a la dualidad partícula-onda de la luz.

żQué pasaría -se preguntó Louis de Broglie- si esta dualidad partícula-onda se diera también para otros entes microscópicos, como el electrón? En este caso, si repetimos el experimento de difracción, es decir, si hacemos pasar un rayo de electrones por una abertura apropiada, veremos patrones de difracción. El experimento fue realizado por los físicos norteamericanos Davison y Germer, quienes lanzaron electrones lentos contra la superficie de un cristal de níquel. Sus observaciones podían explicarse usando la hipótesis de De Broglie, al asociar al electrón una onda cuya longitud de onda era inversamente proporcional al momento lineal del electrón, es decir, al producto de su masa por su velocidad. La constante de proporcionalidad, como en el caso de Planck y de Einstein, era otra vez la constante de Planck h.

Poco después, Erwin Schrödinger, físico vienés, generalizó las ideas de De Broglie que trataban sólo con electrones aislados, y asoció una onda también a los electrones dentro del átomo. Las órbitas estacionarias de Niels Bohr correspondían ahora a aquellos valores de la energía y del momento del electrón, tales que con un número entero de longitudes de onda se cubría toda la órbita. Schrödinger obtuvo, para los electrones en el átomo, la ecuación que hoy lleva su nombre. En este caso, el electrón se encuentra sujeto al campo eléctrico que produce el núcleo, que está cargado positivamente y que lo atrae. Pero la ecuación de Schrödinger es más general; de hecho, es aplicable a todos los sistemas microscópicos que no se muevan muy rápidamente, es decir, aquellos cuya velocidad es mucho menor que la de la luz.

Antes de De Broglie y Schrödinger teníamos la paradoja partícula-onda para la luz; luego de ellos, esta dualidad se manifestó omnipresente en el mundo microscópico. A veces debíamos hablar de una partícula y su trayectoria; otras, de una onda y su difracción e interferencia. Todo ello no ocurría en el movimiento de los cuerpos macroscópicos: planetas, proyectiles, locomotoras. Algo había en el mundo de lo pequeńo que no habíamos tomado en cuenta y que podría dar la salida a esa situación paradójica. Werner Heisenberg lo encontró. Al hacer una partícula más y más pequeńa, la hacemos más y más sensible a perturbaciones. ĄY el proceso mismo de observación para medir sus propiedades, es una perturbación! Así, cuando deseamos "ver" al electrón, habremos de iluminarlo y esperar que la luz se refleje en él; pero esta luz está formada de cuantos, que al chocar con el electrón alteran su estado inicial. Mientras mayor sea la precisión con que queramos localizar al electrón, menor deberá ser la longitud de onda de la luz que empleemos para iluminarlo y, por tanto, mayor será su frecuencia. En consecuencia, los corpúsculos de la luz son más energéticos y al chocar con el electrón alteran mas su velocidad. El análisis de Heisenberg nos dice, pues, que no es posible definir con tanta precisión como deseemos y simultáneamente, la posición y la velocidad (o el momento lineal) de una partícula. Pero un poco de reflexión nos lleva a concluir de inmediato que, entonces, el concepto de trayectoria o de órbitas no tiene sentido en el microcosmos. Las paradojas empiezan a diluirse.

Si en una teoría se elimina un elemento, otro ha de reemplazarlo. Si ya no existen trayectorias sino ondas de De Broglie o de Schrödinger, żcómo es que éstas reemplazan al viejo concepto de órbita? La respuesta la dio Max Born, poco después que Schrödinger y Heisenberg inventaron la mecánica cuántica. Lo que indica, según él, la onda que es solución de la ecuación de Schrödinger, es la probabilidad de encontrar a la partícula. Es decir, en aquellas regiones del espacio en que la solución de Schrödinger sea nula, es imposible hallar a la partícula. Pero en las zonas del espacio en que esa onda sea distinta de cero, sólo sabemos que es probable encontrarla, aunque nunca tengamos la certeza absoluta. El principio de Heisenberg destruye la certidumbre y el determinismo clásicos. Por ello se le llama el principio de incertidumbre; es sin duda uno de los pilares básicos de la física actual.


XII. EL ÁTOMO DE HIDRÓGENO


YA LOS químicos del siglo pasado sabían que el hidrógeno era el elemento más ligero y que su átomo sería el más simple. Según el modelo planetario, consistiría en un electrón que rodea al primero de los núcleos, el protón. Este último tiene carga positiva igual en valor absoluto a la del electrón y pesa, como ya dijimos, cerca de 2 000 veces más que él. Podemos considerar, pues, que el electrón se mueve mucho más rápidamente que el protón y el problema del átomo de hidrógeno se puede plantear así... una carga e de masa m sujeta a una fuerza de Coulomb. La ecuación de ondas de Schrödinger, semejante a otras que describen procesos ondulatorios, como la propagación de la luz o del sonido, habrá de resolverse en estas condiciones. De acuerdo a la interpretación probabilística de la mecánica cuántica, nos indicará las zonas en que se encuentra muy probablemente el electrón y aquéllas en que es imposible hallarlo. Como el electrón está cargado, diremos entonces que obtenemos una densidad de carga, o nube de carga, como a menudo le llamaremos. La extensión de la nube de carga nos dará idea del tamańo del átomo.

La función y que satisface la ecuación de Schrödinger para el átomo de hidrógeno tiene tres características: su tamańo o extensión en el espacio, su forma geométrica y su orientación. La extensión nos indica la energía del electrón y, como vestigio de las órbitas cuantizadas de Bohr, sólo ciertos valores discretos de la energía están permitidos cuando un electrón está dentro del átomo. Análogamente, sólo algunas formas de y satisfacen la ecuación de Schrödinger. Esto corresponde a distintos valores del momento angular para el electrón en el átomo. Para cada valor de la energía, hay varias formas posibles. Finalmente, la orientación de la órbita también está cuantizada.

La teoría de Schrödinger para el átomo de hidrógeno resultó satisfactoria hasta que se enfrentó a un nuevo hecho experimental. Al hacer pasar un haz de átomos de hidrógeno entre los polos de un imán, el haz se parte en dos. Esta propiedad magnética del átomo no se explicaba con lo hasta aquí expuesto. Hubo que enmendar la teoría, asociándole un momento magnético al electrón, como si fuera un cuerpo cargado en rotación. A esta rotación intrínseca del electrón se le llamó espín (de la palabra inglesa spin, que significa giro) el cual, como toda variable dinámica en la teoría de Schrödinger, estaría también cuantizado. Los resultados del experimento de Stern y Gerlach indican dos posibles orientaciones del espín del electrón. Como veremos luego, el espín es una propiedad que poseen todas las partículas del mundo microscópico. Con esto queda definido el estado cuántico de un electrón atraído al núcleo por medio de una fuerza de Coulomb.


_______________________________________________

#8 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 26 julio 2007 - 05:29

________________________________________________________

XIII. ÁTOMOS COMPLEJOS


żQUÉ sucede cuando tratamos con átomos más complejos que el hidrógeno? El núcleo tiene más carga, siempre un múltiplo entero Z de la carga de un protón. A este número Z le llamaremos número atómico. Pero entonces el átomo neutro debe tener también Z electrones orbitando alrededor de su núcleo. Como todos los electrones están cargados, también actúan uno sobre el otro con una fuerza coulombiana, que ahora es repulsiva. El problema que se plantea al tratar de resolver la ecuación de Schrödinger es muy complicado desde el punto de vista matemático. Tan es así, que ni hoy en día que contamos con computadoras muy rápidas se ha logrado resolverlo en su totalidad. Para avanzar en la solución del problema, se recurre a una aproximación: se resuelve primero el problema de uno de los Z electrones atraído sólo por el núcleo, despreciando la interacción con los otros electrones. Se obtiene entonces el estado cuántico del electrón, el cual luego es perturbado por la presencia de los otros electrones. Estos últimos, como todo sistema físico, buscan su estado de mínima energía. Por lo tanto, deberían colocarse en el estado cuántico de menor extensión. Dado que mientras más pesado es el átomo, mayor es Z y por ende la atracción del núcleo sobre el electrón, las órbitas de menor extensión estarán más cercanas al núcleo. Concluimos, pues, que los átomos más pesados son de menor tamańo.

Esta última afirmación es falsa. Claramente, en nuestra descripción de los átomos complejos hemos olvidado algún elemento importante. Los electrones pertenecen, dentro del zoológico cuántico poblado de partículas microscópicas, a un tipo de partículas que son muy poco sociables, que repelen a sus semejantes. Si un electrón tienen una cierta energía, o una velocidad, o una posición dada, en fin, si está en un cierto estado cuántico, otro electrón no cabe ahí. Este principio, llamado de Pauli en honor a quien lo formuló, es una de las piedras angulares de la física moderna, base inviolable e inviolada hasta ahora de nuestro entendimiento de los átomos complejos y, como veremos después, también de los sólidos y hasta de los núcleos.

Si ahora aplicamos el principio de mínima energía de manera compatible con el principio de Pauli, vemos que el tamańo de los átomos llega a crecer con Z. Si tenemos un átomo de litio, por ejemplo, vemos que los tres electrones se han de acomodar así.. dos pueden caber en la órbita de menor tamańo, pero el tercero ha de ir en el siguiente estado con energía mayor. Este estado, a su vez, puede alojar 8 electrones en total, 2 en la órbita más simétrica que sólo puede tener una orientación y 6 en la órbita menos simétrica, que puede tomar tres orientaciones distintas. En todo lo anterior, hemos tomado en cuenta que el espín del electrón puede orientarse de dos maneras. Se va formando así el átomo complejo en capas, separadas en energía. De ahí que al modelo del átomo aquí descrito se le conozca como el modelo de capas atómico.


XIV. OTRA VEZ LA TABLA PERIÓDICA


MENDELEIEV había ordenado los elementos químicos de acuerdo con su peso atómico y en una tabla tal que los elementos con propiedades químicas semejantes aparecen en la misma columna. Sigamos el juego de Mendeleiev, pero colocando ahora en la misma columna aquellos elementos que tengan el mismo número de electrones en su capa externa, siempre en consonancia con el principio de Pauli y el de mínima energía. Tendríamos entonces que el berilio, el magnesio, el calcio, el estroncio, el bario y el radio, caen todos en la misma columna, pues todos tienen dos electrones en su capa externa. Pero esto mismo obtuvo Mendeleiev con los átomos cuya valencia es 2. Lo que sucede, claro está, es que la estructura electrónica de la capa externa determina las propiedades químicas del átomo. En otros términos, son los electrones de valencia los que participan en el enlace químico. Empezamos a vislumbrar una explicación, basada en las ideas cuánticas, de la tabla periódica de los átomos.

Los elementos cuyo número atómico Z implica completar una capa también forman una columna. Agregarles un electrón requiere un gasto fuerte de energía, pues el nuevo electrón ha de ocupar una nueva capa. Son, por tanto, poco activos para unirse con otros átomos, es decir, químicamente inertes. Los elementos con esta propiedad son el helio, el neón, el argón, el kriptón, el xenón y el radón, o sea los gases nobles. Con ello empieza la teoría cuántica del átomo a contestar algunas de las preguntas mencionadas al principio.

Luego de la columna de los gases nobles, vendría la columna de elementos con un electrón fuera de la última capa completa o cerrada. Estos elementos (litio, sodio, potasio, rubidio, cesio y francio) son semejantes entre sí. Se les conoce genéricamente como metales alcalinos. Los que tienen dos electrones fuera de capa cerrada, que ya mencionamos, son también metálicos aunque menos reactivos que los alcalinos. Se les conoce como los alcalino térreos. Así continuamos, colocando electrones en la capa más externa, hasta llegar a los elementos que sólo requieren de un electrón para llenar esa capa.

Estos son los halogenuros (flúor, cloro, bromo, iodo, y astatinio) que tienen gran afinidad para combinarse con un átomo metálico alcalino. Intuitivamente esto es claro: cada tipo de átomo tiene el electrón que el otro necesita para cerrar una capa.

De esta forma, hemos clasificado a los elementos en cuatro categorías: los gases nobles, los metales, los halogenuros y una cuarta clase, los metaloides como el germanio y el arsénico. Empezamos a establecer conexiones entre la ecuación de Schrödinger, resuelta en forma aproximada usando el modelo de capas atómico, y la tabla periódica que Mendeleiev obtuvo empíricamente basándose en las propiedades químicas de los elementos. Se ha reducido el entender la Tabla de Mendeleiev a una aplicación de leyes más generales, las leyes cuánticas contenidas en la ecuación de Schrödinger y el principio de Pauli.

___________________________________________________

#9 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 28 julio 2007 - 06:01

____________________________________________________

Continuamos...

XV. LA FORMACIÓN DE LAS MOLÉCULAS


EN LA descripción que acabamos de hacer insistimos mucho en la actividad química de los átomos, es decir, en su capacidad para formar compuestos, o sea moléculas. Trataremos ahora de entender un poco más cómo interactúan los átomos.

Tomemos un halógeno, como el cloro, y acerquémoslo a un alcalino, como el sodio. Si el electrón más alejado del núcleo en este último se transfiere al cloro, los dos átomos perderán su carácter neutro. Tendremos un ion negativo frente a un ion positivo. Existirá entonces una fuerza eléctrica atractiva, gracias a la cual quedarán unidos para formar una molécula de cloruro de sodio. Cuando un átomo deseoso de ceder electrones se encuentra con otro ávido de ganarlos, se llega a una simbiosis perfecta. Un átomo cede un electrón tan gustosamente como el otro lo recibe. A raíz de este intercambio de electrones, ambos átomos quedan ionizados y se atraen. La fuerza atractiva no logra colapsarlos, sin embargo, porque si se acercan demasiado, las nubes de electrones internos empiezan a entrar en acción y se hacen cargo de repelerse. Tal repulsión eléctrica compensa la atracción hasta llegar a una posición de equilibrio, la cual define a la molécula. Este tipo de enlace químico, debido a la atracción electrostática entre iones, se llama muy apropiadamente enlace iónico.

No toda las moléculas se forman mediante enlaces iónicos. En general podríamos decir que los átomos formarán moléculas si de alguna manera sus nubes de carga electrónica se sobreponen para que los núcleos las atraigan, logrando que la energía final de la combinación de átomos sea menor que la suma de energías de los sistemas aislados. El enlace llamado covalente se da cuando las regiones de mayor densidad de carga electrónica se localizan entre dos núcleos. Con ello, los electrones correspondientes se ven fuertemente atraídos por ambos núcleos. En este tipo de enlace, los electrones son compartidos por los núcleos y no repartidos entre ellos como en el enlace iónico. Según el número de electrones que se comparten, las ligaduras covalentes se clasifican en ligadura simple, doble o triple. En la primera son dos electrones compartidos, en la segunda cuatro y en la triple ligadura se comparten seis electrones. Siempre se involucran los electrones por parejas, pues el espín del electrón tiene dos orientaciones.

El enlace iónico carece de una dirección privilegiada, pues la fuerza entre dos cargas eléctricas sólo depende la distancia entre ellas: tiene simetría esférica. El enlace covalente, por su parte, será direccional y pueden darse moléculas con diversas geometrías, dependiendo de la dirección de las ligaduras. Existen entonces moléculas planas como el etileno y piramidales como el amoniaco. Veremos luego cómo esto nos explica que ciertos sólidos sean quebradizos y otros dúctiles.

Los enlaces que hasta aquí hemos descrito implican un equilibrio muy delicado entre las nubes electrónicas. Existe otro tipo de enlace que se puede dar con muchos átomos cuando éstos tienen algunos electrones débilmente ligados al núcleo. Al juntar muchos átomos, los electrones menos localizados forman una nube extensa de carga negativa, en la cual se embeben los iones positivos. Esa nube electrónica permite que los iones se unan, formando lo que se conoce como un metal.

Tenemos pues tres tipos de enlace químico: el iónico, el covalente y el metálico. Como veremos, esto nos ayudará a entender muchas propiedades de los materiales en términos de la estructura electrónica de los átomos que los forman. Sin embargo, aún falta una pieza del rompecabezas que estamos empeńados en armar: żcómo es que dos átomos neutros se atraen, para lograr que sus nubes electrónicas se sobrepongan y tenga lugar el enlace químico?

Los átomos son eléctricamente neutros. Si se le observa a gran distancia, la carga positiva del núcleo se apantalla por la carga negativa de la nube electrónica. Sin embargo, los electrones se mueven mucho más que el núcleo, fluctuando así la posición de la nube electrónica y desplazando el centro de la carga negativa con respecto al núcleo positivo. Se crea entonces lo que se conoce como un dipolo eléctrico, formado por dos cargas de igual magnitud y de signo opuesto separadas por una cierta distancia. Estos dipolos son efímeros: se crean y desaparecen, según fluctúa la posición de la nube electrónica. Lo importante para nuestros propósitos es que dos de estos dipolos, colocados frente a frente, pueden atraerse. Lo cual permite que los átomos, aunque neutros, interactúen a distancia y se atraigan.

Como vemos, la unión de dos o más átomos para formar una molécula tiene siempre su origen en la redistribución de las nubes de carga entre los núcleos. Es decir, se da una variación local de la densidad de carga electrónica en el átomo y, por tanto, en la molécula. En consecuencia, algunas moléculas pueden tener un dipolo permanente. Otras, en cambio, serán tan simétricas que no muestren ese dipolo y se comporten eléctricamente como si fueran neutras, en forma similar a los gases nobles. Sin embargo, sean polares o no, en todas las moléculas se dan las fluctuaciones en la localización de las nubes de carga, como antes vimos en el caso de los átomos. Por ser más extensas que estos, las fluctuaciones de carga son mayores, lo que da por resultado que haya una fuerza atractiva entre ellas. Por otro lado, una molécula polar enfrente de una no-polar, distorsiona la nube de carga de esta última, polarizándola. En otras ocasiones puede haber atracción entre ambas. Y, finalmente, dos moléculas polares se atraerán como lo hacen dos dipolos eléctricos. A la fuerza atractiva atractiva entre dos moléculas, originada por la interacción entre dos dipolos eléctricos sean permanentes o inducidos de Van der Waals, en honor a quien fue el primero en tratarla. Aunque muy comunes, las fuerzas de Van der Waals no tienen en la física la misma jerarquía que la fuerza gravitacional o las fuerzas electromagnéticas pues, como vemos, son resultado de la acción de estas últimas. En otros términos, no son interacciones fundamentales, sino derivadas.

La atracción entre moléculas polares desempeńa un papel crucial para entender muchos fenómenos de la materia, sobre todo en gases y líquidos. Sabemos, por ejemplo, de la tensión superficial que, entre otros efectos, produce una fuerza que impone forma esférica a una gota de líquido o a una pompa de jabón. El agua está formada de moléculas polares, resultado del enlace covalente de un átomo de hidrógeno y dos de oxígeno. Dado su carácter polar, las moléculas de agua se encadenan en la superficie del líquido, lo que se traduce en la tensión superficial. Las nubes de vapor de agua, con formas caprichosas que cambian pero no se dispersan, tienen su origen en estas fuerzas polares, así como la capa delgadísima que forma un lubricante entre dos piezas sólidas que se friccionan dentro de un motor.

Hemos recorrido a vuelo de pájaro el largo camino que la humanidad cursó en muchos siglos de observación, experimentación y elucubraciones teóricas. Hemos descrito cómo las ideas cuánticas dan la base para entender las propiedades de los átomos y de ahí las de las moléculas. Como toda respuesta buena a un problema, la mecánica cuántica generó nuevos problemas, más interesantes aún, algunos de los cuales se siguen atacando hoy sin haberse hallado la solución completa. En el caso particular de la física atómica y molecular, muchos de estos problemas son de interés en la actualidad, no sólo por su importancia básica para entender a la materia, sino por sus posibilidades de aplicación. Tales estudios forman la base de toda la química y sus aplicaciones industriales. Para entender procesos como las reacciones químicas, la catálisis, y aun los procesos biológicos, es necesario conocer las propiedades de los átomos y las moléculas. Este conocimiento debe ser muy preciso para que sea útil. En consecuencia, miles de físicos y químicos de todo el mundo se dedican a esta rama de la ciencia, una de las más activas actualmente.

El problema que se plantean los investigadores atómicos es colosal. Intentan describir las propiedades de muchos electrones que no sólo son atraídos por el núcleo del átomo al que pertenecen sino que se repelen entre sí, y son atraídos por otros núcleos. Además, puesto que los electrones y el núcleo son objetos microscópicos, las leyes aplicables son las de la mecánica cuántica. Nos percatamos de la magnitud de la tarea si nos damos cuenta que aun el problema de tres cuerpos macroscópicos no ha sido resuelto en su totalidad. Los físicos han debido recurrir, pues, a modelos de la realidad atómica, que a menudo involucran simplificaciones muy extremas. Un ejemplo, es el modelo de capas atómico que antes describimos y con el cual pudimos entender grosso modo las propiedades de la tabla periódica de los elementos
.

_______________________________________________________________

#10 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 30 julio 2007 - 05:07

________________________________________________________________

XVI. LOS ACELERADORES ATÓMICOS


LOS aceleradores son máquinas que comunican de manera controlada una velocidad previamente determinada a una partícula microscópica cargada. Existen aceleradores de partículas negativas, como los electrones, y aceleradores de partículas positivas, como los protones y las alfa. Según la velocidad que adquieran las partículas luego de acelerarse, estos aparatos pueden ser de baja, mediana o alta energía. Finalmente, si la aceleración actúa siempre en la misma dirección, el acelerador es lineal.

Todos los aceleradores se basan en el mismo principio: habrá de producirse un campo eléctrico que acelere a las partículas cargadas. Esto se logra, por ejemplo, cargando dos placas con cargas de signo opuesto. Según la ley de Coulomb, la partícula que ha de acelerarse será repelida por la placa cargada con el mismo signo de la carga que tiene la partícula, y atraída por la otra placa. Para que el sistema sea eficiente, se deberán evitar los choques indeseados de la partícula acelerada. Esto implica vaciar la región entre las placas, extrayendo la mayor cantidad de moléculas posible. En otras palabras, los aceleradores deben estar "al vacío".

Antes de acelerar la partícula, hay que tenerla. Por eso, parte esencial de un acelerador la constituye la fuente en donde se producen los proyectiles. Claramente, se dispone también de blancos, o sistemas bajo análisis, contra los cuales chocan las partículas luego de acelerarse. Finalmente, los aceleradores llevan siempre asociados sistemas que permiten detectar la presencia de una cierta partícula luego del choque, su velocidad o algunas otras propiedades. Estos sistemas se llaman detectores.

Aunque parezca raro, casi toda familia en esta época tiene un acelerador de partículas en casa: un receptor de televisión. Este aparato tiene todas las características de un acelerador de electrones. La fuente es un filamento que, al calentarse, emite electrones hacia un recipiente al vacío, el cinescopio, que es un tubo de vidrio sellado. Luego los electrones se aceleran por medio de un voltaje negativo (del orden de quince mil voltios) que los repele y, antes de chocar contra la pantalla, que es el blanco, se les controla y desvía mediante campos magnéticos. Así se hace incidir el haz de electrones sobre la pantalla que es fluorescente y emite luz al ser bombardeada por aquél, detectando su presencia. En el caso del televisor, por tanto, la pantalla fluorescente actúa no sólo como blanco, sino también como detector.

Otros dos aceleradores de electrones son también populares hoy en día: el aparato de rayos X y el microscopio electrónico. En el primero, los electrones salen de un cátodo y se aceleran hacia un ánodo; entre el ánodo y el cátodo existe una diferencia de potencial mayor que en los aparatos de televisión, pues llega hasta miles de voltios. En consecuencia, los electrones alcanzan una velocidad mayor que en el aparato receptor de televisión y producen al chocar contra los átomos del blanco una radiación electromagnética de mayor frecuencia que la luz visible: los rayos X.

La operación del microscopio óptico. Es decir, el microscopio electrónico es más sutil. El sistema de producción y aceleración de electrones es muy similar a los anteriores, pero el control del haz electrónico es semejante al de los rayos luminosos en el microscopio óptico. Es decir, el microscopio electrónico tiene una lente condensadora, otra lente objetivo y una lente ocular, claro que en vez de los lentes de vidrio del microscopio óptico, se cuenta con lentes electromagnéticos (bocinas o condensadores) que ejercen sobre los electrones las mismas funciones que el vidrio sobre los fotones. Como la longitud de onda asociada a un electrón es mucho menor que la de la luz visible, podemos ver objetos más pequeńos. En consecuencia las amplificaciones son unas mil veces mayores que en los microscopios comunes y el poder de resolución, que se define como la capacidad de separar dos puntos muy próximos, también es mucho mayor. ĄBien andaba el príncipe De Broglie!

Los aceleradores de partículas positivas son ligeramente distintos, ya que requieren de una fuente de partículas un poco más compleja. Las partículas positivas son, en los aceleradores de baja energía, átomos ionizados a los cuales se les ha despojado de uno o más de sus electrones. Esto se logra haciendo pasar electrones veloces por una región en que se encuentra el material no ionizado en forma de vapor. Al dispositivo en donde esto sucede se le llama fuente de iones. Una vez formados los iones, se arrojan a la zona en que se ha hecho el vacío por medio de campos eléctricos y magnéticos, son acelerados y conducidos a la región del blanco o hacia los detectores.

Uno de estos aceleradores positivos es el espectrómetro de masas, que se utiliza para medir pequeńas diferencias de masa. Los iones positivos se aceleran y luego sufren la influencia de un potente imán que desvía a los iones de manera proporcional a sus masas. Colocando los detectores apropiadamente, podremos averiguar la proporción de las distintas masas presentes en el haz original. Esta información es muy valiosa y se emplea, por ejemplo, para determinar edades geológicas, o averiguar el origen de las aguas subterráneas.

Muchos otros aceleradores han desarrollado los físicos para analizar la materia. Contamos ahora con aparatos que usan electrones lentos para estudiar las superficies de los sólidos y con otros que producen electrones rapidísimos, con velocidades semejantes a la de la luz, y que se usan para el estudio de sistemas subnucleares. A medida que avancemos habrá oportunidad de mencionar varios de estos aceleradores y su empleo para descifrar algún secreto de la naturaleza. Es interesante hacer notar, desde ahora, que al igual que el microscopio electrónico, el espectrómetro de masas y el aparato de rayos X, todos los aceleradores que han inventado los físicos en su afán de ver más allá, representan también una arma poderosa, una nueva técnica, para resolver problemas que enfrenta el hombre en su vida cotidiana.


______________________________________________________________

#11 Agrupación Si a la Vida

Agrupación Si a la Vida

    Usuario Avanzado

  • Members
  • 41 Mensaje(s)
  • Location:http://es.youtube.com/watch?v=Rq_LwOWfjlY
  • Interests:http://es.youtube.com/watch?v=Rq_LwOWfjlY

Publicado el 30 julio 2007 - 07:12

La Agrupación Ciudadana "Si a la Vida"... Por una Comuna Más Amigable y Segura, junto con saludarlos lo invita a visitar nuestro blog. Conozca nuestras acciones y realice sus comentarios.



¿Qué haría usted... Si atropella a una persona?

a.- Huir y esconder el vehículo
http://sialavidaandr...s.blogspot.com/

b.- Detener el vehículo y prestarle auxilio a la victima
http://sialavidaandr...s.blogspot.com/

c.- Seguir conduciendo y llamar a Carabineros anónimamente
http://sialavidaandr...s.blogspot.com/

d.- Ayudar al accidentado llamando al SAMU o Carabineros
http://sialavidaandr...s.blogspot.com/



No olvide responder la pregunta del mes en nuestro sitio web (blog).. http://sialavidaandr...s.blogspot.com/

#12 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 30 julio 2007 - 07:42

____________________________________________________

Continuamos...

UNA OJEADA A LA MATERIA


XVII. A MANERA DE RESUMEN


HEMOS visto cómo, a través de muchos siglos de trabajo científico, el hombre llegó a precisar que toda la materia que nos rodea, desde la montańa gigantesca hasta la pequeńa célula, está formada por átomos. Contrariamente a lo que su nombre griego indica -átomo = indivisible- los físicos demostraron a principios de este siglo que los átomos están constituidos por una nube de electrones que circundan un centro muy masivo, llamado núcleo.

El núcleo atómico fue descubierto en 1911 por lord Ernest Rutherford, científico neozelandés que trabajó en Canadá y en Inglaterra, mientras proyectaba partículas a, contra una lámina de oro. Observó que salían en todas direcciones, algunas de las cuales hubieran sido imposibles a menos que se supusiera que en el centro de los átomos existía una gran concentración de masa, miles de veces mayor que la masa de un electrón y que tuviera una carga positiva, equivalente en el caso del oro a cerca de cien cargas electrónicas. A esta concentración de masa y carga positiva se le llamó núcleo.

Desde el descubrimiento del núcleo, los físicos han tratado de averiguar qué hay dentro de él, cuáles son sus propiedades y cómo lo podemos utilizar en la vida diaria. El primer problema que se plantearon los científicos fue averiguar si el núcleo es un sistema compuesto, formado por otras partículas más simples, o si es verdaderamente elemental, atómico en el sentido que le diera Demócrito. Como Thomson y Rutherford habían destruido ya el prejuicio de la indivisibilidad, era natural pensar en un núcleo formado por otras partículas elementales. En ese tiempo, las partículas conocidas eran el electrón, por un lado, y el protón, que es el núcleo del átomo más sencillo, el hidrógeno, por el otro. Nada más natural, por consiguiente, que la primera ocurrencia fuera suponer que el núcleo estuviera formado por electrones y por protones, que se atraen eléctricamente para unirse. Nótese que no es posible suponer que el núcleo conste sólo de protones, pues la carga de todos ellos es positiva, y es bien sabido que cargas eléctricas del mismo signo se repelen, mientras que cargas de signo opuesto se atraen. Por consiguiente, un sistema formado tan sólo de protones explotaría.

Con esta imagen del núcleo llegamos hasta la mitad de la década de los ańos veinte. Se consideraba al átomo como un pequeńo sistema planetario, con el núcleo en el centro, en el papel del sol, y los electrones orbitando a su alrededor como si fueran planetas. El núcleo, a su vez, era un conjunto de muchos protones y electrones, cuyo movimiento interno ni siquiera osaban insinuar los investigadores de la época. Pero, como ya sabemos, este esquema planetario era insostenible: los electrones, al igual que todas las partículas cargadas, al girar emitirían radiación electromagnética, como lo hacen al oscilar en una antena; y, como en ésta, perderían energía. Dentro del átomo, pues, terminarían por detenerse, cayendo al centro de atracción, que es el núcleo. En otros términos el átomo planetario tendría una vida efímera. Para evitar este destino fatal de los electrones orbitales, Bohr propuso un cambio de las leyes de la física conocida hasta entonces. Según él, deberían existir algunas órbitas privilegiadas, en las cuales los electrones no radiarían. Sólo emitirían luz al pasar de una de estas órbitas a otra con una energía tal que compensara la diferencia de energías orbitales del electrón. Esto permitió a Bohr explicar una observación muy extrańa, hecha desde finales del siglo XIX, y que consistía en que los átomos no emiten luz de todas las frecuencias, sino sólo algunas muy características.

Sin embargo, para un físico la situación resultaba poco satisfactoria: se había reemplazado una ley general de la física, por una especie de regla, o de receta de cocina, sin más justificación que explicar lo que se dio en llamar el espectro de los átomos. Se obtuvo una explicación conveniente hasta 1924, cuando De Broglie, Schrödinger y Hesenberg inventaron una nueva física, la mecánica cuántica, que según ellos habría de regir el movimiento de todas las partículas microscópicas, así como de los electrones y los protones.

Esta nueva mecánica difiere en esencia de la conocida hasta entonces, la fundada por Galileo y Newton y por ello llamada mecánica clásica. Cuando las partículas son muy pequeńas, ya no es posible pensar en fijar su posición y su velocidad al mismo tiempo, y así deja de tener sentido el concepto de órbita. Pasamos, más bien, a pensar en términos de conceptos probabilísticos.

Como todo cambio radical en la cultura, la invención de la mecánica cuántica tuvo grandes repercusiones. Se puede ahora pensar en otra forma, mucho más ambiciosa. Se estudian átomos cada vez más complejos, empieza el análisis de los sólidos y, desde luego se aplican las nuevas leyes al núcleo del átomo. Pronto empiezan a surgir dificultades de todo tipo si seguimos aferrados a la imagen del núcleo formado por protones y electrones amarrados unos a los otros por fuerzas eléctricas. Veamos una de ellas.


______________________________________________________

#13 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 01 agosto 2007 - 05:34

_______________________________________________

Continuamos... el tiempo es corto, por eso les pusimos 3 capitulos...


XVIII. LOS CONSTITUYENTES DEL NÚCLEO


LOS protones y los electrones pertenecen, dentro del zoológico cuántico, a un tipo de partículas muy poco sociables pues repelen a sus semejantes. Si un protón, por ejemplo, tiene una cierta energía, o una velocidad, o una posición dada, en fin, si está en un cierto estado, otro protón no cabe ahí. A este tipo de partículas se les conoce con el nombre de fermiones, en honor al gran físico italiano Enrico Fermi. Existen también otras partículas que se comportan, en cierto modo, de manera opuesta: los bosones, que son muy sociables y les gusta ocupar el mismo estado que sus semejantes. Una de las consecuencias de unir las ideas cuánticas con las de la relatividad de Einstein, implica que toda partícula microscópica o es fermión o es bosón. Como ya vimos al estudiar los átomos complejos este principio, llamado de Pauli en honor a quien lo formuló, es una de las piedras angulares de la física moderna, base hasta ahora inviolable de nuestro entendimiento de los átomos complejos, de los sólidos y, żpor qué no?, también de los núcleos.

Este principio básico demolió de inmediato el modelo en boga de los núcleos. Sucede que al juntar un número par de partículas del tipo fermión, se forma una del tipo bosón. Tómese entonces un núcleo como el de nitrógeno, que según el modelo constaría de 14 protones y 7 electrones; con ello explicamos la carga del nitrógeno y predecimos que ha de comportarse como un fermión, pues lo forman un número impar de este tipo de partículas. Pero el nitrógeno es un bosón, como pudo observarse directamente. De esta conclusión no hay salida, y la cadena se rompe por el eslabón más débil: hubo de abandonarse el modelo con electrones en el núcleo.

Pero entonces żcuáles eran los constituyentes del núcleo? Esta situación indefinida no se aclaró sino hasta 1932, cuando el físico inglés Chadwick descubrió una partícula de masa semejante a la del protón, pero eléctricamente neutra; de ahí que se le llamara neutrón. De inmediato se vio que con ella se tenía la salida a la paradoja anterior. Si el núcleo se formara con protones y neutrones, ambos siendo partículas de Fermi, ya no habría lugar al problema que mencionamos antes pues para integrar la masa del nitrógeno se requieren siete partículas de cada especie.

Desde luego, un problema se resuelve y otro se crea, como siempre. Ya no se contradice una ley cuántica fundamental, como el principio de Pauli, pero ahora nos enfrentamos a un nuevo dilema. Si el neutrón no tiene carga eléctrica żcómo es que atrae a los protones para formar el núcleo? En otros términos, las fuerzas que amarran a los neutrones y protones no pueden ser de carácter eléctrico.

No quedaba otra salida que inventar una nueva fuerza, la fuerza nuclear, también llamada interacción fuerte, por ser mucho más intensa que la fuerza eléctrica. Con ello se abría un nuevo campo de la ciencia, la física nuclear, que habría de acaparar la atención de los físicos por las tres o cuatro décadas siguientes.

El problema de la física nuclear se puede pues plantear así.. tengamos un conjunto de Z protones y N neutrones (en donde Z y N son números enteros) que interactúan por medio de la fuerza nuclear. Si conocemos ésta y las propiedades de los nucleones -los protones y neutrones- el reto a los físicos nucleares consiste en aplicar las reglas de la mecánica cuántica para explicarnos las propiedades del núcleo como un todo. Tenemos aquí todos los ingredientes de la teoría física de un sistema.. la definición de sus subsistemas, las fuerzas entre éstos y sus leyes de movimiento.

Nótese lo difícil de la empresa. Al mismo tiempo debemos averiguar cómo es la fuerza nuclear, las propiedades de los nucleones y las características de los núcleos como un todo. Problemas que se retroalimentan uno al otro y que habrán de desenmarańarse al mismo tiempo.

Como ya hemos dicho varias veces, el método que eligieron los físicos fue por demás curioso, tal vez hasta absurdo si pensáramos aplicarlo a cuerpos macroscópicos, como los planetas, por ejemplo. Decidieron averiguar qué pasaba cuando dos sistemas nucleares chocaban uno contra el otro. Para ello desarrollaron aparatos capaces de acelerar un proyectil nuclear y lanzarlo contra un blanco también nuclear. Con estos aceleradores, observaban las consecuencias de la colisión y las comparaban con las distintas hipótesis sobre las fuerzas nucleares y las propiedades de los nucleones, hasta lograr que la observación y el cálculo coincidieran. De esta forma, se fueron esclareciendo poco a poco los misterios del núcleo.


XIX. LOS ACELERADORES NUCLEARES


EL DESARROLLO de estos aparatos -los aceleradores nucleares- exigió de múltiples avances tecnológicos. Para acelerar los proyectiles se requería producir altos voltajes; para guiarlos era necesario construir a voluntad complicados imanes; con objeto de estar seguros que sólo un blanco y un proyectil dados tomaran parte en la colisión, fue preciso evacuar la región del choque, lo cual implicó desarrollar técnicas de alto vacío, hoy presentes en tanta industria moderna.

Finalmente, para contar y detectar las partículas salientes del choque, se necesitó desarrollar detectores, contadores electrónicos y otros sistemas. Todo ello habría de tener, y seguramente seguirá teniendo, enormes repercusiones en nuestro mundo moderno, tan lleno de tecnología, mucha de ella creada por el afán de unos cuantos científicos por entender al núcleo y sus partes.

Los primeros aceleradores fueron del tipo de Cockroft-Walton. Pronto fueron superados por los Van de Graaff, con los que se hicieron los primeros experimentos nucleares precisos. Con uno de ellos se inicia la participación de México en la física nuclear. Al iniciarse los ańos cincuenta, el entonces coordinador de la Investigación Científica de la UNAM, doctor Nabor Carrillo, visitó una fábrica de aceleradores cerca de Boston. Quedó muy impresionado con lo que podría lograrse con estas máquinas y, viendo que su precio se hallaba al alcance de la Universidad, a su regreso a México comunicó su entusiasmo al rector y al gobierno federal. Por aquella época, la nueva sede de la UNAM se hallaba en construcción, y así se logró que llegara al Pedregal de San Ángel, a la Ciudad Universitaria, un acelerador Van de Graaff que se terminó de instalar en el Instituto de Física en 1952. Con ello no sólo contó ese Instituto con el primer laboratorio en funcionar en la Ciudad Universitaria, sino con el más avanzado aparato para investigación nuclear en toda América Latina. Desde un poco antes, en 1950, sale un grupo de jóvenes investigadores a especializarse en las nuevas técnicas nucleares, principalmente al Instituto Tecnológico de Massachusetts, ITM, institución con la que habrían de mantenerse, hasta el presente, magníficas relaciones de investigación en el campo nuclear.

Muchos y variados fueron los temas que los investigadores mexicanos abordaron en sus experimentos durante más de diez ańos. Veamos los que se refieren al conocimiento básico del núcleo.

Al igual que los átomos, los núcleos y de hecho todo sistema microscópico muestran ciertas energías características, el espectro que antes mencionamos, y que dio origen a la hipótesis de Niels Bohr. Esto se demostró, en el caso del núcleo, haciendo incidir partículas ligeras como el protón, el neutrón y aun el conjunto de los dos, llamado deuterón, contra blancos nucleares formados por distintos elementos químicos: carbono, oxígeno, calcio, plata, plomo, etc. Se observó que las partículas ligeras formaban un compuesto con el núcleo blanco, el núcleo compuesto, y que emergían con pérdidas de energía características. De estas últimas se dedujo que el núcleo podía tener estados discretos de energía. El análisis de estos estados fue una de las ramas principales de la física nuclear, la espectroscopia nuclear, la segunda espectroscopia. Usando tanto el Van de Graaff del IFUNAM, como otros aceleradores en el extranjero, los físicos mexicanos descubrieron y caracterizaron muchos de estos estados o niveles de energía.

Al mismo tiempo se desarrollaron una buena cantidad de instrumentos nucleares asociados con el acelerador. En particular, el laboratorio Van de Graaff se especializó en desarrollar espectrómetros magnéticos, con los cuales era posible medir con alta precisión la velocidad de las partículas resultantes de la reacción nuclear. Algunos de estos aparatos se encontraron entre los más finos en su tiempo.


XX. MODELOS TEÓRICOS DEL NÚCLEO


COMO ya dijimos, el objetivo de la física nuclear es entender un complejo sistema de protones y neutrones que sienten la fuerza nuclear. Veamos un poco cuáles son las características de esta fuerza. Primero, es muy intensa, mucho más que la fuerza eléctrica de Coulomb. Por lo tanto, la energía que se debe comunicar a un nucleón para expulsarlo del núcleo es grande. Y si logramos romper al núcleo en muchos pedazos, la energía liberada puede ser enorme, como en la fisión nuclear que mantiene operando un reactor nuclear. Si esta liberación de energía se desboca, tendremos una bomba, la mal llamada bomba atómica, en realidad bomba nuclear. En segundo lugar, la fuerza entre nucleones es muy compleja, a diferencia de la eléctrica, que se expresa simplemente así.. dos cargas se atraen o repelen con una fuerza proporcional a sus cargas e inversamente proporcional al cuadrado de la distancia que las separa. ¡Ojalá tuviéramos una expresión tan simple para la fuerza nuclear! Esta última es repulsiva cuando los nucleones se acercan mucho y casi se tocan, se vuelve después atractiva a distancias un poco mayores y, finalmente, desaparece cuando la separación entre los nucleones apenas es igual a 4 o 5 veces el radio del protón, que es menor de l0-13cm. Por ello se dice que la fuerza nuclear es de muy corto alcance. Además, los protones y neutrones poseen, al igual que el electrón, un espín y la fuerza nuclear depende de este estado de rotación intrínseca de los nucleones.

Bástenos con lo anterior para darnos cuenta de que la fuerza nuclear es complicadísima. ¡Qué dificultades no habrá entonces para calcular las propiedades del sistema de nucleones! Sin embargo, los físicos son tercos y no se arredran fácilmente. Ya que el problema nuclear plantea dificultades matemáticas insuperables, se inventaron caricaturas de la realidad, modelos matemáticos simplificados, con los cuales es posible predecir en forma aproximada las propiedades del núcleo.

La teoría nuclear tomó dos rutas que hasta mediados de los sesentas aparentaban ser divergentes. Por un lado, se desarrolló un modelo de partículas independientes, semejante al modelo de capas atómico, y por ello llamado el modelo de capas nuclear. Por el otro lado, se buscaron imágenes del núcleo a semejanza de objetos macroscópicos, como una piedra que gira o una gota de líquido que vibra. Estos últimos modelos, llamados colectivos porque el movimiento de un nucleón está muy condicionado por el movimiento de todos los otros nucleones, toman como hipótesis una interacción muy grande entre los componentes nucleares. El primer modelo, como lo indica su nombre, supone que la interacción entre los nucleones casi se agota al generar una fuerza promedio que actúa sobre todos los nucleones por igual; lo que resta de la interacción nucleón-nucleón, tan intensa, apenas perturba el movimiento de cada nucleón en ese campo de fuerzas promedio.

A mediados de los anos sesenta, se dan los primeros pasos para hacer los modelos colectivos compatibles con el modelo de capas nuclear. Ello fue en buena medida posible gracias al método de paréntesis de transformación desarrollado en 1960 por Marcos Moshinsky en el Instituto de Física de la UNAM, que permitió por primera vez realizar de manera sistemática cálculos con fuerzas nucleares complicadas dentro del modelo de capa nuclear. Estos paréntesis fueron tabulados usando la primitiva computadora IBM 650 que entonces tenía la Universidad, y pronto fueron usados en todo el mundo. De hecho, el primer cálculo que se hizo con los paréntesis también se llevó a cabo en el IFUNAM, habiéndose obtenido el espectro nuclear, o sea las energías características y discretas, del núcleo 210Bi, empleando una fuerza nuclear bastante compleja. Se explicaron así por primera vez las observaciones experimentales sobre este núcleo.

A partir de este momento, los físicos teóricos mexicanos enfocan su actividad al uso de las simetrías y su influencia en las propiedades nucleares. Tal vez una palabra sobre la importancia de este campo no esté fuera de lugar aquí. La simetría en física es un concepto muy profundo, que atańe a las propiedades mismas del espacio y del tiempo. Supóngase, por ejemplo, que el espacio es homogéneo, esto es, que tiene las mismas propiedades en todos los puntos. Esto implica de inmediato que no puede haber fuerzas distintas de cero en ningún lugar y, según las leyes de la mecánica (tanto clásica como cuántica), la velocidad de una partícula que se moviera en este espacio homogéneo sería constante. De la simetría, que en este caso es la homogeneidad del espacio, se concluye que una cantidad, en este caso la velocidad de una partícula, es constante, es decir, se conserva. Simetría implica conservación y, claramente, la existencia de una cantidad conservada en la práctica ayuda a resolver el problema de describir el movimiento del sistema físico.

En el caso nuclear, el sistema es tan complejo que se dan sólo simetrías en forma aproximada. Se busca, sin embargo, simplificar la forma de la fuerza nuclear para que sea invariante frente alguna operación y exista entonces alguna cantidad que se conserve. En esta búsqueda de simetrías aproximadas y de consecuencias físicas en la estructura del núcleo, se trabajó en el IFUNAM, desde principios de los ańos sesenta hasta bien entrada la década. Se desarrollaron nuevos conceptos matemáticos, técnicas de cálculo novedosas y se aplicaron a núcleos ligeros como el 18O, 18F y 20Ne. En este último caso, se explicó con un cálculo aproximado del modelo de capas y empleando una interacción muy compleja, casi realista, un espectro de tipo colectivo. Los dos modelos extremos del núcleo empezaban a convergir. Estos trabajos fueron considerados en la Conferencia Internacional de Física Nuclear, que tuvo lugar en Tokio en 1967, como algunos de los avances importantes para entender el núcleo, logrados en esos ańos.

Por su lado, la física nuclear experimental continuaba su avance, aumentando la energía de los aceleradores y empleando cada vez mejores técnicas de detección y análisis. Al llegar los ańos sesenta, fue claro que para continuar el desarrollo de las investigaciones nucleares experimentales en nuestro país, era necesario adquirir equipo más poderoso. El gobierno de Estados Unidos donó al IFUNAM un nuevo acelerador, el dinamitrón, que tenía más energía que el antiguo Van de Graaff y, sobre todo, un haz de proyectiles de mayor corriente. Sin embargo, esta nueva adquisición no fue suficiente y hubo que emprenderse gestiones para la creación de un gran laboratorio nuclear, que habría de instalarse en Salazar, Estado de México. a unos 30 kilómetros de la capital. En el que sería el Centro Nuclear de México, se instalaron dos grandes máquinas, un Van de Graaff Tandem y un reactor Triga. El grupo de físicos que trabajaba en el IFUNAM se fraccionó al ir a trabajar varios de ellos con el nuevo Tandem a la entonces Comisión Nacional de Energía Nuclear. Se tuvo que enfrentar entonces enormes fallas de infraestructura y la acción no resultó tan fructífera como en la década anterior. De hecho, México perdió entonces su liderazgo en América Latina; en la actualidad Brasil y, próximamente, Argentina, cuentan con laboratorios nucleares más complejos.

En los países avanzados, mientras tanto, se genera un nuevo tipo de física nuclear experimental: la física de iones pesados. Veamos qué significa esto. En los experimentos a que nos referimos antes se hacía chocar contra un blanco cualquiera un proyectil ligero. Es decir, el haz de partículas que se podía acelerar estaba formado por núcleos con pocos nucleones: un protón, un deuterón, si acaso un núcleo de helio o partícula a. No era posible usar núcleos más pesados porque éstos, al estar cargados positivamente, eran repelidos fuertemente por el blanco también cargado positivamente. Para vencer esta repulsión fue necesario aumentar la energía de los aceleradores y esto implicó generar nuevas técnicas, nuevos materiales, en fin, el desarrollo de más tecnología. El Van de Graaff Tandem fue uno de estos ingeniosos desarrollos: se ponía un acelerador en serie con otro, de tal manera que los proyectiles eran acelerados dos veces y adquirían más energía. Ahora es posible hacer chocar un núcleo pesado contra otro y toda una visión diferente del núcleo se abre. Por así decirlo, los experimentos anteriores tan sólo rascaban la superficie del núcleo, mientras que ahora es posible ir a su interior.

Un grupo grande de físicos, tanto teóricos como experimentales, trabaja ahora en México en la física nuclear de iones pesados. Se ha realizado, en colaboración con investigadores de los laboratorios de Oak Ridge y de Berkeley, un conjunto de reacciones entre iones pesados. Y desde el punto de vista teórico se trabaja en modelos para entender estos resultados. Recientemente, se ha avanzado en la formulación del modelo colectivo y sus simetrías, en el estudio estadístico de los espectros y de las reacciones nucleares y en el estudio del modelo de partículas independientes en sus versiones más actuales.


XXI. LA FÍSICA DE PARTÍCULAS MUY VELOCES


CUANDO la energía de los proyectiles aumenta, el núcleo blanco puede volar en mil pedazos. Y si hacemos todavía más grande la velocidad de las partículas aceleradas, puede "verse" no sólo lo que hay en el interior del núcleo, sino que aun podemos incursionar dentro de los nucleones mismos. Entramos así, de lleno, al mundo subnuclear, o física de altas energías, o física de partículas elementales. Este mundo maravilloso está poblado por partículas muy pequeńas que se estudian con la ayuda de grandes aceleradores.

Como ya hemos dicho varias veces, los sistemas microscópicos se rigen por las leyes cuánticas; y, también ya lo mencionamos, las partículas muy rápidas sufren los efectos relativistas. A esos veloces proyectiles pequeńitos habrá que formularles, pues, un conjunto de leyes que sean al mismo tiempo cuánticas y relativistas. En otros términos, se deberá buscar el matrimonio de la mecánica de Schrödinger y Heisenberg con la física relativista de Einstein. Antes de contar las vicisitudes de este matrimonio es conveniente describir con un poco de detalle a uno de los cónyuges.. la teoría de la relatividad. Hacia finales del siglo XIX, la óptica presentaba a los físicos una serie de quebraderos de cabeza: por ejemplo, no habían sido capaces de medir la velocidad de la luz con respecto al éter, medio misterioso y omnipresente que portaba las oscilaciones luminosas. żQué sucedería, se dijo Einstein en 1905, si en verdad medir la velocidad absoluta de luz fuera imposible, debido a que así está construida la Naturaleza? En otros términos, y pensando en los sistemas de referencia inerciales que describimos al hablar de Galileo y Newton, żqué sucede si postulamos que la velocidad de la luz es la misma (e igual a trescientos mil kilómetros por segundo) cuando se mide no importa con respecto a qué sistema inercial?

El anterior postulado se justifica si lo planteamos de otra forma, tal vez más asequible. Vamos a suponer que existe una ley de la naturaleza que nos dice de un límite para la velocidad con que se pueden mover las cosas materiales. De acuerdo con la primera ley de Newton, o principio de relatividad, ese valor límite será el mismo en todo sistema inercial. Pero si buscamos una velocidad muy alta que pueda desempeńar el papel de velocidad límite, la más grande conocida es la de la luz. En tal caso, ninguna partícula, ni seńal que lleve algún tipo de información, podrá rebasar la velocidad de la luz y ésta será la misma en todos los sistemas inerciales.

Las consecuencias de la suposición de Einstein son múltiples. Ahora los eventos que ocurren simultáneamente para un cierto observador, no son simultáneos para otro observador que se mueve respecto al primero, es decir, el postulado de Einstein ha demolido el concepto de tiempo absoluto, uniendo la idea de espacio a la de tiempo y creando el concepto del espacio-tiempo.

Las consecuencias dinámicas de la suposición de Einstein -aunada al principio de relatividad de Galileo-, son enormes. La segunda ley de Newton, que se refiere a la aceleración y por tanto al cambio en el tiempo de la velocidad, ya no es válida al alterarse el concepto básico de tiempo. Se genera, además, la equivalencia entre masa m y energía E que en la física relativista son en esencia lo mismo: E=mc2, donde c es la velocidad de la luz, que es una constante física. En otros términos usar la energía en vez de la masa es como cambiar el sistema de unidades y por tanto no esencial.

Todo ello llevó también a una formulación matemática de las leyes de movimiento que es más complicada que la formulación newtoniana, lo que se traduce en "problemas conyugales" al tratar de casar a la mecánica cuántica con la relatividad.
_____________________________________________________

#14 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 04 agosto 2007 - 10:45

_______________________________________________

Continuamos...


XXII. LA MECÁNICA CUÁNTICA RELATIVISTA


EL MATRIMONIO teórico entre la mecánica cuántica y la relatividad fue propuesto luego de haberse inventado la primera. Paul Dirac, el gran teórico inglés, que encontró la ecuación cuántica relativista que ahora lleva su nombre para describir al electrón descubrió con gran sorpresa que, junto al electrón, su famosa ecuación predecía la existencia de otra partícula de igual masa pero con algunas propiedades opuestas; por ejemplo, su carga eléctrica resultaba ser positiva. Y, además este positrón, como dio en llamársele, era peor que Caín: al encontrarse con su hermano electrón, lo aniquilaba, destruyéndose al mismo tiempo, y dando origen a energía luminosa. El positrón es, pues, la antipartícula del electrón. Hemos dicho que Dirac fue el primero en intentar unir las ideas cuánticas con las relativistas. Esto en realidad no es cierto, pues el primero fue Schrödinger, un ańo antes de formular su teoría de la mecánica ondulatoria. Sin embargo, Schrödinger no logró explicar el espectro del átomo de hidrógeno con su primera formulación, que era relativista; le faltaba tomar en cuenta que el electrón tiene spin, hecho desconocido en su tiempo. Lo que es cierto, entonces, fue que Dirac consiguió el primer casamiento cuántico-relativista que tuvo éxito, como ahora veremos.

ĄConque Dirac predice las antipartículas! ĄHabría que buscarlas! Anderson las encontró en 1932 analizando las trazas ionizantes que dejaban las partículas resultantes de colisiones atómicas con las partículas muy energéticas de los rayos cósmicos. El trazo que deja una partícula en una cámara de niebla es proporcional al cuadrado de su carga; por otro lado, es fácil averiguar el signo de la carga. Aunque se confundió primero a la partícula encontrada por Anderson con un protón, pronto se comprobó que su masa era idéntica a la del electrón. ĄSe había hallado al fin al positrón! Nuestro matrimonio no habría de ser estéril y tuvo a su primer hijo, el hermoso concepto de antipartícula, que habría de resultar muy general: a toda partícula elemental ha de corresponder una antipartícula. El zoológico fantástico del mundo subnuclear empieza a poblarse: tenemos ya al electrón y al positrón, partículas ligeras, y al protón y al neutrón, dos mil veces más pesados.

El matrimonio de marras habría de resultar complicado y difícil de sobrellevar. De hecho, no ha podido avenirse bien hasta el presente, no obstante la infinidad de esfuerzos de los físicos más brillantes del segundo tercio del siglo XX. Tal vez la razón sea muy profunda, subyacente a las dos teorías que se desea unir. Así, tenemos por un lado la mecánica cuántica en la cual las acciones del observador no son despreciables, como vimos al explicar el principio de incertidumbre. Por su parte, en la teoría de la relatividad nos encontramos como básicos conceptos tales como un sistema inercial, que sólo son concebibles si el efecto del observador es muy pero muy pequeńo. żNo estaremos frente a dos caracteres incompatibles? Tal vez.

Continuemos con la historia de las partículas elementales, tan rápidas y pequeńas. Pensemos otra vez en la fuerza nuclear. Si somos conscientes de la relatividad, la llamada acción a distancia no tiene cabida, pues implica la transmisión de una seńal a velocidad infinita, en contra del postulado de Einstein. Más bien, habrá un mensajero entre un nucleón y el otro con el que interactúa y que lleva información del uno al otro y le hace sentir su presencia. La masa de este mensajero proviene de una fluctuación en la energía de uno de los nucleones, la cual puede tener lugar durante un cierto intervalo de tiempo, si creemos en el principio de incertidumbre. Mientras mayor sea la masa del mensajero, la fluctuación en energía requerida es mayor y menor el tiempo que puede durar. Puesto que según la relatividad se tiene una velocidad límite —dada, por razones misteriosas, por la velocidad de la luz— que ninguna partícula material puede rebasar, es claro que mientras mayor sea la masa del mensajero, menor será la distancia que pueda recorrer. De ahí que el alcance de la fuerza, o sea la distancia a la que se deja sentir, dependa de la masa del mensajero. En particular, si esta masa es muy pequeńa, digamos nula, el alcance será infinito.

Este juego maravilloso, en el que se brinca de un lado para otro usando a veces ideas cuánticas, a veces conceptos relativistas, fue inventado por el físico japonés Hideki Yukawa en 1935. Usando el dato, ya conocido por entonces, sobre el corto alcance de la fuerza nuclear, Yukawa encontró que debería existir un mensajero con masa intermedia entre el protón y el electrón; obviamente, a esa nueva partícula predicha por Yukawa se le llamó mesón. El intercambio de uno o más mesones daría origen a la interacción nuclear.

Un ańo después del trabajo de Yukawa, varios físicos encontraron en los rayos cósmicos una partícula con masa igual a aproximadamente 200 veces la del electrón y con una vida media igual a 2 microsegundos. No sólo crecía el zoológico, sino que también se comprobaba la existencia del segundo hijo del matrimonio cuántico-relativista. Sin embargo, pronto el gozo fue al pozo, pues estos mesones m o muones, como se les dio en llamar, no interactúan fuertemente con la materia. żCómo habría de pensarse en un mensajero de la fuerza nuclear, el intermediario entre nucleones, indiferente a la presencia de estos últimos? El misterio perturbó a los físicos por diez ańos, hasta 1947 en que se descubrió a otro mesón, el mesón p, un poco más pesado que el m, pero éste sí muy sensible a los nucleones. Todavía hoy pensamos que, en buena parte, la fuerza nuclear se debe al intercambio de estos piones.

Los descubrimientos de nuevas partículas se siguen después uno al otro y con ellos se emprende la taxonomía fundamental. Se clasifican las partículas por su masa:leptones (electrón, positrón, neutrino), mesones (m, pión, K y otros) y bariones (nucleón, hiperón, etc.); o por el tipo de interacción a que están sujetos: aquéllos que sienten la interacción fuerte, como el pión o el neutrón, reciben el nombre de hadrones. Se establece también que existe otro tipo de interacción, la llamada débil, menos intensa que la eléctrica, y que es responsable del decaimiento beta de los núcleos. Con ello nos quedamos con cuatro fuerzas fundamentales: la nuclear, la electromagnética, la débil y, desde luego, la gravitacional. Además, a las nuevas partículas se les mide su espín y aparecen en escena algunas otras características aún más raras, como la extrańeza y el isoespín, por ejemplo.

En unas cuantas décadas hemos recorrido un largo camino: desde el descubrimiento del núcleo, al del neutrón y luego a las extrańas partículas extrańas. Se construyen también nuevos y potentes aceleradores, herederos del viejo Cockroft-Walton, con los cuales se crean nuevas partículas y se comienza a explotar el interior, ya no del núcleo, sino del nucleón mismo. Se descubre que es una partícula compleja, que no es puntual, a diferencia del electrón y el mesón m. Este descubrimiento y la proliferación de las partículas subnucleares empujan hacia lo obvio. Habrá que buscar las componentes de las partículas "elementales", repitiendo la historia de la física nuclear, inventado, en dos palabras, la tercera espectroscopia. La primera, que dio origen a la mecánica cuántica, intenta explicar el espectro de los átomos; la segunda se ocupa de los niveles energéticos del núcleo; y la tercera busca correlacionar las masas de las partículas elementales, como los bariones, entendiendo esas masas como una manifestación del movimiento de los constituyentes de esas partículas que ahora ya no son tan fundamentales.

Nacen así hace veinte ańos los quarks, hasta ahora los entes materiales fundamentales propuestos por el hombre. Gellman, uno de sus inventores, los bautizó con esa curiosa palabra alemana que significa fruslería, y que no podía menos que tener origen mefistofélico. En el "Prólogo en el Cielo", de Fausto, Goethe hace que Mefistófeles se burle del hombre y sus actos, al decir: "No hay fruslería donde no meta su nariz." Esa fruslería es el quark.

Se propuso que los bariones estarían constituidos por tres quarks, mientras que los mesones por un quark y un antiquark. Con los leptones todavía no se atreven los físicos, considerándolos aún puntuales y, por tanto, elementales. El mesón m, por su parte, es una especie de electrón gordo y su esencia continúa siendo un misterio. La tercera espectroscopia afronta el reto de entender las masas y otras propiedades de los mesones y los bariones a partir del quark y sus interacciones.

El quark es un bicho extrańo en el zoológico de las partículas. Todas las partículas conocidas tienen una carga eléctrica que es un múltiplo entero de la del electrón. Pues bien, el quark no ha de tener esta propiedad. De hecho, se propusieron originalmente tres tipos de ellos: u, d y s, cuyas cargas eran, respectivamente, -1/3, 2/3 y 2/3. Así, el protón cuya carga eléctrica es 1, medida en términos de la del electrón, estaría formada por los quarks udd, y el neutrón, cuya carga eléctrica es nula, sería formada por uud. El quark extrańo s ayudaría a construir las partículas con extrańeza.

La carga eléctrica 1/3 o 2/3 del quark lo hace único y en principio detectable, analizando los trazos que pudiera dejar en una cámara de niebla. Aunque a veces se ha creído encontrar un quark libre, hasta ahora todos los intentos de búsqueda han resultado infructuosos. Sin embargo, mediante la suposición de que existen los quarks pueden explicarse muchos datos experimentales y se han hecho predicciones teóricas que han sido luego corroboradas por la observación. Es por ello que muchos físicos creen hoy en día en la existencia del quark, llegando incluso a pensar que es muy posible que el quark no pueda vivir aislado y por eso no lo hemos visto.

Así como la carga eléctrica es la fuente del campo electromagnético, los quarks tienen una "carga nuclear", que hoy se llama color: los quarks vienen en tres colores, digamos rojo, verde y azul. Las partículas que observamos no tienen color. Esta regla simple nos permite entender por qué un protón está formado por tres quarks y por qué no podremos observar uno aislado. Este juego de colores y quarks se llama hoy cromodinámica cuántica, en analogía a la electrodinámica cuántica que es la teoría cuántica de la electricidad y el magnetismo. La cromodinámica cuántica es la teoría cuántica de las interacciones nucleares.

Para entender la existencia de nuevos mesones, fue necesario suponer que aparte de los quarks u, d y s existían otros: el quark c, o encantado, y el quark b. Se encontraron experimentalmente partículas formadas por un quark y un antiquark encantadas; también se halló la combinación de b con su antiquark. Además, y acorde con las ideas cuánticas del campo, se supone que entre los quarks deambula un gluón, que actúa como mediador de la interacción fuerte entre ellos. Puesto que el gluón tiene color, no puede observársele directamente, aunque hay evidencias experimentales indirectas de su existencia.

Aun cuando en los últimos ańos se ha avanzado mucho, el misterio de la estructura de la materia subsiste para beneplácito de los científicos. En apariencia hemos avanzado poco desde los átomos lisos o rugosos de Demócrito hasta los quarks invisibles de Gellman. Obviamente esto no es cierto. La imagen que los físicos han construido de la naturaleza, con sus moléculas, átomos, núcleos, protones y quarks, con su mecánica cuántica y su teoría de la relatividad, nos permite ahora dar respuesta a todos los porqués mencionados antes. Y no sólo eso, la física moderna, plagada de aceleradores tan diversos, ha generado un conjunto enorme de nuevas tecnologías que han afectado grandemente la vida humana. Para probar estas afirmaciones en un caso específico, describiremos ahora la física del estado sólido, rama que hemos elegido porque es la más activa en la actualidad, ya que en ella trabaja al menos un tercio de los físicos profesionales.

XXIII. LA HISTORIA DE LOS CRISTALES


ESBOZADA una imagen de la materia, desde los cuerpos macroscópicos hasta las partículas elementales, vamos a aplicar nuestras ideas para entender a los sólidos y en particular a los sólidos cristalinos, y poder contestar así las preguntas que hicimos al principio. Para ello formularemos la teoría atómica del sólido, con la que se trata de entender las propiedades de los cristales en base a las de los átomos que lo forman y a la manera en que ellos interactúan, aplicando siempre la mecánica cuántica. Otra vez tenemos todos los elementos de la teoría de un sistema físico: la descripción de los subsistemas, la interacción entre éstos y las leyes de movimiento. De ahí extraeremos conclusiones que luego habrán de verificarse experimentalmente, con la consecuente retroalimentación a la teoría. Esta es la espiral sin fin de la física.

Un sólido cristalino está formado por un arreglo ordenado de átomos. Este arreglo o red cristalina puede generarse repitiendo indefinidamente un arreglo elemental, llamado celda unidad. De esta forma se obtiene una estructura periódica que permanece invariante frente a unas ciertas translaciones, como las grecas de Mitla.

Podemos imaginarnos una infinidad de celdas unidad y, por tanto, de grecas o redes cristalinas resultantes. Sin embargo, las matemáticas han puesto cortapisas a nuestra imaginación pues el requisito de invariancia translacional es fuerte. Por ejemplo, las celdas unidad no pueden ser de forma pentagonal, ya que con pentágonos no es posible cubrir un plano totalmente sin dejar resquicios. Los geómetras han encontrado que sólo unos cuantos cientos de estructuras cristalinas diferentes son posibles y los han clasificado minuciosamente.

Aunque ya los griegos habían hecho observaciones sobre los cristales, su estudio se inicia en el siglo XVII, por Stensen y Guglielmini, llegándose a encontrar en 1772 una ley enunciada por Romé de l'Isle: en todos los cristales de la misma substancia, los ángulos entre caras correspondientes tienen el mismo valor (cuando se les mide a igual temperatura). De l'Isle no logró proponer un modelo que diera cuenta de su observación y fue René Just-Haüy, al dejar caer un cristal de calcita y observar las caras idénticas de los fragmentos, quien sugirió la existencia de la celda unidad a la que llamó molécula integrante. Él empleaba sólo tres tipos distintos de moléculas integrantes pero, como ya lo mencionamos, se tienen muchos más como demostró Bravais el siglo pasado.


XXV. ALGUNAS PROPIEDADES DE LOS SÓLIDOS


CON la imagen que hemos construido de los tres tipos de cristales, żqué propiedades podemos esperar de cada uno? En el metal, pletórico de electrones itinerantes, casi libres, esperaríamos que un campo eléctrico pueda mover fácilmente a esas partículas de valencia no amarradas a ningún átomo en particular. Pero esto es lo que caracteriza a un buen conductor eléctrico. Por otro lado, cuando incide un rayo de luz sobre el cristal metálico, los campos electromagnéticos que forman la onda luminosa hacen oscilar a los electrones libres, que generan al acelerarse una radiación reflejada. Por lo tanto, conducen mal la luz al ser buenos reflectores: en otros términos, son opacos. En cuanto a sus propiedades térmicas, podemos esperar que los metales sean buenos conductores del calor, siendo la explicación microscópica semejante: si se aumenta la temperatura en un cierto punto del metal, esto implica aumentar la energía cinética de los electrones menos amarrados, que luego transportan esa energía a todos los confines del cristal. Por otro lado, el amarre metálico proveniente del gas de electrones es poco direccional. Los átomos de la red pueden desplazarse de su posición de mínima energía sin que ésta se altere mucho, ya que el gas de electrones, por decirlo así, se adapta a las nuevas posiciones de los átomos. Esto implica, claro, que los metales se pueden deformar sin llegar a la fractura. Finalmente, y otra vez debido a que el amarre entre iones procede del muy dúctil y poco exigente gas de electrones, se pueden dar muy diversas mezclas de dos metales, sin que dependan fuertemente de las proporciones relativas de cada elemento. De ahí que exista una gran variedad de aleaciones metálicas.

Pensemos ahora en la imagen nuestra de un cristal covalente, en que los electrones de valencia están ocupados en ligar al cristal. No hay en este caso quien transporte la carga o la energía térmica. Si no hay agentes portadores, la información no llega nunca, o al menos tarda mucho en llegar. Resultado neto, los cristales covalentes no son buenos conductores ni de la electricidad ni térmicos: se pueden usar como aislantes. Como dijimos antes, el enlace covalente es muy direccional y por tanto la posición de equilibrio en la red puede ser delicada. Estos sólidos, en consecuencia, no serán dúctiles sino quebradizos. Finalmente, no existe el mecanismo por el cual se reflejaba la luz al incidir en un metal, y podemos esperar que los cristales covalentes sean buenos conductores de la radiación electromagnética, o sea transparente.

Propiedades muy semejantes podemos esperar de los metales iónicos, si acaso alguna diferencia en sus propiedades ópticas y mecánicas. Por ejemplo, cuando incide sobre un cristal iónico una onda electromagnética cuya longitud es mucho mayor que la distancia típica que separa a los iones, tanto el ion positivo como el negativo sienten un campo eléctrico del mismo signo. Pero responden a él de manera contraria y se puede excitar una vibración en la malla cristalina si la frecuencia es la apropiada. A esta frecuencia, el cristal iónico absorbe la luz y ya no es transparente.

żQuién no ha sentido frío en la mano al tocar una perilla metálica? żQuién no ha visto los destellos primorosos de los diamantes? żNo sabemos que los mejores espejos están metalizados? żO que las extensiones eléctricas son en general de cobre, un metal? Todo ello se explica con los modelos para los sólidos que hemos desarrollado.


XXVI. EL MODELO DE PARTÍCULAS INDEPENDIENTES


ASÍ como en el átomo generamos un modelo de capas, en que sólo se toma en cuenta la atracción que ejerce el núcleo sobre cada electrón despreciando la interacción entre éstos; en la misma forma que para el núcleo inventamos un modelo de capas en que la parte principal de la interacción entre los nucleones se agota en producir una fuerza promedio; así también para los sólidos se ha desarrollado un modelo de partículas independientes que en este caso se llama la teoría de bandas. E igual que en la física atómica y en la teoría nuclear, este modelo resulta esencial para aplicar las ideas cuánticas al estudio de los cristales.

Para entender la teoría de bandas, es conveniente imaginarse que formamos el cristal juntando un átomo tras otro. Por simplicidad supongamos que todos los átomos son iguales. Cuando los átomos están muy alejados unos de los otros, las energías de los electrones son idénticas a las del átomo aislado. Cuando los acercamos, la presencia de un átomo perturba un poco los niveles de energía del otro. En consecuencia, de cada nivel atómico se genera una banda de niveles, tan próximos entre sí que forman un continuo. En alguno de estos niveles de energía estarán los electrones del sólido.

Dependiendo de los átomos de que se trate, las bandas provenientes de niveles atómicos contiguos pueden superponerse o estar separadas por una brecha de energías prohibidas que ningún electrón puede ocupar dentro del sólido.

Veamos ahora cómo se usa este modelo para entender, digamos, las propiedades eléctricas de los sólidos. Para ello, apliquémoslo a dos casos particulares: el del sodio sólido y el del diamante.

Cuando se forma un cristal de sodio, cada átomo contribuye con un electrón de valencia, que irá a acomodarse en los estados de una banda, buscando aquellos de menor energía. Según el principio de Pauli, en cada estado de la banda caben dos electrones, uno con el espín orientado en dirección contraria al otro, y no más. Pero entonces sólo se llena la mitad de estados de la capa, habiendo muchos estados disponibles, a los cuales puede llegar un electrón si se le excita un poco. Es decir, es fácil comunicarle energía cinética a uno de los electrones de valencia del cristal de sodio. Esto puede lograrse, por ejemplo, con un campo eléctrico. El sodio sólido es un buen conductor, como todos aquellos cristales que presentan en su estado de menor energía una banda semillena.

El caso del diamante es diferente. Ahora las dos bandas inferiores están completamente llenas, pues cada átomo contribuye con un número par de electrones de valencia. Entre los estados ocupados y los vacíos se encuentra una brecha de estados prohibidos, que en este caso particular es de 6 eV, cercana a la mitad de la energía de amarre de un electrón en el átomo de hidrógeno. Habría que comunicarle a un electrón al menos esta energía, para que pudiera moverse libremente. O sea, sujetarlo a un voltaje del orden de 6 voltios. Es muy difícil, y en consecuencia el diamante es un buen aislador. Obviamente, a medida que la brecha sea menor, el material es peor como aislante. Por ejemplo, la brecha en el caso del silicio es de sólo 1.1. eV. Esto se traduce en que el silicio sea mejor conductor que el diamante, aunque no tan bueno como un metal. Por ello se le ha clasificado como semiconductor.


XXVII. IMPUREZAS Y SEMICONDUCTORES


UN SÓLIDO peculiar y muy útil sería aquél en que pudiéramos modificar la conductividad eléctrica a voluntad.

De lo que hemos dicho, una manera de lograr esto seria cambiando el ancho de la brecha prohibida, o al menos logrando que haya algunos estados permitidos dentro de ella. Pensemos otra vez en el silicio, con sus cuatro electrones de valencia; de la red, cambiemos un átomo de silicio por otro de arsénico, que tiene cinco electrones en su capa más externa. De estos, cuatro van a intervenir en el enlace covalente con los átomos de silicio vecinos, pero el quinto electrón queda libre y puede ser itinerante en cuanto se le suministre un poco de energía. Este electrón puede transportar carga, con la consecuente modificación en la conductividad eléctrica. Otra posibilidad es, claro, cambiar un átomo de silicio por otro con sólo tres electrones de valencia. Entonces el nuevo átomo roba un electrón a alguno de sus vecinos, generando un agujero. Si este agujero se propaga, también lo hace una carga eléctrica positiva: se modifica, pues, la conductividad.

Lo que hemos hecho con el cristal perfecto de silicio es agregarle un defecto, que en este caso llamamos impureza. Agregando impurezas de manera controlada podemos generar materiales con diversas propiedades. Jugando con semiconductores impuros, como los descritos antes, fue como los físicos desarrollaron el transistor, que tanto ha influido en la vida del hombre contemporáneo. Si al semiconductor de silicio con arsénico le llamamos de tipo n, porque la conducción tiene lugar con una carga negativa, al otro le llamaremos de tipo p, ya que ahora se conduce carga moviendo un agujero, que implica falta de carga negativa o sea carga positiva. Un transistor consta de tres capas de semiconductores de uno y otro tipo. Por ejemplo, se tiene el transistor n-p-n, que consiste en una película muy delgada de semiconductor tipo p, emparedada entre dos capas de semiconductor tipo n. A la región central se le liaba base y a las capas exteriores se les denomina colector y emisor, respectivamente. Cuando el transistor opera, la base y el colector se conectan a la terminal negativa. Esto genera un flujo grande de electrones del emisor hacia la base, que por ser muy delgada no puede impedir el paso de todos los electrones, que entonces se difunden al colector dando lugar a una corriente a la salida de éste.

XXVIII. LA SUPERCONDUCTIVIDAD


DESDE los tiempos de Romé de l'Isle hasta la era actual, que bien podría llamarse la de la microelectrónica, han transcurrido tan sólo dos siglos. Creemos ahora entender qué es un sólido y cómo modificar muchas de sus propiedades. En particular, hemos visto que es posible controlar la conductividad de muchos materiales y la consecuencia tecnológica tan impresionante que ello ha tenido. En nuestra discusión, el papel central lo han desempeńado los electrones, sin que aparentemente intervengan, salvo en forma incidental, los iones. Aunque de la estructura cristalina y del tipo de átomo surgen las características de las bandas, nunca hemos aquí considerado que los iones puedan también moverse.

Sin embargo, es claro que los iones también se mueven, aunque lo hacen con menor celeridad que los electrones, ya que son miles de veces más pesados. Por otro lado, mientras el sólido permanezca como tal, los iones no podrán deambular por el cristal. Nuestra idea misma de un sólido, a diferencia de un líquido o de un gas, implica que los iones se encuentren limitados a la vecindad de su posición de equilibrio. Los iones, pues, sólo podrán oscilar con respecto a esos puntos de equilibrio. Y cuando la amplitud de la oscilación sea muy grande, comparable a la distancia interatómica en la red, el cristal empezará a fundirse.

Pensemos entonces en un modelo para las vibraciones de la red: los átomos se acoplan a sus vecinos próximos con algún tipo de resorte. Este es un modelo razonable, ya que los iones sólo vibran. Entre todos los posibles movimientos de los iones existen unos, llamados modos normales, en que todas las partículas oscilan con la misma frecuencia. A los cuantos de energía de estos osciladores normales se les conoce técnicamente con el nombre de fonones. Los fonones se parecen mucho a unas partículas microscópicas reales: tienen una velocidad y energías bien definidas; son del tipo bosón. Por otro lado, no pueden existir sin la malla, es decir, fuera del cristal. (Recuérdese que tal vez éste sea el caso de las partículas más fundamentales, los quarks.) Además, comunicando al sólido más energía, los átomos pueden vibrar más, creándose más excitación, o sea más fonones. Por otro lado, enfriando el cristal se logra que haya menos fonones. Por lo tanto, estas excitaciones de la malla se pueden crear y destruir.

Los fonones son responsables de muchos fenómenos en los sólidos. En particular de la resistividad eléctrica, pues interfieren con los electrones. Como ya vimos, al bajar la temperatura los átomos se aquietan y desaparecen los fonones. Cuando bajamos mucho la temperatura, ya muy cerca del cero absoluto, puede darse que a través de los iones un electrón atraiga a otro, venciendo la repulsión eléctrica entre las cargas negativas. Con esto, los dos electrones corren juntos y forman una pareja que, por estar formada de dos fermiones, se comporta como un bosón, que puede moverse sin resistencia a través del cristal. ¡Estamos ahora frente a un superconductor!

Esta explicación de la superconductividad se dio apenas hace veinticinco ańos, aunque la observación de este fenómeno de bajas temperaturas data de principios de siglo. El estado superconductor es muy diferente al estado normal de los metales. Presenta una resistencia muy baja, no permite que un campo magnético penetre a su interior, en fin, representa toda una fase diferente. Dadas sus posibles aplicaciones: líneas de transmisión sin pérdida, electroimanes que pudieran generar campos magnéticos enormes, una gran cantidad de trabajo teórico y experimental se ha hecho en las últimas décadas para entender a los superconductores. Especial atención se ha puesto en buscar materiales que sean superconductores a la temperatura más alta posible, incluso a la temperatura ambiente. Aunque esto no se ha logrado todavía, si algún día ello fuera accesible, la superconductividad se convertiría sin duda en una de las principales tecnologías al alcance del hombre.


__________________________________________________________________



CONTRAPORTADA



La gran rapidez con que ciencia y tecnología se han desarrollado en el mundo durante las últimas décadas ha tenido repercusiones sociales y culturales muy importantes. Actualmente, muchas de nuestras actividades cotidianas están vinculadas con alguno de los productos de esa continua inquietud que por entender a la naturaleza manifiesta el hombre. Sin embargo, pocas veces nos preguntamos sobre el origen y la magnitud del esfuerzo hecho por esa fracción de la humanidad, los científicos, dedicados al estudio de los fenómenos naturales, el dominio de los cuales trae como consecuencia el desarrollo tecnológico que, a su vez produce un cambio en nuestra vida diaria.

La física ha sido siempre pilar fundamental del desarrollo científico, y en este libro deseamos presentar en síntesis, el estado actual de esta ciencia. Se escribió tomando en cuenta al lector de cultura general, de manera que hemos omitido, hasta donde ha sido posible, el uso del lenguaje técnico. Hemos incluido una gran cantidad de ilustraciones vinculadas con el contenido del texto; sus pies de grabado permiten al lector enterarse del contenido básico del libro, al grado que éste puede leerse también en el material gráfico. Finalmente, deseamos hacer notar que el contenido didáctico del presente volumen puede ser de gran utilidad para el estudiante que se inicie en el estudio de la física.

Guillermo Aguilar Sahagún, Salvador Cruz Jiménez y Jorge Flores Valdés, autores de este libo son físicos mexicanos egresados de la Facultad de Ciencias de la UNAM, donde obtuvieron el doctorado en física. El doctor Aguilar es investigador del Instituto de Investigaciones en Materiales y el doctor Flores es director del Museo de Ciencias Universum, ambos centros de la UNAM; por su parte, el doctor Cruz es investigador de la Unidad Mérida del Centro de Investigación y de Estudios Avanzados.

Diseño: Carlos Haces / Fotografía: Carlos Franco


_____________________________________________________

Nota de la Administracion.... La segunda parte del libro no la publicaremos dado que la numerosa cantidad de figuras que contiene, que por lo demas son muy interesantes, nos llevaria mucho tiempo el subirlas.
Les dejo aca la direccion:


http://biblioteca.re.../htm/sec_34.htm
_______________________________________________________

Con esto terminamos el libro:

UNA OJEADA A LA MATERIA

Autores: GUILLERMO AGUILAR SAHAGÚN / SALVADOR CRUZ JIMÉNEZ / JORGE FLORES VALDÉS


IPB Image

_________________________________________________________






#15 Invitado_christine_*

Invitado_christine_*
  • Guests

Publicado el 19 diciembre 2007 - 03:39


Hola,
me gustaría saber si me puedes dar algún dato sobre la inducción electromagnética. No sé lo que necesito para generarla. La quiero utilizar para una lámpara, la corriente pasaría por cerámica de un grosor de 3mm,
sería buenísimo si me pudieras dar una pista...
Christine



CITA(Ge. Pe. @ Jun 29 2007, 11:13 AM) View Post
__________________________________________________

Continuamos... una sintesis de conocimientos fisicos realmente notable.

UNA OJEADA A LA MATERIA



_____________________________________________________________
V. LA GRAN SÍNTESIS DE MAXWELL


YA LOS antiguos se preocupaban por los fenómenos eléctricos y magnéticos. Los chinos descubrieron la brújula, los griegos bautizaron a la electricidad con la palabra electrón: ámbar. Los rayos habían generado multitud de leyendas, al ser considerados siempre manifestación de la ira de los dioses. Pero llegó el Siglo de las Luces, y un puńado de brillantes experimentadores franceses e ingleses establecieron las leyes, válidas hasta el día de hoy, de la electricidad y el magnetismo.

Charles Coulomb, usando una balanza de torsión, estableció la fuerza entre los polos de dos imanes y entre cuerpos electrizados. Demostró que esta fuerza entre dos cargas es semejante a la que rige la ley newtoniana de la gravitación: las fuerzas son inversamente proporcionales al cuadrado de las distancias que separan a los cuerpos. Por la misma época, André Marie Ampère, otro físico y matemático francés, descubrió la ley fundamental de la electrodinámica: una corriente eléctrica, o sea una carga en movimiento, produce un campo magnético.

Finalmente, el químico y físico inglés Michael Faraday descubrió la inducción electromagnética, en que se genera una corriente en un circuito cuando se le sujeta a un campo magnético variable. Así se convirtió al magnetismo en electricidad, como él una vez dijo. Con ello se cerraba el ciclo y se unían los fenómenos eléctricos y magnéticos, que muestran una sola asimetría: no existe la carga magnética, el famoso monopolo magnético, es decir, los imanes tienen dos polos, o sea, al partir un imán obtenemos otro de la misma naturaleza..

La síntesis no se hizo esperar. Tan sólo cuatro décadas después del descubrimiento de Faraday, el gran físico escocés James Clerk Maxwell publicaba su Tratado sobre electricidad y magnetismo, uno de los mayores logros del genio individual en la historia de la cultura. En él, Maxwell hace suya la idea de campo, propuesta por Faraday y que se opone a la de acción a distancia introducida por Newton. En todo el espacio en que hay cargas e imanes, existen dos campos, el eléctrico y el magnético; cambios en uno de ellos, inducen cambios en el otro, como nos dicen las leyes de Ampère y de Faraday. Al plantear sus famosas ecuaciones, surge inevitablemente para Maxwell el carácter electromagnético de la luz. En sus propias palabras: "Es difícil no inferir que la luz consista en oscilaciones transversas del mismo medio que es la causa de los fenómenos eléctricos y magnéticos." Este medio es el éter.


VI. RENACE EL ATOMISMO


YA MENCIONAMOS a Proust y a Dalton, quienes mostraron que al combinarse algunos elementos químicos para formar compuestos, lo hacen siempre de manera tal que las cantidades de un cierto elemento que se combinan con las de otro cualquiera, están siempre en proporción a sus pesos, y serán siempre múltiplos enteros de uno al otro. Dalton concluyó que esta ley se puede explicar si se supone que los elementos están formados por átomos, siendo los compuestos químicos la combinación del átomo de un elemento con uno o más átomos de algún otro elemento. La hipótesis atomista de Demócrito, formulada más de 2000 ańos antes, tomó nueva vida con los trabajos de Dalton.

La teoría atómica de la materia avanza incontenible en el siglo XIX, mano a mano con la revolución industrial. Amadeo Avogrado, físico italiano, distingue claramente entre átomo y molécula, que seria la unión de varios átomos, y establece la llamada ley de Avogadro, válida para los gases perfectos o ideales: iguales volúmenes de diferentes gases, a la misma presión y temperatura, contienen el mismo número de moléculas.

El químico ruso Dimitri Mendeleiev, por su parte, arregla los elementos de acuerdo a su peso atómico y establece conexiones entre las propiedades de diferentes substancias. Genera así la tabla periódica de los elementos, que él consideraba no como un mero sistema para clasificarlos, sino como una ley de la naturaleza, que podría ser usada para predecir nuevos hechos. Con ella predijo la existencia de nuevos elementos, que faltaban en su tabla periódica; su profecía se cumplió pocos ańos después, al descubrirse el galio, el escandio y el germanio. Ahora sabemos que esta tabla y sus regularidades en si no constituyen una ley de la naturaleza, sino que pueden explicarse por la teoría cuántica de los átomos complejos. Esto, sin embargo, no ocurrió sino hasta cerca de 60 ańos después de los trabajos de Mendeleiev.

Una vez aceptada la teoría atómica de la materia, los físicos del siglo XIX desarrollaron la teoría cinética de los gases. Según ella, un gas está formado por un gran numero de moléculas (o de átomos) en continuo movimiento regido por las leyes de Newton. Cuando alguna de estas moléculas choca con la pared del recipiente que contiene el gas, ejerce una fuerza sobre esa pared: esta es la versión cinética de la presión. También la temperatura se puede explicar. Al moverse con una cierta velocidad, una partícula de masa dada tiene una energía cinética igual al producto de su masa por la mitad del cuadrado de la velocidad. La temperatura es proporcional a la energía cinética promedio de las moléculas en el gas.

Elevar su temperatura significa dar mayor movilidad a las moléculas. Con estos conceptos de presión y temperatura, la teoría cinética explicó las leyes de los gases, lo que dio más fuerza al atomismo. Para propósitos posteriores, es conveniente recalcar aquí que para lograr tanto éxito, la teoría cinética de los gases se concentró sólo en el movimiento de moléculas, sin tomar en cuenta que una de ellas podría chocar con alguna otra. A un modelo tal, lo llamamos ahora modelo de partícula independiente.

Cuando bajamos la temperatura, la energía cinética de las moléculas disminuye y se puede llegar a un punto en que las moléculas estén casi en reposo, a lo más oscilando respecto a una posición de equilibrio. Es obvio que esto es un sólido. Si las posiciones de equilibrio de las moléculas forman un arreglo ordenado, como en una greca, entenderíamos las hermosas facetas de un cristal; si el ordenamiento no es tan perfecto, tendríamos un sólido amorfo. żCuál de estos ha de ser el caso? o żcuál será el arreglo preferido para una sustancia dada? No podemos averiguarlo, a menos que conozcamos más de cerca a las moléculas y al átomo.

____________________________________________________________



#16 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 20 diciembre 2007 - 02:53

CITA(christine @ Dec 19 2007, 03:39 PM) View Post
Hola,
me gustaría saber si me puedes dar algún dato sobre la inducción electromagnética. No sé lo que necesito para generarla. La quiero utilizar para una lámpara, la corriente pasaría por cerámica de un grosor de 3mm,
sería buenísimo si me pudieras dar una pista...
Christine


Estimada Christine: no soy entendido en esa materia, le puedo ayudar solo con lo q encontre en "google", pero creo q le servira,


http://www.asifuncio...magnetica_1.htm


Suerte.

Atte.
Ge. Pe.
Adm.
______________________________________

#17 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 03 mayo 2012 - 02:46

:estudiando

Enlace repuesto

Muy bonita la interfaz !

________________________________________


Enlace