Ir a contenido


Foto

Fisica. Termodinámica


  • Inicia sesión para responder
104 Respuesta(s) a este Tema

#61 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 05 julio 2007 - 08:09

____________________________________________________--

IPB Image


Fernando Sols


IPB Image

Profesor del Departamento de Física Teórica de la Materia Condensada de la UAM.

Director del Insto. Nicolás Cabrera de la UAM (hasta Junio de 2004).



IPB Image



El término Mundo Cuántico es redundante, pues todo el mundo es cuántico en su naturaleza. Pero afortunadamente, en la mayoría de los casos, sus sutilezas sólo se manifiestan de forma patente a escala atómica. Y decimos afortunadamente porque la comprensión de ciertos fenómenos cuánticos representa un auténtico reto intelectual. Por si esto fuera poco, cada vez con mayor frecuencia estos fenómenos rompen su "barrera de escala" para sorprendernos con comportamientos de carácter macroscópico de gran utilidad práctica, como es el caso de la superconductividad, la criptografía cuántica o los condensados de Bose-Einstein.

Sistemas cristalinos, superconductividad, cristales líquidos, propiedades generales de los metales, estructura atómica, enlaces....Todo lo que somos, lo que nos rodea es materia. Parece que en esas cuestiones no se puede separar la Química de la Física, ¿es esto así? ¿qué aporta la Ciencia Física al conocimiento de la Estructura de la Materia?


Una tendencia de las disciplinas científicas tradicionales es que cada vez tienen más puntos en común. Dentro de esa tendencia unificadora, lo que realmente distingue a un físico frente a los otros científicos no es tanto lo que estudia como su formación y el tipo de preguntas que se plantea. En cualquier caos, las fronteras no son drásticas. De hecho, hay temas de investigación donde concurren de forma natural científicos de diferentes disciplinas.

Un ejemplo claro es la Ciencia de Superficies, cuya revista científica más importante, Surface Science, tiene un título deliberadamente ambiguo, pues se ocupa tanto de la Química como de la Física de Superficies. Cuando estudiamos un átomo adsorbido en una superficie, la frontera entre la Física y la Química se hace borrosa: se plantean problemas de enlaces químicos y de propiedades del estado sólido que son de interés tanto para físicos como para químicos. Lo mismo sucede en Ciencia de Materiales, donde convergen físicos y químicos interesados en la comprensión y el diseño de materiales.

Si hubiera que establecer una separación dentro de este tipo de problemas, se podría decir que el estudio del estado sólido tiende a ser tarea de los físicos, mientras que las propiedades de las moléculas suelen ser investigadas por los químicos. Esta división obedece en buena medida a razones puramente históricas. Otra diferencia característica es que los físicos tratan de comprender en profundidad los sistemas más sencillos, mientras que los químicos se conforman quizás con menos profundidad pero se atreven a investigar estructuras moleculares de enorme complejidad.

Otro ejemplo reciente de intersección entre la Física y la Química es la Electrónica Molecular, donde se trata de diseñar dispositivos electrónicos cuyo comportamiento está dominado por las propiedades de unos pocos átomos o moléculas.

Sobre los puntos de encuentro entre la Física y la Biología podríamos hacer comentarios parecidos. Sólo cabe destacar que la Biofísica es una ciencia muy joven de la que se espera una gran expansión durante las próximas décadas. Digamos que el contacto entre Física y Biología es más reciente que el que existe entre Física y Química o Química y Biología (la Bioquímica).

¿De qué área o materias concretas se ocupa el que investiga la Estructura de la Materia?

Desde un punto de vista muy básico, podríamos decir que la materia está organizada en diferentes escalas de longitud y energía, cada una de las cuales es relevante en un rango de temperaturas específico. La Teoría de la Estructura de la Materia se ocupa de la organización de la materia a escala microscópica, es decir, a escala molecular o más pequeña. En este sentido, se puede decir que cuando uno estudia un gas molecular, está investigando la Estructura de la Materia; pero también es Estructura de la Materia el estudio de las propiedades de un núcleo atómico o de los quarks. En realidad, el concepto de Estructura de la Materia es muy general, casi tanto como el de Física.

IPB Image


_____________________________________________________________

#62 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 07 julio 2007 - 11:12

____________________________________________________________

Continuamos...

IPB Image


No tengo un especial problema para preguntar sobre asuntos de los que no tengo ni idea... ¡pero sobre tu especialidad me resulta especialmente difícil de “preguntar”! ¿Podrías recordarme dónde estás ubicado? ¿Cuál es tu área de trabajo? (¡ésta es una manera astuta de ganar tiempo!)


Yo soy físico teórico de la materia condensada. Aunque la Física es una ciencia experimental, hay físicos que nos especializamos en hacer cálculos con lápiz, papel y ordenador. Somos los llamados físicos teóricos y tenemos representación en casi todas las áreas de la Física. La Física de la Materia Condensada, incluyendo sus componentes experimental y teórica, abarca aproximadamente el 50% de toda lo que hoy en día entendemos por Física. Se dedica sobre todo a los sólidos pero también se ocupa de los líquidos, los polímeros y, en general, de todas las formas de la materia con las densidades típicas de los sólidos y líquidos, es decir, con átomos y moléculas en contacto cercano.

Esta disciplina aborda problemas muy distintos y tiene grandes repercusiones tecnológicas. ¡Sólo hay que pensar en las infinitas formas en las que átomos y moléculas pueden agruparse entre sí para presentar propiedades completamente diferentes! Estas dos razones, la gran variedad de problemas y el potencial interés tecnológico, hacen que seamos muchos los que nos dedicamos a la Física de la Materia Condensada.


Dentro de este campo tan amplio, yo me dedico al transporte de electrones en sistemas pequeños, que pueden ser nanoestructuras artificiales, o sistemas metálicos con algunas propiedades de interés. También me dedico a la Física de los Gases Cuánticos, que es un campo muy nuevo que presenta muchas analogías con la Física de Láseres. La idea es que, si un rayo láser es básicamente un montón de fotones en el mismo estado, un condensado de Bose-Einstein (que es el principal ejemplo de gas cuántico) está hecho de un montón de átomos en el mismo estado cuántico. Esto quiere decir que todos los átomos hacen exactamente lo mismo y, por la tanto, lo que normalmente haría un único átomo, ahora lo hacen todos de forma coordinada dando lugar a una amplificación a escala macroscópica. Podemos hablar entonces de Física Cuántica Macroscópica, un concepto sorprendente si tenemos en cuenta que tradicionalmente hemos asociado lo cuántico con lo muy pequeño.

Me gustaría que hicieras algún comentario sobre la investigación y que destacaras, dentro de ella, algún campo que te interese particularmente

Una de las principales tendencias de la investigación en los últimos años es el desarrollo de lo que podríamos llamar Ingeniería Cuántica, que consiste en la manipulación de la materia a escala muy pequeña con la finalidad de modificar sus propiedades cuánticas fundamentales.

Dentro del campo de la Física de la Materia Condensada, se pueden diseñar estructuras con propiedades específicas si se controla su crecimiento a escalas de longitud por debajo de la micra.


De esta forma se pueden crear materiales que actúan como "sólidos de diseño" hechos de átomos y moléculas artificiales. Estas estructuras presentan propiedades muy variadas, muchas de ellas imposibles de observar en materiales naturales.

También en la Física de Gases Cuánticos hay mucho de ingeniería cuántica.

Los átomos se pueden perturbar y mover de uno en uno. Jugando con la sensibilidad de los átomos a la luz láser y a los campos magnéticos, se pueden diseñar a placer las fuerzas externas que actúan sobre estos átomos. Podemos tener "sólidos" en los que los átomos habituales son sustituidos por luz láser y los electrones por átomos móviles. Toda esta tecnología abre enormes posibilidades en el control de la materia.

Se prevé que con estas técnicas podremos mejorar considerablemente la precisión de los relojes atómicos, las técnicas litográficas de crecimiento de estructuras cada vez más pequeñas, y los sistemas de interferometría atómica, necesarios para medir la aceleración de la gravedad (lo cual permite, entre otras cosas, buscar petróleo).

Otro de los grandes retos de la Física en los próximos años es el desarrollo de la Información Cuántica en sus dos vertientes principales: Computación Cuántica y Comunicación Cuántica. Esta última trata sobre todo de la "Criptografía Cuántica", que está generando un cambio cualitativo fundamental en la tecnología de la comunicación.

Utilizando principios cuánticos, empieza a ser posible la transmisión codificada de información de forma ultrasegura, de modo que un mensaje no puede ser leído por nadie o, si alguien llega a leerlo, el destinatario se percata de ello. Este es un avance fundamental, pues en la comunicación clásica es posible leer un mensaje sin que nadie se de cuenta.

IPB Image


_________________________________________________

#63 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 11 julio 2007 - 05:02

________________________________________________

Continuamos...

IPB Image


¿Cuál es la razón de esta diferencia tan importante? ¿Qué tiene la Mecánica Cuántica que permite codificar con tanta seguridad?


La idea es que, en información cuántica, si uno lee un mensaje lo destruye necesariamente o al menos lo modifica considerablemente. Esto es debido a que en el mundo cuántico, si uno quiere observar algo, necesariamente lo modifica en alguna medida. Esto no es un problema en muchas situaciones pero sí es importante en el contexto de la Comunicación Cuántica. Un punto esencial de la Información Cuántica es que se basa en la existencia de correlaciones sutiles entre dos o más partículas. Estas correlaciones pueden sobrevivir cuando las partículas se hallan muy distantes entre sí. Si hacemos una medida sobre una partícula, dicha operación puede alterar el estado de la partícula lejana, en el sentido de que sabemos mejor cómo responderá cuando se le mida una propiedad física. Lo sorprendente es que esta influencia a distancia es compatible con el hecho de que, localmente, la partícula lejana no se entera de que su "pareja" ha sido observada. En particular, no permite enviar señales a velocidad superior a la de la luz.

Esta idea de que al medir cambiamos el estado de las cosas no es relevante en el contexto de la Física clásica, pero en el mundo cuántico puede ser decisiva.

Concretando un poco, el sistema más utilizado es el de un par de fotones "enrededados", esto es fotones cuyo estado de polarización individual no está bien definido pero con seguridad es opuesto al del otro fotón. (La dirección de polarización de un fotón es perpendicular a la de propagación y puede ser vertical, horizontal, o una combinación de ambas.) Los fotones se pueden propagar por guías de onda convencionales y ya se están comercializando dispositivos de Comunicación Cuántica que conectan puntos a varios kilómetros de distancia.

Sé que esto de lo que hablas es importante... que tiene, o tendrá, multitud de aplicaciones en nuestro mundo “tangible”, etc... y por eso mismo pensaba: ¡qué necesaria es la divulgación!...

Ciertamente la divulgación de la Ciencia en general y de la Física en particular es una necesidad acuciante. Nuestra sociedad tiene que estar informada de lo que hacemos, entre otras razones porque no están garantizados de forma indefinida los niveles de apoyo que hemos tenido hasta ahora (que, por lo demás, en nuestro país todavía deberían aumentar bastante) si no explicamos a la sociedad lo que hacemos con su dinero. ¡Esto es algo de lo que empiezan a ser conscientes los físicos de todo el mundo! En la medida en que logremos transferir ese conocimiento y consigamos explicar tanto su interés intrínseco como su potencial tecnológico, la sociedad será más generosa con la Ciencia y, además, seremos capaces de atraer un mayor número de jóvenes hacia los estudios de ciencias, asegurando un flujo adecuado de futuros investigadores y docentes.

Un problema práctico es que la divulgación lleva tiempo y en el ámbito de la investigación es algo que todavía no se valora lo suficiente. Con frecuencia, la divulgación se ve como una actividad menor. Este es un error grave porque la divulgación debería ser una preocupación de todos los científicos. Además, divulgar no es fácil. Hay que tener muy claro el público a que nos dirigimos: éste puede variar desde niños o estudiantes de enseñanza media hasta las colegas científicos de otras especialidades. En cada caso se requiere una terminología y un nivel de profundización diferente. Lograr la combinación adecuada de claridad y rigor es difícil, porque la tendencia natural es a ser poco claro si uno quiere ser preciso y a ser poco preciso si uno quiere ser claro.

Desde el Instituto Nicolás Cabrera, hemos iniciado una serie de charlas por institutos y colegios de enseñanza media para divulgar la Física y promover los estudios de Física. Creemos que esta actividad es de interés incluso para aquellos estudiantes que no van a escoger la carrera de Física. Es muy positivo que un futuro ingeniero o economista conozcan los principales rasgos de la Física actual porque, desde su futuro trabajo, será más proclive a favorecer la investigación o incluso a realizarla él mismo en su propio ámbito. Nuestro país necesita más ingenieros interesados en la innovación tecnológica, que es su campo natural de investigación. Se trata, en definitiva, de fomentar una cultura en la que se valora tanto la investigación científica como la tecnológica, sin descuidar ninguna de las dos.

En mis tiempos mozos leí un libro de Isaac Asimov: “El electrón es zurdo” que me pareció fascinante, aunque solo entendiera una pequeña parte...

El título del libro parece muy específico porque hace alusión a las propiedades de paridad de las partículas elementales, es decir, a cómo varía su comportamiento si consideramos su imagen especular, pero en realidad el libro trata de temas muy variados.

El libro es excelente, un clásico de la divulgación científica. Aunque no es el caso de Asimov, que generalmente escribía sólo, una combinación muy eficaz es la de un físico investigador en colaboración con alguien que tiene una cierta formación científica pero que sobre todo se ha especializado en la divulgación científica. Hay que fomentar el periodismo científico, tanto de libro como de artículo periodístico o de revista. Otro gran libro de divulgación es el de Jame Gleick, "Caos: la creación de una nueva ciencia". Ambos libros han sido grandes éxitos editoriales, lo que demuestra que la divulgación científica de calidad no sólo es posible si no que, además, puede ser económicamente rentable.

___________________________________________________________________

Fin del Capitulo.... IPB Image

___________________________________________________________________

#64 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 13 julio 2007 - 04:15

______________________________________________________

IPB Image


Luis Arizmendi

IPB Image


Profesor del Departamento de Física de los Materiales .

Imparte las asignaturas de Óptica y de Técnicas Experimentales II (3º).

Es también Director del Master en Tecnología Fotónica (a partir del curso 2004/05).


_________________________________________________________________


La electrónica funciona con corrientes de electrones. Con electricidad, para entendernos. Pero la fotónica, funciona con corrientes de fotones....Con luz, en otras palabras. Aquella, forma parte de nuestra civilización de una manera tan profunda que solo cuando nos falta percibimos su valor. Las corrientes de partículas luminosas, los fotones, empiezan a hacerse hueco entre nosotros y algunas de sus aplicaciones ya son imprescindibles: los lectores de código de barras, las aplicaciones del láser en la medicina, la televisión digital....


Esto de la “fotónica suena a película de ciencia-ficción, ¿podrías arrojar algo de “luz” sobre lo que significa para empezar?

La electrónica funciona con corrientes de electrones, y estamos muy acostumbrados a usar aparatos electrónicos como la radio, la televisión, el teléfono, el ordenador, etc. Por el contrario, la fotónica funciona con corrientes de partículas luminosas, los fotones. No estamos aún muy acostumbrados a usar en la vida diaria aparatos fotónicos, aunque cada vez las aplicaciones fotónicas están más presentes a nuestro alrededor. Así tenemos algunos aparatos clásicos como las cámaras fotográficas, telescopios y microscopios, y otros más recientes como los lectores de códigos de barras, los punteros láser, los láseres de las discotecas, etc. Casi todos estos aparatos combinan una parte electrónica y otra fotónica, como las pantallas de los ordenadores, los proyectores de video, las cámaras fotográficas digitales, y muchos otros.

Veo que lo de arrojar luz no iba muy descaminado…. De un tiempo a esta parte parece que estamos rodeados de láseres: impresoras láser, lectoras de CDs. ¿Podrías comentar algo sobre este aspecto?


Si, la luz láser posee unas propiedades muy especiales, que la hacen enormemente útil, y además cada vez se inventan nuevos láseres de colores distintos, y con tamaños cada vez más reducidos. La luz láser se dirige de forma muy precisa comparada con la luz de una bombilla, además es de color muy puro, y muy brillante. Estas son cualidades esenciales para multitud de aplicaciones (cirugía, industria, investigación). Cada día se encuentran nuevas aplicaciones para este tipo de luz.

Fibra óptica, comunicaciones ópticas ¿a la velocidad de la luz?

IPB Image

Si, cada día se requiere más movimiento de información. Internet, la televisión digital por cable … Se hace necesario un sistema de alta capacidad de transmisión. Los conductores eléctricos quedan saturados. Por las fibras ópticas podemos enviar la información en forma de luz láser a la velocidad de la luz. Además, la más moderna tecnología permite enviar muchas comunicaciones a la vez por la misma fibra, una enorme ventaja respecto a los cables eléctricos, simplemente usando luces de varios colores distintos. Cada color lleva una comunicación, ¡y no se mezclan en la fibra!

A mi siempre me han sorprendido los hologramas ¿cómo funcionan?

Intentaré explicarlo de forma sencilla. En una fotografía normal la imagen está impresa en el papel. Es la imagen de intensidad de luz que tomó la cámara con su objetivo. Por el contrario, con el holograma conseguimos fabricar una copia de las ondas luminosas que venían desde el objeto. Es como si tuviésemos delante el mismo objeto (sólo ópticamente, ya que el objeto ahora no está). En su lugar está el holograma, que nos envía información de la intensidad de luz y del relieve del objeto, así que lo veremos en 3D.

¿Es realista pensar en una televisión 3D en un futuro cercano?

Aquí hay que considerar dos aspectos, la cantidad de información que hay que transmitir para producir un holograma, y la resolución del elemento que forma la imagen. Para producir imágenes 3D en movimiento debemos realizar numerosos “fotogramas holográficos”. Cada fotograma holográfico constará de al menos 100 Megabytes, y por cada segundo de imágenes debemos formar 25 fotogramas. Esta es una cantidad de datos altísima, incluso para las comunicaciones ópticas actuales.

Por otra parte, las películas que permiten grabar hologramas son muy especiales, de muy alta resolución, con más de 25000 puntos por pulgada. Por el momento los proyectores de video tienen una resolución muy inferior, y tendremos que esperar a que esta mejore notablemente.
Parece que aún estamos algo lejos de esta aplicación fotónica, aunque la tecnología se desarrolla muy rápidamente en este campo. Aún se tardará unos años en que sea realidad la TV holográfica.

_____________________________________________________________



#65 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 16 julio 2007 - 03:25

_____________________________________________

Continuamos...

IPB Image


No me gustaría que nos centrásemos únicamente en los aspectos más mundanos, ¿podrías comentarnos cuales son los principales retos en este campo?

Uno de los retos importantes de la fotónica es la computación óptica. Los ordenadores personales actuales no pasan mucho más allá de los 3.000.000.000 de sencillas operaciones por segundo, y aún así a veces nos parecen lentos, pero estamos cerca del límite de velocidad con corrientes de electrones. Usando la luz podríamos aún aumentar mucho la velocidad de cálculo, tal vez hacerlos un millón de veces más rápidos.

¿Cómo se imagina un experto en fotónica el futuro? ¿Brillante?

Cada día que pasa aparecen nuevas aplicaciones de la fotónica. La luz láser está cada vez más presente en nuestras casas. En el campo de la salud también avanzan rápidamente las aplicaciones fotónicas. Por ejemplo, dentro de muy poco las radiografías se harán con luz láser visible, que es mucho menos peligrosa que los rayos X. En la industria cada vez son más los procesos que están controlados mediante la luz y las imágenes. Realmente es un panorama muy brillante, y ya en otros países avanzados como Estados Unidos los expertos en tecnología fotónica están muy cotizados. Nosotros acabamos de inicia el Master en Tecnología Fotónica en la UAM para formar este tipo de profesionales en nuestro país.

¿Podrías comentar la interrelación de la fotónica con otros campos de la física?

IPB Image

Cada día que pasa aparecen nuevas aplicaciones de la fotónica. La luz láser está cada vez más presente en nuestras casas. En el campo de la salud también avanzan rápidamente las aplicaciones fotónicas. Por ejemplo, dentro de muy poco las radiografías se harán con luz láser visible, que es mucho menos peligrosa que los rayos X. En la industria cada vez son más los procesos que están controlados mediante la luz y las imágenes. Realmente es un panorama muy brillante, y ya en otros países avanzados como Estados Unidos los expertos en tecnología fotónica están muy cotizados. Nosotros acabamos de inicia el Master en Tecnología Fotónica en la UAM para formar este tipo de profesionales en nuestro país.

¿Podrías comentar la interrelación de la fotónica con otros campos de la física?

La luz interacciona con la materia, y por tanto es un instrumento eficaz para el estudio de los materiales, también se genera en la materia, de ahí su relación con la física atómica y molecular y con la física de sólidos.

La luz está compuesta por pequeñas unidades, los fotones, que tienen propiedades de física cuántica.

Algunas de estas propiedades aún no han sido aplicadas, aunque parece que pueden tener mucho interés en campos como el de la computación óptica.

La luz también está relacionada con la relatividad y con la astrofísica. La información que recibimos de los objetos espaciales es principalmente en forma de radiación luminosa. Los efectos relativistas observados en la luz que nos llega de las estrellas permiten obtener datos sobre el origen del universo.

Como se puede apreciar, existe una gran relación con otros campos de la física, y en muchas ocasiones no está clara la frontera entre estos campos.
________________________________________________________________

Fin del articulo IPB Image

U.A.M.


IPB Image
__________________________________________________________________

#66 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 13 agosto 2007 - 05:56

____________________________________________________

Otra contribucion de MSN ENCARTA
____________________________________________________


FISICA


1. Introducción



Física, ciencia que se ocupa de los componentes fundamentales del Universo, de las fuerzas que éstos ejercen entre sí y de los efectos de dichas fuerzas. En ocasiones la física moderna incorpora elementos de los tres aspectos mencionados, como ocurre con las leyes de simetría y conservación de la energía, el momento, la carga o la paridad.

La física está estrechamente relacionada con las demás ciencias naturales, y en cierto modo las engloba a todas. La química, por ejemplo, se ocupa de la interacción de los átomos para formar moléculas; gran parte de la geología moderna es en esencia un estudio de la física de la Tierra y se conoce como geofísica; la astronomía trata de la física de las estrellas y del espacio exterior. Incluso los sistemas vivos están constituidos por partículas fundamentales que siguen el mismo tipo de leyes que las partículas más sencillas estudiadas tradicionalmente por los físicos.

El hincapié que la física moderna hace en la interacción entre partículas (el llamado planteamiento microscópico) necesita muchas veces como complemento un enfoque macroscópico que se ocupe de elementos o sistemas de partículas más extensos. Este planteamiento macroscópico es indispensable en la aplicación de la física a numerosas tecnologías modernas. Por ejemplo, la termodinámica, una rama de la física desarrollada durante el siglo XIX, se ocupa de determinar y cuantificar las propiedades de un sistema en su conjunto, y resulta útil en otros campos de la física; también constituye la base de las ingenierías química y mecánica. Propiedades como la temperatura, la presión o el volumen de un gas carecen de sentido para un átomo o molécula individual: estos conceptos termodinámicos sólo pueden aplicarse directamente a un sistema muy grande de estas partículas. No obstante, hay un nexo entre los enfoques microscópico y macroscópico: otra rama de la física, conocida como mecánica estadística, explica la forma de relacionar desde un punto de vista estadístico la presión y la temperatura con el movimiento de los átomos y las moléculas (véase Estadística).

Hasta principios del siglo XIX, era frecuente que los físicos fueran al mismo tiempo matemáticos, filósofos, químicos, biólogos o ingenieros. En la actualidad el ámbito de la física ha crecido tanto que, con muy pocas excepciones, los físicos modernos tienen que limitar su atención a una o dos ramas de su ciencia. Una vez que se descubren y comprenden los aspectos fundamentales de un nuevo campo, éste pasa a ser de interés para los ingenieros y otros científicos. Por ejemplo, los descubrimientos del siglo XIX en electricidad y magnetismo forman hoy parte del terreno de los ingenieros electrónicos y de comunicaciones; las propiedades de la materia descubiertas a comienzos del siglo XX han encontrado aplicación en la electrónica; los descubrimientos de la física nuclear, muchos de ellos posteriores a 1950, son la base de los trabajos de los ingenieros nucleares.

2. Comienzos de la física



Aunque las ideas sobre el mundo físico se remontan a la antigüedad, la física no surgió como un campo de estudio bien definido hasta principios del siglo XIX.

1. Antigüedad


Los chinos, los babilonios, los egipcios y los mayas observaron los movimientos de los planetas y lograron predecir los eclipses, pero no consiguieron encontrar un sistema subyacente que explicara el movimiento planetario. Las especulaciones de los filósofos griegos introdujeron dos ideas fundamentales sobre los componentes del Universo, opuestas entre sí.. el atomismo, propuesto por Leucipo en el siglo IV a.C., y la teoría de los elementos, formulada en el siglo anterior. Ver Filosofía occidental.

En Alejandría, el centro científico de la civilización occidental durante el periodo helenístico, hubo notables avances. Allí, el matemático e inventor griego Arquímedes diseñó con palancas y tornillos varios aparatos mecánicos prácticos y midió la densidad de objetos sólidos sumergiéndolos en un líquido. Otros científicos griegos importantes de aquella época fueron el astrónomo Aristarco de Samos, que halló la relación entre las distancias de la Tierra al Sol y de la Tierra a la Luna, el matemático, astrónomo y geógrafo Eratóstenes, que midió la circunferencia de la Tierra y elaboró un catálogo de estrellas, y el astrónomo Hiparco de Nicea, que descubrió la precesión de los equinoccios (véase Eclíptica). En el siglo II d.C. el astrónomo, matemático y geógrafo Tolomeo propuso el sistema que lleva su nombre para explicar el movimiento planetario. En el sistema de Tolomeo, la Tierra está en el centro y el Sol, la Luna y las estrellas giran en torno a ella en órbitas circulares.

2. Edad media


Durante la edad media se produjeron pocos avances, tanto en la física como en las demás ciencias. Sin embargo, sabios árabes como Averroes o como Ibn al-Nafis (también conocido como al-Qarashi) contribuyeron a la conservación de muchos tratados científicos de la Grecia clásica. En general, las grandes universidades medievales fundadas en Europa por las órdenes monásticas a partir del siglo XIII no supusieron un gran avance para la física y otras ciencias experimentales. El filósofo escolástico y teólogo italiano santo Tomás de Aquino, por ejemplo, trató de demostrar que las obras de Platón y Aristóteles eran compatibles con las Sagradas Escrituras. El filósofo escolástico y científico británico Roger Bacon fue uno de los pocos filósofos que defendió el método experimental como auténtica base del conocimiento científico; también investigó en astronomía, química, óptica y diseño de máquinas.

3. Siglos XVI y XVII


La ciencia moderna surgió tras el renacimiento, en el siglo XVI y comienzos del XVII, cuando cuatro astrónomos destacados lograron interpretar de forma muy satisfactoria el comportamiento de los cuerpos celestes. El astrónomo polaco Nicolás Copérnico propuso un sistema heliocéntrico, en el que los planetas giran alrededor del Sol. Sin embargo, Copérnico estaba convencido de que las órbitas planetarias eran circulares, por lo que su sistema requería unas elaboraciones casi tan complicadas como el sistema de Tolomeo al que pretendía sustituir (véase Sistema de Copérnico). El astrónomo danés Tycho Brahe adoptó una fórmula de compromiso entre los sistemas de Copérnico y Tolomeo; según él, los planetas giraban en torno al Sol, mientras que el Sol giraba alrededor de la Tierra. Brahe era un gran observador y realizó una serie de medidas increíblemente precisas. Esto proporcionó a su ayudante Johannes Kepler los datos para atacar al sistema de Tolomeo y enunciar tres leyes que se ajustaban a una teoría heliocéntrica modificada. Galileo, que había oído hablar de la invención del telescopio, construyó uno, y en 1609 pudo confirmar el sistema heliocéntrico observando las fases del planeta Venus. También descubrió las irregularidades en la superficie de la Luna, los cuatro satélites de Júpiter más brillantes, las manchas solares y muchas estrellas de la Vía Láctea. Los intereses de Galileo no se limitaban a la astronomía: empleando planos inclinados y un reloj de agua perfeccionado ya había demostrado que los objetos tardan lo mismo en caer, independientemente de su masa (lo que invalidaba los postulados de Aristóteles), y que la velocidad de los mismos aumenta de forma uniforme con el tiempo de caída. Los descubrimientos astronómicos de Galileo y sus trabajos sobre mecánica precedieron la obra del matemático y físico británico del siglo XVII Isaac Newton, uno de los científicos más grandes de la historia.

3. La física a partir de Newton



A partir de 1665, cuando tenía 23 años, Newton desarrolló los principios de la mecánica, formuló la ley de la gravitación universal, separó la luz blanca en sus colores constituyentes e inventó el cálculo diferencial e integral. Las contribuciones de Newton cubrieron una gama muy amplia de fenómenos naturales. Por ejemplo, demostró que tanto las leyes de Kepler sobre el movimiento planetario como los descubrimientos de Galileo sobre la caída de los cuerpos se deducen de la segunda ley del movimiento (segunda ley de Newton) combinada con la ley de la gravitación. Newton también logró explicar el efecto de la Luna sobre las mareas, así como la precesión de los equinoccios.

1. El desarrollo de la mecánica


El posterior desarrollo de la física debe mucho a las leyes del movimiento o leyes de Newton (véase Mecánica), especialmente a la segunda, que afirma que la fuerza necesaria para acelerar un objeto es igual a su masa multiplicada por su aceleración. Si se conocen la posición y velocidad iniciales de un cuerpo, así como la fuerza aplicada, es posible calcular las posiciones y velocidades posteriores aunque la fuerza cambie con el tiempo o la posición; en esos casos es necesario aplicar el cálculo infinitesimal de Newton. La segunda ley del movimiento también contiene otro aspecto importante: todos los cuerpos tienen una propiedad intrínseca, su masa inercial, que influye en su movimiento. Cuanto mayor es esa masa, menor es la aceleración que adquiere cuando se aplica una fuerza determinada sobre el cuerpo. Hoy sabemos que esta ley es válida siempre que el cuerpo no sea extremadamente pequeño, grande o rápido. La tercera ley de Newton, que afirma que “a cada fuerza de acción corresponde una fuerza de reacción igual y opuesta”, podría expresarse en términos modernos como que todas las fuerzas entre partículas se producen en pares de sentido opuesto, aunque no necesariamente situados a lo largo de la línea que une las partículas.

2. Gravedad

La contribución más específica de Newton a la descripción de las fuerzas de la naturaleza fue la explicación de la fuerza de la gravedad. En la actualidad los científicos saben que sólo hay otras tres fuerzas, además de la gravedad, que originan todas las propiedades y actividades observadas en el Universo: el electromagnetismo, la llamada interacción nuclear fuerte (que mantiene unidos los protones y neutrones en los núcleos atómicos) y la interacción nuclear débil (o interacción débil) entre algunas de las partículas elementales, que explica el fenómeno de la radiactividad (véase Fuerzas fundamentales). La comprensión del concepto de fuerza se remonta a la ley de la gravitación universal, que reconocía que todas las partículas materiales, y los cuerpos formados por estas partículas, tienen una propiedad denominada masa gravitacional. Esta propiedad hace que dos partículas cualesquiera ejerzan entre sí una fuerza atractiva (a lo largo de la línea que las une) directamente proporcional al producto de sus masas e inversamente proporcional al cuadrado de la distancia que las separa. Esta fuerza gravitatoria rige el movimiento de los planetas alrededor del Sol y de los objetos en el campo gravitatorio terrestre; también es responsable del colapso gravitacional que, según se cree, constituye el estado final del ciclo vital de las estrellas masivas y es la causa de muchos fenómenos astrofísicos. Ver Agujero negro; Estrella.

Una de las observaciones más importantes de la física es que la masa gravitacional de un cuerpo (que es el origen de la fuerza gravitatoria que existe entre el cuerpo y otros cuerpos) es igual a su masa inercial, la propiedad que determina el movimiento del cuerpo en respuesta a cualquier fuerza ejercida sobre él (véase Inercia). Esta equivalencia, confirmada experimentalmente con gran precisión (se ha demostrado que, en caso de existir alguna diferencia entre ambas masas, es menor de una parte en 1013), lleva implícita el principio de proporcionalidad: cuando un cuerpo tiene una masa gravitacional dos veces mayor que otro, su masa inercial también es dos veces mayor. Esto explica la observación de Galileo —realizada con anterioridad a la formulación de las leyes de Newton— de que todos los cuerpos caen con la misma aceleración independientemente de su masa: aunque los cuerpos más pesados experimentan una fuerza gravitatoria mayor, su mayor masa inercial disminuye en un factor igual a la aceleración por unidad de fuerza, por lo que la aceleración total es la misma que en un cuerpo más ligero.

Sin embargo, el significado pleno de esta equivalencia entre las masas gravitacional e inercial no se apreció hasta que Albert Einstein enunció la teoría de la relatividad general. Einstein se dio cuenta de que esta equivalencia tenía una implicación adicional: la equivalencia de un campo gravitatorio y un sistema de referencia acelerado (véase la sección La física moderna: Relatividad, en este mismo artículo).

La fuerza gravitatoria es la más débil de las cuatro fuerzas de la naturaleza. Por ejemplo, la fuerza gravitatoria entre dos protones (una de las partículas elementales más pesadas) es 1036 veces menos intensa que la fuerza electrostática entre ellos, sea cual sea la distancia que los separe. En el caso de dos protones situados en el núcleo de un átomo, la fuerza electrostática de repulsión es a su vez mucho menor que la interacción nuclear fuerte.

El que la gravedad sea la fuerza dominante a escala macroscópica se debe a dos hechos:

1) según se sabe, sólo existe un tipo de masa, por lo que sólo existe un tipo de fuerza gravitacional, siempre atractiva; esto hace que las fuerzas gravitacionales de las numerosísimas partículas elementales que componen un cuerpo como la Tierra se sumen, con lo que la fuerza total resulta muy grande.

2) Las fuerzas gravitacionales actúan a cualquier distancia, disminuyendo según el cuadrado de la separación entre los cuerpos.


En cambio, las cargas eléctricas de las partículas elementales, que originan las fuerzas electrostáticas y electromagnéticas, pueden ser positivas o negativas. Las cargas iguales se repelen y las cargas opuestas se atraen. Los cuerpos formados por muchas partículas tienden a ser eléctricamente neutros, y las fuerzas eléctricas ejercidas por las partículas, aunque tienen un alcance infinito al igual que la fuerza de gravedad, se cancelan mutuamente. Por su parte, las interacciones nucleares, tanto la fuerte como la débil, tienen un alcance extremadamente corto, y apenas son apreciables a distancias mayores de una billonésima de centímetro.

A pesar de su importancia macroscópica, la fuerza de la gravedad es tan débil que un cuerpo tiene que poseer una masa enorme para que su influencia sobre otro cuerpo resulte apreciable. Por eso, la ley de la gravitación universal se dedujo de las observaciones del movimiento de los planetas mucho antes de que pudiera comprobarse de forma experimental. Esto sucedió en 1771, cuando el físico y químico británico Henry Cavendish confirmó la ley utilizando grandes esferas de plomo para atraer pequeñas masas unidas a un péndulo de torsión. A partir de esas medidas, Cavendish también dedujo la masa y la densidad de la Tierra.

Durante los dos siglos posteriores a Newton, aunque la mecánica se analizó, se reformuló y se aplicó a sistemas complejos, no se aportaron nuevas ideas físicas. El matemático suizo Leonhard Euler fue el primero en formular las ecuaciones del movimiento para sólidos rígidos, mientras que Newton sólo se había ocupado de masas que se podían considerar concentradas en un punto. Diferentes físicos matemáticos, entre ellos Joseph Louis Lagrange y William Hamilton, ampliaron la segunda ley de Newton con formulaciones más complejas. A lo largo del mismo periodo, Euler, el científico Daniel Bernoulli y otros investigadores también ampliaron la mecánica newtoniana y sentaron las bases de la mecánica de fluidos.

3. Electricidad y magnetismo


Aunque los antiguos griegos conocían las propiedades electrostáticas del ámbar, y los chinos ya fabricaban imanes con magnetita en el 2700 a.C., los fenómenos eléctricos y magnéticos no empezaron a comprenderse hasta finales del siglo XVIII, cuando comenzaron a realizarse experimentos en estos campos. En 1785, el físico francés Charles de Coulomb confirmó por primera vez de forma experimental que las cargas eléctricas se atraen o se repelen con una intensidad inversamente proporcional al cuadrado de la distancia que las separa (ley de Coulomb). Más tarde el matemático francés Siméon Denis Poisson y su colega alemán Carl Friedrich Gauss desarrollaron una potente teoría para calcular el efecto de un número indeterminado de cargas eléctricas estáticas arbitrariamente distribuidas.

Dos partículas con cargas opuestas se atraen, por lo que tienden a acelerarse una hacia la otra. Si el medio a través del cual se mueven ofrece resistencia, pueden acabar moviéndose con velocidad constante (en lugar de moverse con aceleración constante) a la vez que el medio se calienta y sufre otras alteraciones. La posibilidad de mantener una fuerza electromotriz capaz de impulsar de forma continuada partículas eléctricamente cargadas llegó con el desarrollo de la pila química en 1800, debido al físico italiano Alessandro Volta. La teoría clásica de un circuito eléctrico simple supone que los dos polos de una pila se mantienen cargados positiva y negativamente debido a las propiedades internas de la misma. Cuando los polos se conectan mediante un conductor, las partículas cargadas negativamente son repelidas por el polo negativo y atraídas por el positivo, con lo que se mueven hacia él y calientan el conductor, ya que ofrece resistencia a dicho movimiento. Al llegar al polo positivo las partículas son obligadas a desplazarse dentro de la pila hasta el polo negativo, en contra de las fuerzas que se oponen a ello según la ley de Coulomb. El físico alemán Georg Simon Ohm descubrió la existencia de una constante de proporcionalidad sencilla entre la corriente que fluye por el circuito y la fuerza electromotriz suministrada por la pila. Esta constante es la resistencia eléctrica del circuito, R. La ley de Ohm, que afirma que la resistencia es igual a la fuerza electromotriz, o tensión, dividida entre la intensidad de corriente, no es una ley fundamental de la física de aplicación universal, sino que describe el comportamiento de una clase limitada de materiales sólidos.

Los conceptos elementales del magnetismo, basados en la existencia de pares de polos opuestos, aparecieron en el siglo XVII y fueron desarrollados en los trabajos de Coulomb. Sin embargo, la primera conexión entre el magnetismo y la electricidad se encontró en los experimentos del físico y químico danés Hans Christian Oersted, que en 1819 descubrió que un cable conductor por el que fluía una corriente eléctrica desviaba una aguja magnética situada en sus proximidades. A la semana de conocer el descubrimiento de Oersted, el científico francés André Marie Ampère demostró experimentalmente que dos cables por los que circula una corriente ejercen una influencia mutua igual a la de los polos de un imán. En 1831, el físico y químico británico Michael Faraday descubrió que podía inducirse el flujo de una corriente eléctrica en un conductor en forma de espira no conectado a una batería, moviendo un imán en sus proximidades o situando cerca otro conductor por el que circulara una corriente variable. La forma más fácil de enunciar la íntima relación entre la electricidad y el magnetismo, perfectamente establecida en la actualidad, es a partir de los conceptos de campo eléctrico y magnético. La intensidad, dirección y sentido del campo en cada punto mide la fuerza que actuaría sobre una carga unidad (en el caso del campo eléctrico) o una corriente unidad (en el caso del campo magnético) situadas en ese punto. Las cargas eléctricas estacionarias producen campos eléctricos; las corrientes —esto es, las cargas en movimiento— producen campos eléctricos y magnéticos. Un campo eléctrico también puede ser producido por un campo magnético variable, y viceversa. Los campos eléctricos ejercen fuerzas sobre las partículas cargadas por el simple hecho de tener carga, independientemente de su velocidad; los campos magnéticos sólo ejercen fuerzas sobre partículas cargadas en movimiento.

Estos hallazgos cualitativos fueron expresados en una forma matemática precisa por el físico británico James Clerk Maxwell, que desarrolló las ecuaciones diferenciales en derivadas parciales que llevan su nombre. Las ecuaciones de Maxwell relacionan los cambios espaciales y temporales de los campos eléctrico y magnético en un punto con las densidades de carga y de corriente en dicho punto. En principio, permiten calcular los campos en cualquier momento y lugar a partir del conocimiento de las cargas y corrientes eléctricas. Un resultado inesperado que surgió al resolver las ecuaciones fue la predicción de un nuevo tipo de campo electromagnético producido por cargas eléctricas aceleradas. Este campo se propagaría por el espacio con la velocidad de la luz en forma de onda electromagnética, y su intensidad disminuiría de forma inversamente proporcional al cuadrado de la distancia de la fuente. En 1887, el físico alemán Heinrich Hertz consiguió generar físicamente esas ondas por medios eléctricos, con lo que sentó las bases para la radio, el radar, la televisión y otras formas de telecomunicación. Ver Radiación electromagnética.

El comportamiento de los campos eléctrico y magnético en estas ondas es bastante similar al de una cuerda tensa muy larga cuyo extremo se hace oscilar rápidamente hacia arriba y hacia abajo. Cualquier punto de la cuerda se mueve hacia arriba y hacia abajo con la misma frecuencia que la fuente de las ondas situada en el extremo de la cuerda. Los puntos de la cuerda situados a diferentes distancias de la fuente alcanzan su máximo desplazamiento vertical en momentos diferentes. Cada punto de la cuerda hace lo mismo que su vecino, pero lo hace algo más tarde si está más lejos de la fuente de vibración (véase Oscilación). La velocidad con que se transmite la perturbación a lo largo de la cuerda, o la “orden” de oscilar, se denomina velocidad de onda (véase Movimiento ondulatorio). Esta velocidad es función de la densidad lineal de la cuerda (masa por unidad de longitud) y de la tensión a la que esté sometida. Una fotografía instantánea de la cuerda después de llevar moviéndose cierto tiempo mostraría que los puntos que presentan el mismo desplazamiento están separados por una distancia conocida como longitud de onda, que es igual a la velocidad de onda dividida entre la frecuencia. En el caso del campo electromagnético, la intensidad del campo eléctrico se puede asociar al movimiento vertical de cada punto de la cuerda, mientras que el campo magnético se comporta del mismo modo pero formando un ángulo recto con el campo eléctrico (y con la dirección de propagación). La velocidad con que la onda electromagnética se aleja de la fuente es la velocidad de la luz.

4. Luz


La aparente propagación lineal de la luz se conoce desde la antigüedad, y los griegos creían que la luz estaba formada por un flujo de corpúsculos. Sin embargo, había gran confusión sobre si estos corpúsculos procedían del ojo o del objeto observado. Cualquier teoría satisfactoria de la luz debe explicar su origen y desaparición y sus cambios de velocidad y dirección al atravesar diferentes medios. En el siglo XVII, Newton ofreció respuestas parciales a estas preguntas, basadas en una teoría corpuscular; el científico británico Robert Hooke y el astrónomo, matemático y físico holandés Christiaan Huygens propusieron teorías de tipo ondulatorio. No fue posible realizar ningún experimento cuyo resultado confirmara una u otra teoría hasta que, a principios del siglo XIX, el físico y médico británico Thomas Young demostró el fenómeno de la interferencia en la luz. El físico francés Augustin Jean Fresnel apoyó decisivamente la teoría ondulatoria.

La interferencia puede observarse colocando una rendija estrecha delante de una fuente de luz, situando una doble rendija algo más lejos y observando una pantalla colocada a cierta distancia de la doble rendija. En lugar de aparecer una imagen de las rendijas uniformemente iluminada, se ve una serie de bandas oscuras y claras equidistantes. Para explicar cómo las hipotéticas partículas de luz procedentes de la misma fuente, que llegan a la pantalla a través de las dos rendijas, pueden producir distintas intensidades de luz en diferentes puntos —e incluso anularse unas a otras y producir zonas oscuras— habría que considerar complejas suposiciones adicionales. En cambio, las ondas de luz pueden producir fácilmente un efecto así. Si se supone, como hizo Huygens, que cada una de las dos rendijas actúa como una nueva fuente que emite luz en todas direcciones, los dos trenes de onda que llegan a la pantalla en un mismo punto pueden no estar en fase aunque lo estuvieran al salir de las rendijas (se dice que dos vibraciones están en fase en un punto determinado cuando en cada momento se encuentran en la misma etapa de la oscilación: sus máximos coinciden en un mismo momento, y lo mismo ocurre con los mínimos). Según la diferencia de recorrido entre ambos trenes en cada punto de la pantalla, puede ocurrir que un desplazamiento “positivo” de uno de ellos coincida con uno “negativo” del otro —con lo que se producirá una zona oscura— o que lleguen simultáneamente dos desplazamientos positivos, o negativos, lo que provocará un refuerzo de las intensidades, y por ende una zona brillante. En cada punto brillante, la intensidad de la luz experimenta una variación temporal a medida que las sucesivas ondas en fase van desde el máximo desplazamiento positivo hasta el máximo negativo, pasando por cero, y vuelven de nuevo al máximo desplazamiento positivo. Sin embargo, ni el ojo ni ningún instrumento clásico puede determinar este rápido “parpadeo”, que en la zona de luz visible tiene una frecuencia que va de 4 × 1014 a 7,5 × 1014 hercios (ciclos por segundo). Aunque la frecuencia no se puede medir directamente, puede deducirse de las medidas de longitud de onda y velocidad. La longitud de onda se puede determinar midiendo la distancia entre ambas rendijas y la separación entre dos franjas brillantes adyacentes en la pantalla. Las longitudes de onda van desde 4 × 10-5 cm en la luz violeta hasta 7,5 × 10-5; cm en la luz roja; los demás colores corresponden a longitudes de onda intermedias.

El astrónomo danés Olaus Roemer fue el primero en medir la velocidad de la luz, en 1676. Roemer observó una aparente variación temporal entre los eclipses sucesivos de los satélites de Júpiter, que atribuyó a los cambios en la distancia entre la Tierra y Júpiter (según la posición de la primera en su órbita) y las consiguientes diferencias en el tiempo empleado por la luz para llegar a la Tierra. Sus medidas coincidían bastante con las observaciones más precisas realizadas en el siglo XIX por el físico francés Hippolyte Fizeau y con los trabajos del físico estadounidense Albert Michelson y sus colaboradores, que se extendieron hasta el siglo XX. En la actualidad, la velocidad de la luz en el vacío se considera que es 299.792,46 km/s. En la materia, la velocidad es menor y varía con la frecuencia: este fenómeno se denomina dispersión. Véase también Óptica; Espectro.

Los trabajos de Maxwell aportaron resultados importantes para la comprensión de la naturaleza de la luz, al demostrar que su origen es electromagnético: una onda luminosa corresponde a campos eléctricos y magnéticos oscilantes. Sus trabajos predijeron la existencia de luz no visible, y en la actualidad se sabe que las ondas o radiaciones electromagnéticas cubren todo un espectro, que empieza en los rayos gamma (véase Radiactividad), con longitudes de onda de 10-12 cm y aún menores, pasando por los rayos X, la luz visible y las microondas, hasta las ondas de radio, con longitudes de onda de hasta varios cientos de kilómetros. Maxwell también consiguió relacionar la velocidad de la luz en el vacío y en los diferentes medios con otras propiedades del espacio y la materia, de las que dependen los efectos eléctricos y magnéticos. Sin embargo, los descubrimientos de Maxwell no aportaron ningún conocimiento sobre el misterioso medio (que correspondería a la cuerda del ejemplo mencionado antes en la sección Electricidad y magnetismo de este artículo) por el que se pensaba que se propagaban la luz y las ondas electromagnéticas. A partir de las experiencias con las olas, el sonido y las ondas elásticas, los científicos suponían que existía un medio similar, un “éter luminífero”, sin masa, que llenaba todo el espacio (la luz puede desplazarse a través del vacío) y actuaba como un sólido (ya que se sabía que las ondas electromagnéticas eran transversales, puesto que las oscilaciones se producen en un plano perpendicular a la dirección de propagación, y en los gases y líquidos sólo pueden propagarse ondas longitudinales, como las ondas sonoras). La búsqueda de este misterioso éter ocupó la atención de una gran parte de los físicos a lo largo de los últimos años del siglo XIX.

El problema se complicaba por un aspecto adicional. Una persona que camine a 5 km/h en un tren que se desplaza a 100 km/h tiene una velocidad aparente de 105 km/h para un observador situado en el andén. La pregunta que surgía en relación con la velocidad de la luz era la siguiente: si la luz se desplaza a unos 300.000 km/s a través del éter, ¿a qué velocidad se desplazará con respecto a un observador situado en la Tierra, puesto que la Tierra también se mueve en relación al éter? ¿Cuál es la velocidad de la Tierra con respecto al éter, indicada por sus efectos sobre las ondas luminosas? El famoso experimento de Michelson-Morley, realizado en 1887 por Michelson y por el químico estadounidense Edward Williams Morley con ayuda de un interferómetro, pretendía medir esta velocidad. Si la Tierra se desplazara a través de un éter estacionario debería observarse una diferencia en el tiempo empleado por la luz para recorrer una distancia determinada según que se desplazase de forma paralela o perpendicular al movimiento de la Tierra. El experimento era lo bastante sensible para detectar —a partir de la interferencia entre dos haces de luz— una diferencia extremadamente pequeña. Sin embargo, los resultados fueron negativos: esto planteó un dilema para la física que no se resolvió hasta que Einstein formuló su teoría de la relatividad en 1905.

5. Termodinámica



Una rama de la física que alcanzó pleno desarrollo en el siglo XIX fue la termodinámica. En primer lugar aclaró los conceptos de calor y temperatura, proporcionando definiciones coherentes y demostrando cómo podían relacionarse éstas con los conceptos de trabajo y energía, que hasta entonces tenían un carácter puramente mecánico. Véase también Transferencia de calor.

5.1. Calor y temperatura


Cuando una persona toca un cuerpo caliente y otro frío experimenta sensaciones diferentes: esto llevó al concepto cualitativo y subjetivo de temperatura. La adición de calor a un cuerpo lleva a un aumento de su temperatura (mientras no se produzca fusión o vaporización); cuando se ponen en contacto dos cuerpos a temperaturas diferentes, se produce un flujo de calor del más caliente al más frío hasta que se igualan sus temperaturas y se alcanza el equilibrio térmico. Para llegar a una medida de la temperatura, los científicos aprovecharon la observación de que la adición o sustracción de calor produce un cambio en alguna propiedad bien definida del cuerpo. Por ejemplo, la adición de calor a una columna de líquido mantenida a presión constante aumenta la longitud de la columna, mientras que el calentamiento de un gas confinado en un recipiente aumenta su presión. Esto hace que la temperatura pueda medirse a partir de otra propiedad física (por ejemplo, la longitud de la columna de mercurio en un termómetro) siempre que se mantengan constantes las otras propiedades relevantes. La relación matemática entre las propiedades físicas relevantes de un cuerpo o sistema y su temperatura se conoce como ecuación de estado. Por ejemplo, en los gases llamados ideales, hay una relación sencilla entre la presión p, el volumen V, el número de moles n y la temperatura absoluta T, dada por la ecuación

pV = nRT


donde R es una constante igual para todos los gases. La ley de Boyle-Mariotte, llamada así en honor al físico y químico británico Robert Boyle y al físico francés Edme Mariotte, y la ley de Charles y Gay-Lussac, llamada así en honor a los físicos y químicos franceses Joseph Louis Gay-Lussac y Jacques Alexandre César Charles, están contenidas en esa ecuación de estado (véase Gas).

Hasta bien entrado el siglo XIX se consideraba que el calor era un fluido sin masa, el llamado “calórico”, que estaba contenido en la materia y podía introducirse en un cuerpo o extraerse del mismo. Aunque la teoría del calórico explicaba las cuestiones básicas de termometría y calorimetría, no lograba explicar satisfactoriamente muchas observaciones realizadas a principios del siglo XIX. La primera relación cuantitativa entre el calor y otras formas de energía fue observada en 1798 por el físico y estadista estadounidense de origen inglés Benjamin Thompson, conde de Rumford, que observó que el calor producido al taladrar el ánima de un cañón era aproximadamente proporcional al trabajo empleado (en mecánica, el trabajo es el producto de la fuerza que actúa sobre un cuerpo por la distancia recorrida por el cuerpo en la dirección de esta fuerza durante su aplicación).

5.2. El primer principio de la termodinámica


A mediados del siglo XIX, el físico alemán Hermann Ludwig von Helmholtz y el matemático y físico británico lord Kelvin explicaron la equivalencia entre calor y trabajo. Esta equivalencia significa que la realización de trabajo sobre un sistema puede producir el mismo efecto que la adición de calor. Por ejemplo, se puede lograr el mismo aumento de temperatura en un líquido contenido en un recipiente suministrándole calor o realizando la cantidad de trabajo apropiada, haciendo girar una rueda de paletas dentro del recipiente. El valor numérico de esta equivalencia, el llamado “equivalente mecánico del calor”, fue determinado en experimentos realizados entre 1840 y 1849 por el físico británico James Prescott Joule.

Con ello quedó establecido que la realización de trabajo sobre un sistema y la adición de calor al mismo son formas equivalentes de transferir energía al sistema. Por tanto, la cantidad de energía añadida como calor o trabajo debe aumentar la energía interna del sistema, que a su vez determina la temperatura. Si la energía interna no varía, la cantidad de trabajo realizado sobre un sistema debe ser igual al calor desprendido por el mismo. Esto constituye el primer principio de la termodinámica, que expresa la conservación de la energía. Esta energía interna sólo pudo relacionarse con la suma de las energías cinéticas de todas las partículas del sistema cuando se comprendió mejor la actividad de los átomos y moléculas dentro de un sistema.

5.3. El segundo principio de la termodinámica


El primer principio indica que la energía se conserva en cualquier interacción entre un sistema y su entorno, pero no pone limitaciones a las formas de intercambio de energía térmica y mecánica. El primero en formular el principio de que los intercambios de energía se producen globalmente en una dirección determinada fue el físico e ingeniero militar francés Sadi Carnot, quien en 1824 mostró que una máquina térmica (un dispositivo que puede producir trabajo de forma continua a partir del intercambio de calor con su entorno) necesita un cuerpo caliente como fuente de calor y un cuerpo frío para absorber el calor desprendido. Cuando la máquina realiza trabajo hay que transferir calor del cuerpo caliente al cuerpo frío; para que ocurra lo contrario hay que realizar trabajo mecánico (o eléctrico). Por ejemplo, en un refrigerador que funciona de forma continua, la absorción de calor del cuerpo de baja temperatura (el espacio que se quiere refrigerar) exige realizar trabajo (por lo general en forma eléctrica) y desprender calor al entorno (a través de aletas o rejillas de refrigeración situadas en la parte trasera del aparato). Estas ideas, basadas en los conceptos de Carnot, fueron formuladas de forma rigurosa como segundo principio de la termodinámica por el físico matemático alemán Rudolf Emanuel Clausius y lord Kelvin en formas diversas aunque equivalentes. Una de estas formulaciones es que el calor no puede fluir de un cuerpo frío a un cuerpo caliente sin que se realice trabajo.

Del segundo principio se deduce que, en un sistema aislado (en el que no existen interacciones con el entorno), las partes internas que se encuentran a temperaturas distintas siempre tienden a igualar sus temperaturas y alcanzar así el equilibrio. Este principio también puede aplicarse a otras propiedades internas inicialmente no uniformes. Por ejemplo, si se vierte leche en una taza de café, las dos sustancias se mezclan hasta hacerse inseparables e indiferenciables. Por lo tanto, un estado inicial ordenado, con componentes diferenciados, se convierte en un estado mezclado o desordenado. Estas ideas se pueden expresar a partir de una propiedad termodinámica denominada entropía (enunciada por primera vez por Clausius), que mide lo cerca que está un sistema del equilibrio, es decir, del desorden interno perfecto. La entropía de un sistema aislado, y del Universo en su conjunto, sólo puede aumentar, y cuando se alcanza finalmente el equilibrio ya no son posibles cambios internos de ningún tipo. Cuando se aplica al conjunto del Universo, este principio sugiere que la temperatura de todo el cosmos acabará siendo uniforme, con lo que se producirá la llamada “muerte térmica” del Universo.

Sin embargo, la entropía puede disminuirse localmente mediante acciones externas. Esto ocurre en las máquinas (por ejemplo un refrigerador, en el que se reduce la entropía del espacio enfriado) y en los organismos vivos. Por otra parte, este aumento local del orden sólo es posible mediante un incremento de la entropía del entorno, donde necesariamente tiene que aumentar el desorden.

Este aumento continuado de la entropía está relacionado con la irreversibilidad que se observa en los procesos macroscópicos. Si un proceso fuera reversible espontáneamente —es decir, si después de realizado el proceso, tanto el sistema como el entorno pudieran regresar a su estado inicial— la entropía permanecería constante, lo que violaría el segundo principio. Aunque los procesos macroscópicos observados en la experiencia cotidiana son irreversibles, no ocurre lo mismo con los procesos microscópicos. Por ejemplo, las reacciones químicas entre moléculas individuales no se rigen por el segundo principio de la termodinámica, que sólo es válido para conjuntos macroscópicos.

A partir de la formulación del segundo principio se produjeron otros avances en la termodinámica, cuyas aplicaciones se extendieron más allá de la física y alcanzaron a la química y la ingeniería. La mayor parte de la ingeniería química, toda la ingeniería energética, la tecnología de acondicionamiento de aire y la física de bajas temperaturas son algunos de los campos que deben su base teórica a la termodinámica y a los logros posteriores de científicos como Maxwell, el físico estadounidense Willard Gibbs, el químico físico alemán Walther Nernst o el químico estadounidense de origen noruego Lars Onsager.

6. Teoría cinética y mecánica estadística



El concepto moderno de átomo fue propuesto por primera vez por el químico y físico británico John Dalton en 1808, a partir de sus estudios que mostraban que los elementos químicos se combinan en proporciones constantes para formar compuestos. En 1811, el físico italiano Amedeo Avogadro propuso el concepto de molécula, la partícula más pequeña de una sustancia gaseosa que puede existir en estado libre y seguir teniendo las mismas propiedades que una cantidad mayor de dicha sustancia. Este concepto no tuvo una aceptación generalizada hasta unos 50 años después, cuando sirvió de base a la teoría cinética de los gases. Esta teoría, desarrollada por Maxwell, el físico austriaco Ludwig Boltzmann y otros, permitió aplicar las leyes de la mecánica y del cálculo probabilístico al comportamiento de las moléculas individuales, lo que llevó a deducciones estadísticas sobre las propiedades del gas en su conjunto.

Un problema importante resuelto de esta forma fue la determinación del rango de velocidades de las moléculas de un gas, y en consecuencia de la energía cinética media de las moléculas. La energía cinética de un cuerpo es ymv2, donde m es la masa del cuerpo y v su velocidad. Uno de los logros de la teoría cinética fue la demostración de que la temperatura —una propiedad termodinámica macroscópica que describe el conjunto del sistema— está directamente relacionada con la energía cinética media de las moléculas. Otro logro consistió en identificar la entropía de un sistema con el logaritmo de la probabilidad estadística de la distribución de energías. Esto llevó a demostrar que el estado de equilibrio termodinámico de mayor probabilidad es también el estado de máxima entropía. Después de su éxito en los gases, la teoría cinética y la mecánica estadística se aplicaron a otros sistemas, algo que continúa haciéndose en la actualidad.

7. Primeras teorías atómicas y moleculares



La teoría atómica de Dalton y la ley de Avogadro tuvieron una influencia crucial en el desarrollo de la química, además de su importancia para la física.

7.1. Ley de Avogadro


La ley de Avogadro, fácil de demostrar a partir de la teoría cinética, afirma que a una presión y temperatura dadas un volumen determinado de un gas siempre contiene el mismo número de moléculas, independientemente del gas de que se trate. Sin embargo, los físicos no lograron determinar con exactitud esa cifra (y por tanto averiguar la masa y tamaño de las moléculas) hasta principios del siglo XX. Después del descubrimiento del electrón, el físico estadounidense Robert Andrews Millikan determinó su carga. Esto permitió finalmente calcular con precisión el número de Avogadro, es decir, el número de partículas (átomos, moléculas, iones o cualquier otra partícula) que hay en un mol de materia (véase Molécula).

Además de la masa del átomo interesa conocer su tamaño. A finales del siglo XIX se realizaron diversos intentos para determinar el tamaño del átomo, que sólo tuvieron un éxito parcial. En uno de estos intentos se aplicaron los resultados de la teoría cinética a los gases no ideales, es decir, gases cuyas moléculas no se comportan como puntos sino como esferas de volumen finito. Posteriores experimentos que estudiaban la forma en que los átomos dispersaban rayos X, partículas alfa y otras partículas atómicas y subatómicas permitieron medir con más precisión el tamaño de los átomos, que resultaron tener un diámetro de entre 10-8 y 10-9 cm. Sin embargo, una afirmación precisa sobre el tamaño de un átomo exige una definición explícita de lo que se entiende por tamaño, puesto que la mayoría de los átomos no son exactamente esféricos y pueden existir en diversos estados, con diferentes distancias entre el núcleo y los electrones.

7.2. Espectroscopia


Uno de los avances más importantes que llevaron a la exploración del interior del átomo y al abandono de las teorías clásicas de la física fue la espectroscopia; otro avance fue el propio descubrimiento de las partículas subatómicas.

Cuando se calienta una sustancia gaseosa ésta emite luz en una serie de frecuencias determinadas; la distribución de estas frecuencias se denomina espectro de emisión. En 1823 el astrónomo y químico británico John Herschel sugirió que las sustancias químicas podían identificarse por su espectro. En los años posteriores, dos alemanes, el químico Robert Wilhelm Bunsen y el físico Gustav Robert Kirchhoff, catalogaron los espectros de numerosas sustancias. El helio se descubrió después de que, en 1868, el astrónomo británico Joseph Norman Lockyer observara una línea espectral desconocida en el espectro solar. Sin embargo, las contribuciones más importantes desde el punto de vista de la teoría atómica se debieron al estudio de los espectros de átomos sencillos, como el del hidrógeno, que presenta pocas líneas espectrales. Ver Análisis químico.

Los llamados espectros de líneas (formados por líneas individuales correspondientes a diferentes frecuencias) son causados por sustancias gaseosas en las que, según sabemos hoy, los electrones han sido excitados por calentamiento o por bombardeo con partículas subatómicas. En cambio, cuando se calienta un sólido aparece un espectro continuo que cubre toda la zona visible y penetra en las regiones infrarroja y ultravioleta. La cantidad total de energía emitida por el sólido depende mucho de la temperatura, así como la intensidad relativa de las distintas longitudes de onda. Por ejemplo, si se calienta un trozo de hierro la radiación emitida comienza en la región infrarroja, y no puede verse; después la radiación se desplaza hacia el espectro visible, primero con un brillo rojo y luego blanco, a medida que el máximo del espectro de radiación avanza hacia la mitad de la zona visible. El intento de explicar las características de la radiación de los sólidos con las herramientas de la física teórica de finales del siglo XIX llevaba a la predicción de que, a cualquier temperatura, la cantidad de radiación debía aumentar de forma ilimitada a medida que disminuía la longitud de onda. Este cálculo, en el que no se logró encontrar ningún error, estaba en desacuerdo con los experimentos y además llevaba a una conclusión absurda, la de que un cuerpo con temperatura finita pudiera radiar una cantidad infinita de energía. Estas contradicciones exigían una nueva forma de considerar la radiación e, indirectamente, el átomo. Ver Rayos infrarrojos; Radiación ultravioleta.

8. La crisis de la física clásica


Hacia 1880 la física presentaba un panorama de calma: la mayoría de los fenómenos podían explicarse mediante la mecánica de Newton, la teoría electromagnética de Maxwell, la termodinámica y la mecánica estadística de Boltzmann. Parecía que sólo quedaban por resolver unos pocos problemas, como la determinación de las propiedades del éter y la explicación de los espectros de emisión y absorción de sólidos y gases. Sin embargo, estos fenómenos contenían las semillas de una revolución cuyo estallido se vio acelerado por una serie de asombrosos descubrimientos realizados en la última década del siglo XIX: en 1895, Wilhelm Conrad Roentgen descubrió los rayos X; ese mismo año, Joseph John Thomson descubrió el electrón; en 1896, Antoine Henri Becquerel descubrió la radiactividad; entre 1887 y 1899, Heinrich Hertz, Wilhelm Hallwachs y Philipp Lenard descubrieron diversos fenómenos relacionados con el efecto fotoeléctrico. Los datos experimentales de la física, unidos a los inquietantes resultados del experimento de Michelson-Morley y al descubrimiento de los rayos catódicos, formados por chorros de electrones, desafiaban a todas las teorías disponibles.




#67 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 13 agosto 2007 - 06:49

________________________________________________________________

2a. Parte del Articulo FISICA
__________________________________________________________________

4. La física moderna



Dos importantes avances producidos durante el primer tercio del siglo XX —la teoría cuántica y la teoría de la relatividad— explicaron estos hallazgos, llevaron a nuevos descubrimientos y cambiaron el modo de comprender la física.

1. Relatividad


Para ampliar el ejemplo de velocidad relativa introducido a propósito del experimento de Michelson-Morley se pueden comparar dos situaciones. En una de ellas, una persona A avanza hacia delante con una velocidad v en un tren que se mueve a una velocidad u. La velocidad de A con respeto a un observador B situado en el andén es V = u + v. Si el tren está parado en la estación y A avanza hacia delante con una velocidad v mientras el observador B camina en sentido opuesto con velocidad u, la velocidad relativa de A respecto a B sería exactamente la misma que en el primer caso. En términos más generales, si dos sistemas de referencia se mueven uno respecto del otro a velocidad constante, las observaciones de cualquier fenómeno realizadas por un observador en cualquiera de los sistemas son físicamente equivalentes. Como ya se indicó, el experimento de Michelson-Morley no logró confirmar esta simple suma de velocidades en el caso de un haz de luz: dos observadores, uno de los cuales estaba en reposo y el otro avanzaba hacia una fuente de luz a velocidad u, midieron el mismo valor de la velocidad de la luz, que suele simbolizarse con la letra c.

Einstein incorporó la invariancia de c a su teoría de la relatividad. La teoría también exigió un cuidadoso replanteamiento de los conceptos de espacio y tiempo, y puso de manifiesto la imperfección de las nociones intuitivas sobre los mismos. De la teoría de Einstein se desprende que un reloj perfectamente sincronizado con otro reloj situado en reposo en relación con él se retrasará o adelantará con respecto al segundo reloj si ambos se mueven uno respecto del otro. Igualmente, dos varillas que tengan igual longitud cuando están en reposo tendrán longitudes distintas cuando una se mueva respecto a la otra. Las diferencias sólo son significativas cuando las velocidades relativas son comparables a c. El espacio y el tiempo están estrechamente ligados en un continuo de cuatro dimensiones: las tres dimensiones espaciales habituales y una cuarta dimensión temporal.

Dos consecuencias importantes de la teoría de la relatividad son la equivalencia entre masa y energía y el límite máximo a la velocidad de los objetos materiales dado por c. La mecánica relativista describe el movimiento de objetos cuyas velocidades son fracciones apreciables de c, mientras que la mecánica newtoniana sigue siendo útil para las velocidades propias de los movimientos de los objetos macroscópicos en la Tierra. En cualquier caso, ningún objeto material puede tener una velocidad igual o mayor a la velocidad de la luz.

La masa m y la energía E están ligadas por la relación
E = mc2



Como c es muy grande, el equivalente energético de la masa es gigantesco. La transformación de masa en energía resulta significativa en las reacciones nucleares, como las que tienen lugar en una central nuclear o en una bomba atómica, y en las estrellas, donde la liberación de cantidades ingentes de energía se ve acompañada de una pérdida significativa de masa.

La teoría original de Einstein, formulada en 1905 y conocida como teoría de la relatividad especial o restringida, se limitaba a sistemas de referencia que se mueven a velocidad constante uno respecto del otro. En 1915, Einstein generalizó su hipótesis y formuló la teoría de la relatividad general, aplicable a sistemas que experimentan una aceleración uno con respecto al otro. Esta extensión demostró que la gravitación era una consecuencia de la geometría del espacio-tiempo, y predijo la desviación de la luz al pasar cerca de un cuerpo de gran masa como una estrella, efecto que se observó por primera vez en 1919. La teoría de la relatividad general, aunque no está tan firmemente establecida como la relatividad restringida, tiene una importancia decisiva para la comprensión de la estructura del Universo y su evolución. Véase también Cosmología.

2. Teoría cuántica


El primero en resolver el dilema planteado por los espectros de emisión de los cuerpos sólidos fue el físico alemán Max Planck. Según la física clásica, todas las moléculas de un sólido pueden vibrar, y la amplitud de sus vibraciones está directamente relacionada con la temperatura. En principio son posibles todas las energías de vibración, y la energía térmica del sólido debería de poder convertirse de forma continua en radiación electromagnética mientras se le suministre energía. Planck realizó una suposición radical al postular que un oscilador molecular sólo puede emitir ondas electromagnéticas en paquetes discretos, que llamó cuantos o fotones (véase Teoría cuántica). Cada fotón tiene una longitud de onda y una frecuencia características y una energía E que viene dada por E = hu, donde u es la frecuencia de la onda luminosa y h es la denominada constante de Planck. La longitud de onda λ está relacionada con la frecuencia según la ecuación λu = c, donde c es la velocidad de la luz. Si la frecuencia se expresa en hercios (Hz), o ciclos por segundo (1 Hz = 1 s-1), y la energía en julios, la constante de Planck es extremadamente pequeña, y vale 6,626 × 10-34 julios·segundo. Con su teoría, Planck introdujo una dualidad onda-corpúsculo en la naturaleza de la luz, que durante un siglo había sido considerada como un fenómeno exclusivamente ondulatorio.

3. Efecto fotoeléctrico


Cuando una radiación electromagnética de frecuencia apropiada incide sobre determinados metales, de su superficie se desprenden cargas eléctricas negativas (hoy sabemos que se trata de electrones). Los aspectos importantes de este fenómeno son los siguientes: 1) la energía de cada electrón desprendido sólo depende de la frecuencia de la fuente luminosa, y no de su intensidad; 2) la cantidad o el ritmo de emisión de electrones sólo depende de la intensidad de iluminación, y no de la frecuencia (siempre que se supere la frecuencia mínima o umbral capaz de provocar la emisión); 3) los electrones se desprenden en cuanto se ilumina la superficie. Estas observaciones, que no podían ser explicadas por la teoría electromagnética de la luz desarrollada por Maxwell, llevaron a Einstein en 1905 a suponer que la luz sólo puede absorberse en cuantos, o fotones, y que el fotón desaparece por completo en el proceso de absorción y cede toda su energía E a un solo electrón del metal. Con esta sencilla suposición, Einstein amplió la teoría cuántica de Planck a la absorción de radiación electromagnética, lo que concedió una importancia aún mayor a la dualidad onda-corpúsculo de la luz. Por este trabajo logró Einstein el Premio Nobel de Física en 1921.

4. Rayos X


En 1912 el físico alemán Max von Laue y sus colaboradores demostraron que estos rayos extremadamente penetrantes, descubiertos por Roentgen, eran radiación electromagnética de longitud de onda muy corta, es decir, de frecuencia elevada. Se comprobó que el mecanismo de producción de rayos X correspondía a un fenómeno cuántico, y en 1914 el físico británico Henry Gwyn Jeffreys Moseley empleó sus espectrogramas de rayos X para demostrar que el número de protones de un átomo coincide con su número atómico, que indica su posición en la tabla periódica. La teoría fotónica de la radiación electromagnética se reforzó y desarrolló aún más cuando el físico estadounidense Arthur Holly Compton predijo y observó en 1923 el llamado efecto Compton.

5. Física del electrón


En el siglo XIX ya se sospechaba que los portadores de las cargas eléctricas eran partículas extremadamente pequeñas, y los experimentos electroquímicos indicaban que la carga de esas partículas elementales era una cantidad definida e invariante. Los experimentos sobre conducción de electricidad en gases a baja presión llevaron al descubrimiento de dos clases de rayos: los rayos catódicos, procedentes del electrodo negativo de un tubo de descarga, y los rayos positivos o rayos canales, procedentes del electrodo positivo. El experimento realizado por Joseph John Thomson en 1895 midió la relación entre la carga q y la masa m de las partículas de los rayos catódicos. En 1899 Lenard confirmó que esta relación era la misma en las partículas emitidas en el efecto fotoeléctrico. Hacia 1911 Millikan determinó por fin que la carga eléctrica siempre aparece en múltiplos de una unidad básica e, y midió su valor, que es de 1,602 × 10-19 culombios. A partir del valor obtenido para la relación q/m, se determinó que la masa del portador de carga, denominado electrón, es de 9,109 × 10-31 kilogramos.

Posteriormente Thomson y otros demostraron que los rayos positivos también estaban formados por partículas, pero con carga de signo positivo. Estas partículas (en la actualidad se sabe que son iones positivos producidos al eliminar electrones de un átomo neutro) tienen una masa muchísimo mayor que la del electrón. La más pequeña, el ion hidrógeno, está formado por un solo protón (con carga e pero de signo positivo) y tiene una masa de 1,673 × 10-27 kg, unas 1.800 veces mayor que la del electrón (véase Ionización). La naturaleza “cuantizada” de la carga eléctrica había quedado firmemente establecida, y al mismo tiempo se habían identificado dos de las partículas subatómicas fundamentales.

6. Modelos atómicos


En 1913 el físico británico nacido en Nueva Zelanda Ernest Rutherford comprobó que el anterior modelo atómico de Thomson, con partículas positivas y negativas uniformemente distribuidas, era insostenible. Las partículas alfa empleadas por Rutherford, muy rápidas y con carga positiva, se desviaban con claridad al atravesar una capa muy fina de materia. Para explicar este efecto era necesario un modelo atómico con un núcleo central pesado y cargado positivamente que provocara la dispersión de las partículas alfa. Rutherford sugirió que la carga positiva del átomo estaba concentrada en un núcleo estacionario de gran masa, mientras que los electrones negativos se movían en órbitas alrededor del núcleo, ligadas por la atracción eléctrica entre cargas opuestas. Sin embargo, este modelo de “sistema solar” no podía ser estable según la teoría de Maxwell ya que, al girar, los electrones son acelerados y deberían emitir radiación electromagnética, perder energía y como consecuencia caer en el núcleo en un tiempo muy breve.

Esto exigió otra ruptura radical con la física clásica, que corrió a cargo del físico danés Niels Bohr. Según Bohr, en los átomos existían ciertas órbitas en las que los electrones giran sin emitir radiación electromagnética. Estas órbitas permitidas, los llamados estados estacionarios, están determinadas por la condición de que el momento angular J del electrón de la órbita tiene que ser un múltiplo entero positivo de la constante de Planck dividida entre 2p, es decir, J = nh/2p, donde el número cuántico n puede tomar cualquier valor entero positivo. Estas fórmulas extendieron la “cuantización” a la dinámica, fijaron las órbitas posibles y permitieron a Bohr calcular los radios de las mismas y los niveles de energía correspondientes. En 1913, el año en que apareció el primer trabajo de Bohr sobre este tema, el modelo fue confirmado experimentalmente por el físico estadounidense nacido en Alemania James Franck y su colega alemán Gustav Hertz.

Bohr desarrolló su modelo con mucha mayor profundidad. Explicó el mecanismo por el que los átomos emiten luz y otras ondas electromagnéticas y propuso la hipótesis de que un electrón “elevado” por una perturbación suficiente desde la órbita de menor radio y menor energía (el estado fundamental) hasta otra órbita vuelve a “caer” al estado fundamental al poco tiempo. Esta caída está acompañada de la emisión de un único fotón con energía E = hu, que corresponde a la diferencia de energía entre las órbitas superior e inferior. Cada transición entre órbitas emite un fotón característico cuya longitud de onda y frecuencia están exactamente definidas; por ejemplo, en una transición directa desde la órbita de n = 3 hasta la de n = 1 se emite un solo fotón, muy distinto de los dos fotones emitidos en una transición secuencial desde la órbita de n = 3 hasta la de n = 2 y a continuación desde ésta hasta la de n = 1. Este modelo permitió a Bohr explicar con gran precisión el espectro atómico más sencillo, el del hidrógeno, que había desafiado a la física clásica.

Aunque el modelo de Bohr se amplió y perfeccionó, no podía explicar los fenómenos observados en átomos con más de un electrón. Ni siquiera podía explicar la intensidad de las rayas espectrales del sencillo átomo de hidrógeno. Como su capacidad de predicción de resultados experimentales era limitada, no resultaba plenamente satisfactorio para los físicos teóricos.

7. Mecánica cuántica

En unos pocos años, aproximadamente entre 1924 y 1930, se desarrolló un nuevo enfoque teórico de la dinámica para explicar el comportamiento subatómico. El nuevo planteamiento, llamado mecánica cuántica, comenzó cuando el físico francés Louis de Broglie sugirió en 1924 que no sólo la radiación electromagnética, sino también la materia podía presentar una dualidad onda-corpúsculo. La longitud de onda de las llamadas ondas de materia asociadas con una partícula viene dada por la ecuación λ = h/mv, donde m es la masa de la partícula y v su velocidad. Las ondas de materia se concebían como ondas piloto que guiaban el movimiento de las partículas, una propiedad que debería llevar a que en condiciones adecuadas se produjera difracción. Ésta se confirmó en 1927 con los experimentos sobre interacciones entre electrones y cristales realizados por los físicos estadounidenses Clinton Joseph Davisson y Lester Halbert Germer y por el físico británico George Paget Thomson. Posteriormente, los alemanes Werner Heisenberg, Max Born y Ernst Pascual Jordan, y el austriaco Erwin Schrödinger dieron a la idea planteada por De Broglie una forma matemática que podía aplicarse a numerosos fenómenos físicos y a problemas que no podían tratarse con la física clásica. Además de confirmar el postulado de Bohr sobre la cuantización de los niveles de energía de los átomos, la mecánica cuántica hace que en la actualidad podamos comprender los átomos más complejos, y también ha supuesto una importante guía en la física nuclear. Aunque por lo general la mecánica cuántica sólo se necesita en fenómenos microscópicos (la mecánica newtoniana sigue siendo válida para sistemas macroscópicos), ciertos efectos macroscópicos como las propiedades de los sólidos cristalinos sólo pueden explicarse de forma satisfactoria a partir de los principios de la mecánica cuántica.

Desde entonces se han incorporado nuevos conceptos importantes al panorama de la mecánica cuántica, más allá de la idea de Broglie sobre la dualidad onda-corpúsculo de la materia. Uno de estos conceptos
es que los electrones deben tener un cierto magnetismo permanente y por tanto un momento angular intrínseco o espín. Después se comprobó que el espín es una propiedad fundamental de casi todas las partículas elementales. En 1925, el físico austriaco Wolfgang Pauli expuso el principio de exclusión, que afirma que en un átomo no puede haber dos electrones con el mismo conjunto de números cuánticos (hacen falta cuatro números cuánticos para especificar completamente el estado de un electrón dentro de un átomo). El principio de exclusión es vital para comprender la estructura de los elementos y de la tabla periódica. En 1927, Heisenberg postuló el principio de incertidumbre, que afirma la existencia de un límite natural a la precisión con la que pueden conocerse simultáneamente determinados pares de magnitudes físicas asociadas a una partícula (por ejemplo, la cantidad de movimiento y la posición).

En 1928 el físico matemático británico Paul Dirac realizó una síntesis de la mecánica cuántica y la relatividad, que le llevó a predecir la existencia del positrón y culminó el desarrollo de la mecánica cuántica.

Las ideas de Bohr desempeñaron un papel muy importante para el desarrollo de un enfoque estadístico en la física moderna. Las relaciones de causa y efecto de la mecánica newtoniana, totalmente deterministas, fueron sustituidas por predicciones de sucesos futuros basadas sólo en probabilidades estadísticas. Las propiedades ondulatorias de la materia implican que, de acuerdo con el principio de incertidumbre, el movimiento de las partículas nunca puede predecirse con una certeza absoluta, incluso aunque se conozcan por completo las fuerzas. Aunque este aspecto estadístico no es detectable en los movimientos macroscópicos, es dominante a escala molecular, atómica y subatómica.

8. Física nuclear


El descubrimiento de la radiactividad del mineral de uranio, llevado a cabo en 1896 por Becquerel, también facilitó la comprensión de la estructura atómica. En los años siguientes se comprobó que la radiación de los materiales radiactivos estaba formada por tres tipos de emisiones: los llamados rayos alfa, beta y gamma. Rutherford estableció que los primeros eran núcleos de átomos de helio, y Becquerel demostró que los segundos eran electrones muy rápidos. Los rayos gamma resultaron ser radiación electromagnética de muy alta frecuencia. En 1898, los físicos franceses Marie y Pierre Curie aislaron dos elementos muy radiactivos, el radio y el polonio, a partir del mineral de uranio, con lo que demostraron que las radiaciones pueden identificarse con determinados elementos. En 1903, Rutherford y el químico y físico británico Frederick Soddy demostraron que la emisión de rayos alfa o beta provoca la transmutación del núcleo del elemento emisor en un núcleo de un elemento diferente. Poco después se comprobó que los procesos radiactivos son aleatorios y sólo se pueden estudiar desde un punto de vista estadístico: no existe ningún método para indicar qué núcleo de un átomo de un material radiactivo se desintegrará en un momento dado. Estos avances, además de llevar al modelo atómico de Rutherford y Bohr, también sugerían que los rayos alfa, beta y gamma sólo podían proceder de núcleos de átomos muy pesados. En 1919, Rutherford bombardeó núcleos de nitrógeno con partículas alfa y los convirtió en núcleos de hidrógeno y oxígeno, con lo que logró la primera transmutación artificial de elementos.

Entretanto, el conocimiento de la naturaleza y abundancia de los isótopos iba creciendo, debido en gran medida al desarrollo del espectrómetro de masas. Surgió un modelo atómico en el que el núcleo contenía toda la carga positiva y casi toda la masa del átomo. Los portadores de la carga nuclear fueron identificados como protones, pero sólo podía explicarse la masa del núcleo si existían otras partículas adicionales sin carga (salvo en el caso del hidrógeno, cuyo núcleo está formado sólo por un protón). En 1932, el físico británico James Chadwick descubrió el neutrón, una partícula eléctricamente neutra cuya masa es igual a 1,675 × 10-27 kg, algo mayor que la del protón. Los núcleos atómicos resultaron pues estar formados por protones y neutrones —llamados colectivamente nucleones—, y el número atómico del elemento corresponde al número de protones del núcleo. Por otra parte, el número másico, también denominado número isotópico, corresponde a la suma del número de protones y neutrones. Por ejemplo, todos los átomos de oxígeno (cuyo número atómico es 8 ) tienen ocho protones, pero los tres isótopos de oxígeno 16O, 17O y 18O contienen respectivamente ocho, nueve y diez neutrones en su núcleo.

Las cargas eléctricas positivas se repelen, y puesto que los núcleos atómicos (salvo el del hidrógeno) tienen más de un protón, se desintegrarían a no ser por una fuerza atractiva muy intensa, la llamada interacción nuclear fuerte, que mantiene unidos los nucleones. La energía asociada con esta interacción fuerte es muy grande, millones de veces mayor que las energías características de los electrones en sus órbitas, responsables de los enlaces químicos. Por tanto, una partícula alfa (formada por dos neutrones y dos protones) tendría que superar esta intensa interacción fuerte para escapar de un núcleo radiactivo como el del uranio. El fenómeno fue explicado por los físicos estadounidenses Edward Condon, George Gamow y Ronald Wilfred Gurney, que en 1928 aplicaron la mecánica cuántica al problema de la emisión alfa y demostraron que la naturaleza estadística de los procesos nucleares permitía que las partículas alfa salieran de los núcleos radiactivos aunque su energía media fuera insuficiente para superar la interacción nuclear fuerte. La emisión beta se explicó como resultado de la desintegración de un neutrón del núcleo, que se transforma en un electrón (la partícula beta) que se expulsa rápidamente y en un protón residual. El núcleo resultante tiene un protón más que el núcleo original, por lo que su número atómico, y por tanto su posición en la tabla periódica, aumentan en una unidad. Después de una emisión alfa o beta, el núcleo suele tener un exceso de energía, del que se deshace emitiendo un fotón de rayos gamma.

En todos estos procesos se libera una gran cantidad de energía, según la ecuación de Einstein E = mc2. Al finalizar el proceso, la masa total de los productos es menor que la del núcleo original: esta diferencia de masa corresponde a la energía liberada. Ver Energía nuclear.


5. Avances de la física desde 1930



La rápida expansión de la física en las últimas décadas ha sido posible gracias a los avances fundamentales del primer tercio del siglo XX, junto con los recientes adelantos tecnológicos, sobre todo en tecnología informática, electrónica, aplicaciones de la energía nuclear y aceleradores de partículas de altas energías.

1. Aceleradores


Rutherford y los otros pioneros de la investigación de las propiedades nucleares estaban limitados a emplear en sus investigaciones sobre el átomo las emisiones de alta energía procedentes de sustancias radiactivas naturales. Las emisiones artificiales de alta energía fueron producidas por primera vez en 1932 por el físico británico John Cockcroft y su colega irlandés Ernest Walton, que emplearon generadores de alta tensión para acelerar electrones hasta unos 700.000 eV; estos elementos fueron utilizados para bombardear núcleos de litio, que se transformaron en núcleos de helio. Un electronvoltio (eV) es la energía que adquiere un electrón al ser acelerado con una diferencia de potencial de 1 voltio, y equivale a 1,6 × 10-19 julios. Los aceleradores modernos producen energías de millones de eV (megaelectronvoltios, o MeV), miles de millones de eV (gigaelectronvoltios, o GeV) o incluso billones de eV (teraelectronvoltios, o TeV). La posibilidad de generar tensiones muy elevadas apareció en 1932, cuando el físico estadounidense Robert J. Van de Graaff inventó el aparato conocido como generador de Van de Graaff.

Poco tiempo después, los físicos estadounidenses Ernest Orlando Lawrence y Milton Stanley Livingston inventaron el ciclotrón; este dispositivo emplea un campo magnético para mantener partículas cargadas moviéndose en trayectorias circulares, y en cada media vuelta proporciona a las partículas un pequeño “empujón” eléctrico hasta que acumulan las altas energías deseadas. El ciclotrón permitía acelerar protones hasta unos 10 MeV, pero para obtener energías más elevadas hubo que esperar hasta después de la II Guerra Mundial, cuando se desarrolló el sincrotrón a partir de las ideas del físico estadounidense Edwin Mattison McMillan y el físico soviético Vladimir I. Veksler. Después de la II Guerra Mundial se produjeron rápidos avances en el diseño de aceleradores y se construyeron aparatos de diferentes tipos para producir haces de alta energía de electrones, protones, deuterones, iones pesados o rayos X.

Los aceleradores de menores energías tienen diferentes aplicaciones en industrias y laboratorios, mientras que los más potentes se utilizan para estudiar la estructura de las partículas elementales, los componentes básicos de la naturaleza. En estos estudios se desintegran partículas elementales golpeándolas con haces de proyectiles, que suelen ser protones o electrones. La distribución de los fragmentos proporciona información sobre la estructura de las partículas elementales.

Para obtener información más detallada hace falta usar proyectiles con más energía. Como los proyectiles se aceleran “empujándolos” para obtener mayores energías, hace falta “empujarlos” durante un tiempo mayor. Por eso, los aceleradores de altas energías suelen ser más grandes. La mayor energía de haz obtenida a finales de la II Guerra Mundial era menor de 100 MeV. En 1952 se produjo un avance revolucionario en el diseño de aceleradores cuando los físicos estadounidenses Livingston, Ernest D. Courant y Hartland S. Snyder introdujeron el principio de enfoque intenso. En la actualidad, los mayores aceleradores del mundo producen haces de protones con energías superiores a 1 TeV. Ver Aceleradores de partículas.

2. Detectores de partículas


En sus comienzos, la detección y análisis de partículas elementales se basaba en su capacidad para impresionar emulsiones fotográficas y excitar materiales fluorescentes. El físico británico C. T. R. Wilson observó por primera vez las trayectorias de partículas ionizadas en una cámara de niebla, donde las gotitas de agua se condensaban sobre los iones producidos por las partículas a su paso por la cámara. Mediante campos eléctricos o magnéticos era posible desviar las trayectorias de las partículas, lo que proporcionaba información sobre su momento lineal y su carga eléctrica. Un avance significativo sobre la cámara de niebla fue la cámara de burbujas, inventada por el físico estadounidense Donald Arthur Glaser en 1952. A diferencia de la cámara de niebla, este dispositivo emplea un líquido (por lo general hidrógeno a presión) en lugar de aire; los iones producidos por una partícula rápida se convierten en centros de ebullición y dejan una trayectoria de burbujas fácilmente visible. Como la densidad del líquido es mucho mayor que la del aire, en una cámara de burbujas se producen más interacciones que en una cámara de niebla. Además, las burbujas desaparecen más deprisa que las gotitas de agua, lo que permite una recuperación más rápida de la cámara. Un tercer avance, la cámara de chispa, surgió también en la década de 1950. En este aparato, una serie de placas paralelas se mantiene a una diferencia de potencial elevada en una atmósfera gaseosa adecuada. Cuando una partícula ionizante pasa entre las placas, los átomos de gas se ionizan y producen chispas que delinean la trayectoria de la partícula.

Un tipo diferente de detector, el contador de descarga, fue desarrollado a principios del siglo XX por el físico alemán Hans Geiger; más tarde lo mejoró el físico estadounidense de origen alemán Walter Müller. En la actualidad se conoce como contador Geiger-Müller, o simplemente contador Geiger. A pesar de su pequeño tamaño y fácil manejo, ha sido sustituido en la mayoría de los casos por contadores de estado sólido más rápidos y prácticos, como el contador de centelleo, que fue desarrollado alrededor de 1947 por el físico estadounidense de origen alemán Hartmut Paul Kallmann y otros. El contador de centelleo se basa en los destellos luminosos que producen las partículas ionizadas al atravesar determinados cristales y líquidos orgánicos. Ver Detectores de partículas.

3. Rayos cósmicos


Alrededor de 1911, el físico estadounidense de origen austriaco Victor Franz Hess estudió los rayos cósmicos. Los rayos cósmicos primarios están formados por partículas que proceden directamente del exterior de la atmósfera terrestre. Los rayos cósmicos secundarios son partículas y radiaciones producidas en la colisión de las partículas de rayos cósmicos primarios con los átomos de la atmósfera. Hess descubrió que la distribución de los rayos cósmicos está determinada por el campo magnético terrestre. Se comprobó que los rayos estaban cargados positivamente y corresponden sobre todo a protones con energías situadas entre 1 y 1011 GeV. Los rayos cósmicos atrapados en órbitas alrededor de la Tierra son los responsables de los cinturones de radiación de Van Allen, descubiertos por el primer satélite artificial estadounidense, lanzado en 1958.

Cuando un protón primario de alta energía entra en la atmósfera y colisiona con los núcleos de nitrógeno y oxígeno del aire, produce grandes cantidades de partículas secundarias que se dirigen hacia la Tierra formando una lluvia de rayos cósmicos. El origen de los protones de los rayos cósmicos primarios todavía no se comprende en su totalidad. Se sabe que algunos proceden del Sol y otras estrellas, pero los de energías más altas son difíciles de explicar: parece probable que los débiles campos galácticos aceleren los protones interestelares a lo largo de periodos extremadamente largos (véase Galaxia; Vía Láctea).

4. Partículas elementales


Además del electrón, el protón, el neutrón y el fotón se han descubierto muchas otras partículas fundamentales. En 1932, el físico estadounidense Carl David Anderson descubrió el antielectrón o positrón, que Dirac había predicho en 1928. Anderson comprobó que un rayo gamma de alta energía procedente de la radiación cósmica podía desaparecer en las proximidades de un núcleo pesado y crear un par electrón-positrón exclusivamente a partir de su energía. Cuando un positrón choca con un electrón se aniquilan entre sí y dan lugar a una lluvia de fotones.

En 1935, el físico japonés Yukawa Hideki desarrolló una teoría que explicaba cómo se mantiene unido un núcleo a pesar de la repulsión mutua entre sus protones. Yukawa postuló la existencia de una partícula de masa intermedia entre el electrón y el protón. En 1936, Anderson y sus colaboradores descubrieron en la radiación cósmica secundaria una nueva partícula con una masa 207 veces superior a la del electrón. Al principio se creyó que esa partícula, que se denominó muón, era el “pegamento” nuclear de Yukawa. Los experimentos posteriores del físico británico Cecil Frank Powell y otros llevaron al descubrimiento de una partícula algo más pesada, con una masa 270 veces mayor que la del electrón. Este mesón pi o pión (también hallado en la radiación cósmica secundaria) fue finalmente identificado como la pieza que faltaba en la teoría de Yukawa.

Desde entonces se han encontrado muchas partículas adicionales en la radiación cósmica secundaria y en los aceleradores de partículas de altas energías. Entre ellas figuran numerosas partículas de gran masa, denominadas hadrones (partículas afectadas por la interacción nuclear fuerte, que mantiene unidos los núcleos atómicos), que incluyen los hiperones y diversos mesones pesados cuya masa es de 1 a 3 veces la del protón, además de los llamados bosones vectoriales intermedios, como las partículas W y Z0, los portadores de la interacción nuclear débil. Estas partículas pueden ser eléctricamente neutras, positivas o negativas, pero nunca tienen más de una carga eléctrica elemental, e. Tienen un periodo de semidesintegración que va desde 10-8 hasta 10-14 segundos, y se desintegran dando lugar a numerosas partículas más ligeras. Cada partícula tiene su antipartícula correspondiente y posee un determinado momento angular. Todas cumplen una serie de leyes de conservación relativas a números cuánticos como el número bariónico, la llamada extrañeza o el espín isotópico.

En 1931, para explicar el aparente incumplimiento de algunas leyes de conservación en determinados procesos radiactivos, Pauli postuló la existencia de partículas eléctricamente neutras de masa nula o casi nula que transportan energía y momento lineal. Esta idea fue desarrollada por el físico estadounidense nacido en Italia Enrico Fermi, que llamó neutrino a esta partícula hipotética. Al carecer de carga y ser extremadamente pequeño, el neutrino es muy difícil de detectar, y puede atravesar con facilidad toda la Tierra sin ser capturado. Fue finalmente descubierto por los estadounidenses Frederick Reines y Clyde Lorrain Cowan, hijo. Los experimentos del físico estadounidense Robert Hofstadter con electrones rápidos procedentes de aceleradores lineales también contribuyeron a ampliar el conocimiento de la estructura interna de los protones y neutrones.

A finales de la década de 1940, una serie de experimentos con rayos cósmicos reveló nuevos tipos de partículas cuya existencia no se había pronosticado. Se las denominó partículas extrañas, y sus propiedades se estudiaron intensivamente en la década de 1950. En la década de 1960, se encontraron muchas partículas nuevas en experimentos con grandes aceleradores. El nombre de partículas elementales se aplica al electrón, el protón, el neutrón, el fotón y a todas las partículas descubiertas desde 1932. Sin embargo, el término es de hecho incorrecto, ya que se ha comprobado que la mayoría de estas partículas tienen una estructura interna complicada.

La física de partículas elementales se ocupa de dos cuestiones:

1) la estructura interna de estos componentes de la materia;

2) la interacción de los mismos para formar núcleos. La teoría dominante acerca de la estructura interna de las partículas elementales se basa en los quarks, subpartículas de carga fraccionaria; por ejemplo, un protón está formado por tres quarks.


Esta teoría fue propuesta por primera vez en 1964 por los físicos estadounidenses Murray Gell-Mann y George Zweig. Los nucleones están formados por tríos de quarks, mientras que los mesones están formados por parejas de quarks. No se conoce ningún proceso para producir quarks aislados, pero se cree que existieron de forma individual en las condiciones extremas que reinaron al comienzo del Universo. Al principio, la teoría postulaba tres tipos de quarks, pero los experimentos posteriores exigieron la introducción de otros tres tipos adicionales.

4.1. Teoría del campo unificado


Hasta ahora, las teorías más fructíferas de las interacciones entre las partículas elementales son las llamadas teorías de gauge. En estas teorías, la interacción entre dos clases de partículas se caracteriza por la simetría. Por ejemplo, la simetría entre neutrones y protones consiste en que si se intercambian las identidades de las partículas no cambia nada en lo relativo a la interacción fuerte. La primera de las teorías de gauge se aplicó a las interacciones electromagnéticas entre partículas cargadas. Aquí, la simetría reside en el hecho de que los cambios en la combinación de potenciales eléctricos y magnéticos no tienen efecto sobre los resultados finales. Una teoría de gauge muy potente, posteriormente verificada, fue propuesta de forma independiente por el físico estadounidense Steven Weinberg y el físico paquistaní Abdus Salam en 1967 y 1968. Su modelo vinculaba los bosones vectoriales intermedios con el fotón, con lo que unificaba las interacciones electromagnética y nuclear débil, aunque sólo en el caso de los leptones (partículas no afectadas por la interacción nuclear fuerte). Los trabajos posteriores de Sheldon Lee Glashow, J. Iliopolis y L. Maiani demostraron la forma en que el modelo puede aplicarse también a los hadrones (partículas afectadas por la interacción fuerte).

En principio, la teoría de gauge puede aplicarse a cualquier campo de fuerzas, lo que presenta la posibilidad de que todas las fuerzas o interacciones puedan unirse en una única teoría del campo unificado. Estos intentos implican siempre el concepto de simetría. Las simetrías generalizadas se extienden también a intercambios de partículas que varían de un punto a otro en el espacio y en el tiempo. El problema para los físicos es que estas simetrías no amplían el conocimiento científico de la naturaleza de la materia. Por eso, muchos físicos están explorando las posibilidades de las llamadas teorías de supersimetría, que relacionarían directamente los fermiones y los bosones postulando nuevas parejas de partículas “gemelas” además de las conocidas, que sólo se diferenciarían por el espín. Se han expresado algunas reservas en relación con estos intentos; en cambio, otro enfoque conocido como teoría de supercuerdas suscita mucho interés. En esta teoría, las partículas fundamentales no se consideran objetos sin dimensiones sino “cuerdas” que se extienden en una dimensión con longitudes menores de 10-35 metros. Todas estas teorías resuelven muchos de los problemas con que se encuentran los físicos que trabajan en la teoría del campo unificado, pero de momento sólo son construcciones bastante especulativas.

5. Física nuclear


En 1932 el físico estadounidense Harold Clayton Urey descubrió el isótopo del hidrógeno denominado deuterio y lo empleó para obtener agua pesada. El núcleo de deuterio o deuterón (formado por un protón y un neutrón) constituye un excelente proyectil para inducir reacciones nucleares. Los físicos franceses Irène y Frédéric Joliot-Curie produjeron el primer núcleo radiactivo artificial en 1933-1934, con lo que comenzó la producción de radioisótopos para su empleo en arqueología, biología, medicina, química y otras ciencias.

Fermi y numerosos colaboradores emprendieron una serie de experimentos para producir elementos más pesados que el uranio bombardeando éste con neutrones. Tuvieron éxito, y en la actualidad se han creado artificialmente al menos una veintena de estos elementos transuránicos. A medida que continuaba su trabajo se produjo un descubrimiento aún más importante. Irène Joliot-Curie, los físicos alemanes Otto Hahn y Fritz Strassmann, la física austriaca Lise Meitner y el físico británico Otto Robert Frisch comprobaron que algunos núcleos de uranio se dividían en dos partes, fenómeno denominado fisión nuclear. La fisión liberaba una cantidad enorme de energía debida a la pérdida de masa, además de algunos neutrones. Estos resultados sugerían la posibilidad de una reacción en cadena automantenida, algo que lograron Fermi y su grupo en 1942, cuando hicieron funcionar el primer reactor nuclear. Los avances tecnológicos fueron rápidos; la primera bomba atómica se fabricó en 1945 como resultado de un ingente programa de investigación dirigido por el físico estadounidense J. Robert Oppenheimer, y el primer reactor nuclear destinado a la producción de electricidad entró en funcionamiento en Gran Bretaña en 1956, con una potencia de 78 megavatios. Ver Armas nucleares.

La investigación de la fuente de energía de las estrellas llevó a nuevos avances. El físico estadounidense de origen alemán Hans Bethe demostró que las estrellas obtienen su energía de una serie de reacciones nucleares que tienen lugar a temperaturas de millones de grados. En estas reacciones, cuatro núcleos de hidrógeno se convierten en un núcleo de helio, a la vez que liberan dos positrones y cantidades inmensas de energía. Este proceso de fusión nuclear se adoptó con algunas modificaciones —en gran medida a partir de ideas desarrolladas por el físico estadounidense de origen húngaro Edward Teller— como base de la bomba de fusión, o bomba de hidrógeno. Este arma, que se detonó por primera vez en 1952, era mucho más potente que la bomba de fisión o atómica. En la bomba de hidrógeno, una pequeña bomba de fisión aporta las altas temperaturas necesarias para desencadenar la fusión, también llamada reacción termonuclear.

Gran parte de las investigaciones actuales se dedican a la producción de un dispositivo de fusión controlada, no explosiva, que sería menos radiactivo que un reactor de fisión y proporcionaría una fuente casi ilimitada de energía. En diciembre de 1993 se logró un avance significativo en esa dirección cuando los investigadores de la Universidad de Princeton, en Estados Unidos, usaron el Reactor Experimental de Fusión Tokamak para producir una reacción de fusión controlada que proporcionó durante un breve tiempo una potencia de 5,6 megavatios. Sin embargo el reactor consumió más energía de la que produjo.

6. Física del estado sólido


En los sólidos, los átomos están densamente empaquetados, lo que lleva a la existencia de fuerzas de interacción muy intensas y numerosos efectos relacionados con este tipo de fuerzas que no se observan en los gases, donde las moléculas actúan en gran medida de forma independiente. Los efectos de interacción son responsables de las propiedades mecánicas, térmicas, eléctricas, magnéticas y ópticas de los sólidos, un campo que resulta difícil de tratar desde el punto de vista teórico, aunque se han realizado muchos progresos.

Una característica importante de la mayoría de los sólidos es su estructura cristalina, en la que los átomos están distribuidos en posiciones regulares que se repiten de forma geométrica (véase Cristal). La distribución específica de los átomos puede deberse a una variada gama de fuerzas. Por ejemplo, algunos sólidos como el cloruro de sodio o sal común se mantienen unidos por enlaces iónicos debidos a la atracción eléctrica entre los iones que componen el material. En otros, como el diamante, los átomos comparten electrones, lo que da lugar a los llamados enlaces covalentes. Las sustancias inertes, como el neón, no presentan ninguno de esos enlaces. Su existencia es el resultado de unas fuerzas de atracción conocidas como fuerzas de van der Waals, así llamadas en honor al físico holandés Johannes Diderik van der Waals. Estas fuerzas aparecen entre moléculas o átomos neutros como resultado de la polarización eléctrica. Los metales, por su parte, se mantienen unidos por lo que se conoce como “gas electrónico”, formado por electrones libres de la capa atómica externa compartidos por todos los átomos del metal y que definen la mayoría de sus propiedades (véase Metalografía).

Los niveles de energía definidos y discretos permitidos a los electrones de átomos individuales se ensanchan hasta convertirse en bandas de energía cuando los átomos se agrupan densamente en un sólido. La anchura y separación de esas bandas definen muchas de las propiedades del material. Por ejemplo, las llamadas bandas prohibidas, en las que no pueden existir electrones, restringen el movimiento de éstos y hacen que el material sea un buen aislante térmico y eléctrico. Cuando las bandas de energía se solapan, como ocurre en los metales, los electrones pueden moverse con facilidad, lo que hace que el material sea un buen conductor de la electricidad y el calor. Si la banda prohibida es estrecha, algunos de los electrones más rápidos pueden saltar a la banda de energía superior: es lo que ocurre en un semiconductor como el silicio. En ese caso, el espacio entre las bandas de energía puede verse muy afectado por cantidades minúsculas de impurezas, como arsénico. Cuando la impureza provoca el descenso de una banda de energía alta, se dice que es un donante de electrones, y el semiconductor resultante se llama de tipo n. Cuando la impureza provoca el ascenso de una banda de energía baja, como ocurre con el galio, se dice que es un aceptor de electrones. Los vacíos o “huecos” de la estructura electrónica actúan como si fueran cargas positivas móviles, y se dice que el semiconductor es de tipo p. Numerosos dispositivos electrónicos modernos, en particular el transistor, desarrollado por los físicos estadounidenses John Bardeen, Walter Houser Brattain y William Bradford Shockley, están basados en estas propiedades de los semiconductores.

Las propiedades magnéticas de los sólidos se deben a que los electrones actúan como minúsculos dipolos magnéticos. Casi todas las propiedades de los sólidos dependen de la temperatura. Por ejemplo, los materiales ferromagnéticos como el hierro o el níquel pierden su intenso magnetismo residual cuando se los calienta a una temperatura característica denominada punto de Curie. La resistencia eléctrica suele decrecer al disminuir la temperatura, y en algunos materiales denominados superconductores desaparece por completo en las proximidades del cero absoluto (véase Superconductividad). Éste y muchos otros fenómenos observados en los sólidos dependen de la cuantización de la energía, y la mejor forma de describirlos es a través de “partículas” efectivas con nombres como fonón, polarón o magnón.

7. Criogenia


A temperaturas muy bajas (cerca del cero absoluto), muchos materiales presentan características sorprendentes (véase Criogenia). A comienzos del siglo XX, el físico holandés Heike Kamerlingh Onnes desarrolló técnicas para producir estas bajas temperaturas y descubrió la superconductividad del mercurio, que pierde toda su resistencia eléctrica a una temperatura de unos 4 kelvins. A muchos otros elementos, aleaciones y compuestos les ocurre lo mismo a una temperatura característica cercana a 0 K, y los materiales magnéticos se convierten en aislantes magnéticos. Desde 1986 se han fabricado varios materiales que presentan superconductividad a temperaturas mayores. La teoría de la superconductividad, desarrollada en gran medida por John Bardeen y otros dos físicos estadounidenses, Leon N. Cooper y John Robert Schrieffer, es extremadamente complicada, e implica el apareamiento de electrones en la red cristalina.

Otro descubrimiento fascinante fue el de que el helio no se congela, sino que a unos 2 K pasa de ser un líquido ordinario, denominado He I, a convertirse en He II, un líquido superfluido que no tiene viscosidad y presenta una conductividad térmica unas 1.000 veces mayor que la de la plata. El He II puede formar películas que se desplazan hacia arriba por las paredes del recipiente que lo contiene, y traspasa con facilidad materiales como el platino. Aún no hay una teoría plenamente satisfactoria para este comportamiento.

8. Física del plasma


Un plasma es cualquier sustancia, generalmente un gas, cuyos átomos han perdido uno o más electrones, por lo que ha quedado ionizada. Sin embargo, los electrones perdidos se mantienen en el volumen del gas, que de forma global permanece eléctricamente neutro. La ionización se puede producir mediante la introducción de grandes concentraciones de energía, como el bombardeo con electrones externos rápidos, mediante irradiación con luz láser o mediante calentamiento a temperaturas muy altas. Las partículas cargadas individuales que forman el plasma responden a campos eléctricos y magnéticos, por lo que pueden ser manipuladas y contenidas.

Los plasmas se encuentran en fuentes de luz gaseosas (como una lámpara de neón), en el espacio interestelar, donde el hidrógeno residual es ionizado por la radiación, y en las estrellas, cuyas elevadas temperaturas interiores producen un alto grado de ionización, un proceso estrechamente relacionado con la fusión nuclear que proporciona su energía a las estrellas. Para que los núcleos de hidrógeno se fusionen y formen núcleos más pesados deben tener una velocidad suficientemente alta para superar su repulsión eléctrica mutua; esto implica una temperatura muy elevada (millones de grados). Para producir una fusión controlada hay que generar plasmas y contenerlos magnéticamente. Es un problema importante y complejo que entra en el ámbito de la magnetohidrodinámica.

9. Láser


Un importante avance reciente es el láser, acrónimo en inglés de “amplificación de luz por emisión estimulada de radiación”. En un láser, cuya sustancia activa puede ser un gas, un líquido o un sólido, se excita un gran número de átomos hasta un nivel elevado de energía y se hace que liberen dicha energía simultáneamente, con lo que producen luz coherente en la que todas las ondas están en fase. Esta coherencia permite generar haces de luz muy intensos y de longitud de onda muy definida, que se mantienen enfocados o colimados a lo largo de distancias muy grandes. La luz láser es mucho más intensa que la de cualquier otra fuente. Un láser continuo puede proporcionar cientos de vatios, y un láser pulsado puede generar millones de vatios durante periodos muy cortos. El láser fue desarrollado en las décadas de 1950 y 1960 por el ingeniero e inventor estadounidense Gordon Gould y los físicos estadounidenses Charles Hard Townes, T. H. Maiman, Arthur Schawlow y Alí Javan. En la actualidad constituye un instrumento muy potente para la ciencia y la tecnología, con aplicaciones en comunicación, medicina, navegación, metalurgia, fusión y corte de materiales.

10. Astrofísica y cosmología


Desde la II Guerra Mundial los astrónomos han hecho muchos descubrimientos importantes, como los quásares, los púlsares (véase Estrella) o la radiación de fondo cósmica. Estos descubrimientos, que no pueden ser explicados totalmente por la física actual, han estimulado el avance de la teoría en campos como la gravitación o la física de partículas elementales. En la actualidad se acepta que toda la materia accesible a nuestra observación estaba originalmente comprimida de forma muy densa en un solo lugar, y explotó entre 10.000 y 20.000 millones de años antes del momento presente en un estallido colosal conocido como Big Bang o Gran Explosión. La explosión dio lugar a un universo que todavía se está expandiendo. Un aspecto enigmático de este universo, recientemente descubierto, es que las galaxias no están distribuidas de modo uniforme. Hay inmensos espacios vacíos rodeados por grupos de galaxias con forma de filamentos. La distribución de esos vacíos y filamentos aporta datos importantes sobre la naturaleza de la materia que surgió de la Gran Explosión e indica que es muy probable que la llamada materia oscura predominase sobre las formas conocidas de materia. Éste es sólo uno de los puntos en los que “la física de lo muy grande” enlaza con “la física de lo muy pequeño”. Véase también Teoría inflacionaria (cosmología).

________________________________________________________

Como citar este articulo.

"Física," Enciclopedia Microsoft® Encarta® Online 2007
http://es.encarta.msn.com © 1997-2007 Microsoft Corporation. Reservados todos los derechos.
© 1993-2007 Microsoft Corporation. Reservados todos los derechos.


#68 foguer

foguer

    Usuario

  • Members
  • 4 Mensaje(s)

Publicado el 30 agosto 2007 - 04:09

hola, soy un estudiante de ing mecanica y en fisica optica me piedieronaveriguar donde se utiliza la ley de snnell ( refraccion de la luz ) en ingieneria mecanica , e leido q en la produccion de piezas a rayos lazer y en el refrigerante , pero en ningun lado e encontrado como funciona en especifico
me gustaria si algien me podria explicar algun proceso q utilice la refraccion de la luz en mecanica

gracias .

#69 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 30 agosto 2007 - 05:29

CITA(foguer @ Aug 30 2007, 04:09 PM) Ver Mensajes

hola, soy un estudiante de ing mecanica y en fisica optica me piedieronaveriguar donde se utiliza la ley de snnell ( refraccion de la luz ) en ingieneria mecanica , e leido q en la produccion de piezas a rayos lazer y en el refrigerante , pero en ningun lado e encontrado como funciona en especifico
me gustaria si algien me podria explicar algun proceso q utilice la refraccion de la luz en mecanica

gracias .



Mas no lo puedo ayudar Foguer... ojala se conecte un físico...

"Fibras ópticas, anteojos, telescopios, microscopios, entre otros notables dispositivos funcionan en base a la ley de Snell. La cual los franceses nombran ley de Descartes, minuta de controversia. La ley establece que el producto del índice de refracción y el seno del ángulo, que se forma entre una interfase y el rayo luminoso, es una constante. En la siguiente animación podemos realizar diversos ejemplos de las consecuencias de la aplicación de la ley de Snell un dioptrio plano."

http://vicente1064.b...esencia-de.html

http://www.geocities...438/teorade.htm

_____________________________________________





#70 foguer

foguer

    Usuario

  • Members
  • 4 Mensaje(s)

Publicado el 31 agosto 2007 - 10:04

gracias de podos modos , pero laventablemente no me sirve y espero q se conecte un fisico . chau y gracias ge pe.

#71 FRIEND123456

FRIEND123456

    Usuario

  • Members
  • 9 Mensaje(s)

Publicado el 17 septiembre 2007 - 12:05

HOLA a todos otra vez ,necesito ayuda en estos preguntas espero que me puedan ayudar bueno en fin ahi van:

1.¿ es correcto decir una carga de prueba positiva liberada desde el reposo se moverá por las líneas de campo électrico, suponiendo que estas líneas son rectas? ( sucederá lo mismo si son curvas).

2. ¿ que experimentos le permitieron a michael faraday desarrollar el concepto de campo?

3.¿ que y quienes antes (mucho antes) de faraday,decian de la interaccion de los cuerpos electrizados,eran ideas misticas?

4.actualmente se ha modificado el concepto de campo, que teorias son estas.

5.¿que es la rigidez dialectrica de un dialectrico??

bueno gracias por leerme

#72 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 17 septiembre 2007 - 12:53

____________________________________________

Estimado Friend...

Las preguntas me quedan grande, pero busca por aca:

http://es.encarta.ms...el_Faraday.html

http://es.encarta.ms...ctricidad).html

http://es.encarta.ms...ectricidad.html

http://es.encarta.ms...Magnetismo.html

http://es.encarta.ms...

http://es.encarta.ms...

http://es.encarta.ms...de_Faraday.html


Rigidez dieléctrica

Es la intensidad del campo eléctrico para el cual el material deja de ser un aislador para convertirse en un material conductor.

Hay un limite para la intensidad del campo que puede exister en un conductor sin que se ionice el aire circundante. Cuando ello ocurre, el aire se convierte en un conductor.

El valor límite de la intensidad del campo eléctrico en el cual un material pierde su propiedad aisladora, se llama rigidez dieléctrica del material.


En: http://garaje.ya.com...capacitores.htm

Otro Web de Fisica

http://fisica.colegi...orja/index.html
________________________________________________

Suerte...

__________________________

#73 FRIEND123456

FRIEND123456

    Usuario

  • Members
  • 9 Mensaje(s)

Publicado el 18 septiembre 2007 - 08:32

muchas gracias me fue muy util con su ayuda icon_biggrin.gif gracias por las paginas

#74 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 24 octubre 2007 - 03:28

________________________________________

En:
http://www.fq.profes.net/
________________________________________

PROBLEMA: Cocinas de inducción




żEn qué se basan las cocinas de inducción?


LA SOLUCIÓN ES:



Estas cocinas tienen una bobina plana preparada para que tenga una tensión muy alta, por lo que la electricidad que circula por ella, genera un gran campo magnético que provoca dos efectos sobre los recipientes ferromagnéticos (hierro o acero) que se colocan encima:

1. induce una corriente eléctrica en el recipiente y este se calienta,

2.el material del recipiente se encuentra dividido en regiones en las que los dipolos magnéticos se orientan en paralelo; como la corriente que circula por la bobina es alterna, se produce un constante cambio de polaridad que provoca una intensa fricción dentro del material, y esto, contribuye a calentarlo.

__________________________________________




#75 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 25 octubre 2007 - 05:43

____________________________________________


PROBLEMA: Precipitador electrostático

żQué es un "precipitador electrostático"?

LA SOLUCIÓN ES:


IPB Image



Es un sistema de filtrado que sirve para recoger las partículas sólidas en suspensión. Se trata de una cámara colocada en las chimeneas de las grandes industrias e incineradoras, en la que se producen continuas descargas eléctricas que ionizan las partículas que hay en el humo, cargándolas con un exceso de electrones. Al final del aparato hay un electrodo con carga positiva que atrae estas partículas y las deposita en un tubo, donde se extraen y se eliminan.


____________________________________________


IPB Image



IPB Image



Espejismo




żPor qué en los días de verano, en los que se alcanzan temperaturas muy altas, se produce el efecto óptico conocido como espejismo?


'La solución mańana'

___________________________________________

#76 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 26 octubre 2007 - 06:19

________________________________________________


PROBLEMA: Espejismo




żPor qué en los días de verano, en los que se alcanzan temperaturas muy altas, se produce el efecto óptico conocido como espejismo?

LA SOLUCIÓN ES:



Para la explicación tomamos como ejemplo los espejismos que se producen en las carreteras.

En días con temperaturas muy altas el asfalto de la carretera se recalienta mucho y la capa de aire situada junto al suelo ( de un espesor del orden de milímetros) también, por lo que variará el índice de refracción de esa capa de aire de tal forma que se aproxima al valor del índice de refracción de un espejo, y se comporta como tal, haciendo que reboten los rayos de luz que llegan hasta el asfalto.

_____________________________________________________

IPB Image


Bancos de niebla

żPor qué por la noche y a primeras horas de la mańana se producen, en algunas ocasiones, bancos de niebla junto al suelo?


'La solución mańana'
______________________________________________________


#77 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 27 octubre 2007 - 07:18

_________________________________________

IPB Image


PROBLEMA: Bancos de niebla


żPor qué por la noche y a primeras horas de la mańana se producen, en algunas ocasiones, bancos de niebla junto al suelo?

LA SOLUCIÓN ES:



Sabemos que el suelo es un foco de frío y de calor. Por las noches el suelo pierde calor y se enfría, y por lo tanto hace disminuir la temperatura del aire que está junto al suelo. Como el aire contiene vapor de agua, este puede alcanzar la temperatura de saturación. A partir de aquí, si sigue disminuyendo la temperatura se consigue la condensación y parte del vapor de agua se transforma en agua líquida en forma de gotitas minúsculas formándose la niebla junto al suelo.



___________________________________

IPB Image


IPB Image


Polvo de carbón


żPor qué el polvo de carbón en suspensión en el aire puede provocar explosiones en las minas?


'La solución mańana

______________________________________________________

#78 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 28 octubre 2007 - 06:41

_________________________


IPB Image

IPB Image

PROBLEMA: Polvo de carbón


żPor qué el polvo de carbón en suspensión en el aire puede provocar explosiones en las minas?

LA SOLUCIÓN ES:



Las reacciones químicas heterogéneas se producen en la superficie de contacto del sólido. Al aumentar la superficie, mediante el pulverizado, se aumenta la velocidad de la reacción.
En el carbón pulverizado es mayor la superficie de contacto que en los trozos de carbón. Al encontrarse muchas partículas de carbón en el aire de la mina, se provoca la reacción con el gas metano, produciéndose las explosiones.


IPB Image

IPB Image

Malos olores


żPor qué se utilizan, con algunos calzados, plantillas que absorben los malos olores?

'La solución mańana'

_______________________________________________

Gentileza de: http://www.fq.profes.net/
_______________________________________________

#79 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 29 octubre 2007 - 10:35


___________________________________________

IPB Image


PROBLEMA: Malos olores

IPB Image

żPor qué se utilizan, con algunos calzados, plantillas que absorben los malos olores?

LA SOLUCIÓN ES:


Muchas plantillas incorporan “carbón activado”, que no es más que carbón poroso en polvo, que se activa por el calor y al que se le impide que penetre el aire.
Con el carbón en polvo se aumenta la superficie de contacto del sólido. La velocidad de la reacción crece al aumentar la zona de contacto, produciendo que las partículas gaseosas del olor se adhieran a la superficie y queden retenidas. El resultado es la eliminación de los malos olores en el calzado.




IPB Image

La polea

Elevamos un peso utilizando una polea. żPor dónde es más fácil que se rompa la cuerda: por el lado de donde tiramos, o por el lado de la carga?


'La solución mańana'

__________________________________________________

#80 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 30 octubre 2007 - 03:38

__________________________________________

IPB Image



PROBLEMA: La polea


Elevamos un peso utilizando una polea. żPor dónde es más fácil que se rompa la cuerda: por el lado de donde tiramos, o por el lado de la carga?

LA SOLUCIÓN ES:



Se romperá más fácilmente por el lado del que tiramos, ya que en este lado la tensión es mayor que en el de la carga. Para comprobarlo, pensemos en la polea: está sometida a las tensiones de los dos tramos de la cuerda; si gira hacia nuestro lado es porque la tensión en este lado será mayor.


____________________________________________________


IPB Image

Los frutos después de una tormenta

IPB Image

żPor qué después de una prolongada e intensa tormenta los frutos aparecen agrietados?.


__________________________________________