Ir a contenido


Foto

NUESTROS ARTICULOS “NOBEL” Lea en IyC artículos escritos por los ganadores de los premios Nobel 2009


  • Inicia sesión para responder
53 Respuesta(s) a este Tema

#21 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 13 septiembre 2007 - 07:37

______________________________

En: NASA en español, noticias

http://www.lanasa.ne...av_Noticias.asp

Los Telescopios de la NASA Descubren Galaxias 'Lego' en el Universo Temprano




Los Telescopios Espaciales de la NASA Hubble y Spitzer han unido fuerzas para descubrir nueve de las galaxias más pequeñas, menos brillantes y más compactas jamás observadas en el universo lejano. Resplandeciendo con el brillo de millones de estrellas, cada una de las galaxias recién descubiertas es entre 100 y 1000 veces más pequeña que nuestra galaxia la Vía Láctea. "Son de las galaxias con menos masa que jamás han sido observadas directamente en el universo temprano", dijo Nor Pirzkal del Instituto Científico del Telescopio Espacial en Baltimore.


IPB Image


El modelo convencional de evolución de galaxias predice que las galaxias pequeñas en el universo temprano evolucionaron hasta convertirse en las galaxias masivas de hoy en día mediante su unión. Es probable que estas galaxias, como ladrillos de un juego de Lego y que fueron inicialmente detectadas por el Hubble, hayan contribuido a la formación del Universo como lo conocemos ahora.


--------------------------------------------------------------------------------


NASA EN ESPAÑOL 2007
______________________________________
________

#22 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 18 octubre 2007 - 02:23

___________________________________________

En Genciencia:


La resistencia bacteriana a los antibióticos, un serio problema a tratar


Posted: 12 Oct 2007



El próximo 17 de octubre comenzará en Segovia (España) una reunión patrocinada por la Unión Europea denominada EUUS SafeFood, en la que se tratará un tema serio que preocupa a expertos de todo el mundo, la resistencia bacteriana a los antibióticos. Unos 30 expertos de distintas nacionalidades elaborarán un documento a modo de guía donde serán identificadas las bacterias que se han hecho resistentes a los antibióticos y que pueden representar una grave amenaza para la salud mundial.

Las nuevas bacterias son el resultado del desarrollo de nuevos sistemas defensivos capaces de eludir la acción de los antibióticos, siendo el tratamiento inútil y provocando igualmente nuevas infecciones. Los antibióticos tuvieron su época gloriosa y consiguieron doblegar enfermedades como la neumonía, la tuberculosis o el cólera (lamentablemente en el tercer mundo estas enfermedades siguen ganando la partida pero por falta de medios).

La época gloriosa de los antibióticos comenzó con el descubrimiento de la penicilina por Alexander Fleming en 1945, después llegaron la neomicina o las tetraciclinas capaces de curar lo que hasta entonces era incurable. Los antibióticos terminaron siendo algo imprescindible en muchos campos.

Un antibiótico efectivo es aquel capaz de inhibir o matar a las bacterias sin producir ningún problema a nuestro organismo, estos atacan a las bacterias por la estructura molecular que presentan y que no contienen las células humanas. Tantos años de lucha ha propiciado nuevas mutaciones desarrollando nuevas cepas bacterianas y cada cepa ofreciendo mayor resistencia.

El problema de la resistencia que presentan los microorganismos se da en todos los ámbitos, el médico, el ambiental… en cualquier lugar o materia en el que se utilicen antibióticos, aparece el riesgo de las superbacterias. Quizás en un corto espacio de tiempo las enfermedades que antaño representaban una grave amenaza y que hoy en día apenas atemorizan, puedan resurgir como una amenaza verdaderamente potencial capaz de segar la vida.

Los expertos consideran que es vital encontrar nuevas soluciones frente a este problema, de ahí que expertos del Centro de Microbiología del Hospital Ramón y Cajal, el director de la Unidad de Agentes Antibacterianos del Instituto Pasteur de París, representantes del Centro de Control de Enfermedades de Estados Unidos o de la Organización Mundial de la Salud entre otros, se mantendrán reunidos durante dos días en el Parador de Segovia.


Vía | Universia
Más información | EUUS SafeFood
Más información | Educa
Más información | Wikipedia


_______________________________________________




LA RESISTENCIA DE LAS BACTERIAS A LOS ANTIBIÓTICOS.


Ciertas infecciones bacterianas resultan ya indemnes ante cualquier antibiótico. El problema de la resistencia podría revertir si la sociedad tomara en consideración que los fármacos afectan por igual a las bacterias “buenas” y a las” malas”.

Cada nueva década ha traído un aumento del número de bacterias que plantan cara no sólo a uno sino a varios antibióticos y cuyo control resulta extremadamente complicado. Aún más, existen tres especies bacterianas capaces de producir enfermedades potencialmente letales, que escapan ya a la acción de todos los antibióticos. Algunas de estas bacterias resistentes son Mycobacterium tuberculosis (que causa tuberculosis) Pseudomonas aeruginosa (que causa septicemia y neumonía) Streptococcus pneumoniae (que causa septicemia, infección del oído medio, neumonía y meningitis) o Staphylococcus aureus (que causa septicemia, infección de heridas y neumonía)

IPB Image


¿Cómo hemos llegado a esta situación tan alarmante con tendencia a agravarse?

Además del consumo abusivo de antibióticos por parte de la población, los expertos señalan otros motivos como la polución industrial y el uso cada día mayor de desinfectantes y jabones con propiedades antibacterianas que favorecen la aparición de resistencias (moda antibacteriana)

El 32 por ciento de los españoles toma antibióticos de forma inadecuada o para combatir virus (como el de la gripe) o sin atenerse a la duración indicada por el médico (abandonan al desaparecer los síntomas).

Los antibióticos producen modificaciones en el tipo de bacterias, afectando tanto a las benignas como a las perjudiciales.

Recientemente, los antibacterianos han entrado en la fabricación de jabones, lociones, detergentes lavavajillas, y son empleados para impregnar juguetes, sillas para niños, colchones y tablas para cortar alimentos.

Al igual que los antibióticos, los antibacterianos pueden modificar la proporción de las distintas bacterias y promover el crecimiento de cepas resistentes.

¿Cómo evitarlo?

Los antibióticos son un recurso al que se debería acudir sólo cuando fueran realmente necesarios. Se evitaría así su administración en infecciones víricas, las que carecen de efectos.

Los jabones y detergentes ordinarios (sin productos antibacterianos) están capacitados para reducir en muy buen grado el número de bacterias potencialmente peligrosas. También los productos químicos que se evaporan con rapidez (lejía, alcohol, amoníaco ) se pueden utilizar de forma beneficiosa: eliminan las bacterias potencialmente lesivas, pero no dejan residuos duraderos que eliminen también las bacterias benignas e incrementen el crecimiento de las cepas resistentes largo tiempo después de haber desaparecido los patógenos.

Es necesaria la aceptación de que las bacterias son una parte natural y necesaria de la vida. La mayoría de ellas viven sin producir perjuicio. De hecho, a menudo nos protegen de la enfermedad porque compiten con las bacterias patógenas (que se multiplican de forma agresiva) y limitan su proliferación.

IPB Image


La administración de antibióticos induce una selección basada en la resistencia.

Los antibióticos impiden el crecimiento bacteriano y dan la oportunidad al sistema inmunitario de destruir los gérmenes que quedan. Al mismo tiempo, tiene lugar el proceso de selección: cuando un antibiótico ataca a un grupo de bacterias, destruye a las que son muy sensibles. Pero las que presentaban resistencia pueden sobrevivir, sobre todo si se administran cantidades insuficientes de medicamento. La reducción de la competencia por bacterias susceptibles facilita la proliferación de las otras. Por esto, los antibióticos pueden estimular la supervivencia de las bacterias resistentes y su propagación.

Las bacterias resistentes disponen de varios mecanismos por los que adquieren genes de resistencia (hereditario, mutación genética, etc.). Algunos de estos genes producen enzimas que degradan o modifican el fármaco ( quedando inactivo), otros eliminan las vías de entrada del fármaco, y otros sintetizan bombas que expulsen el antibiótico al exterior, antes de que tenga tiempo de encontrar su diana intracelular.

Se ha demostrado que, si un miembro de una familia utiliza de forma crónica un antibiótico para combatir el acné, la concentración de bacterias resistentes al tratamiento en la piel aumenta para todos los miembros de la familia. La resistencia contra antibióticos que aparece en un lugar puede propagarse hasta puntos remotos (debido a la intensificación de los viajes internacionales).

Debido a este aumento de las resistencia frente a los antibióticos, los índices de mortalidad de algunas enfermedades contagiosas han empezado a aumentar de nuevo tras haber entrado en retroceso en los países industrializados:

El regreso de la “peste blanca”

Brotes en institutos, residencias de ancianos y otros lugares de convivencia colectiva avisan del regreso de la tuberculosis al ruedo de las enfermedades infecciosas.

Desde 1990, las estadísticas aragonesas, siempre por debajo de la realidad, han tomado carrerilla hacia arriba, ha aumentado el número de pacientes que llega a hospitales: “avalancha de casos”. La vieja tisis va dejando avisos en personas entre 20 a 40 años del nuevo resurgir tuberculoso. La vía de contagio es aérea: con la simple respiración junto a las toses de un tuberculoso se puede contraer la enfermedad.

A diferencia del SIDA, los afectados por el germen de la tuberculosis (bacilo de Koch) que están sanos, pero dan positivo en la prueba de la tuberculina, no pueden contagiar. Sólo pueden hacerlo los enfermos propiamente dichos y las dos primeras semanas del proceso, cuando los fármacos aún no han podido reducir la potencia del bacilo de Koch. Una vez diagnosticado, el paciente tuberculoso puede vivir fuera del hospital, pero debe seguir a rajatabla un largo tratamiento de seis meses.

Alarma por la resistencia del VIH .

Pero no sólo son las bacterias quienes están desarrollando resistencias. Lo mismo está ocurriendo con los virus, como por ejemplo, el SIDA.

IPB Image


Se ha descubierto en Nueva York una cepa extremadamente agresiva del virus VIH (en un hombre homosexual de 40 años) que provoca que el sida se desarrolle en semanas, en lugar de tardar meses o años.

Repentinamente nos enfrentamos de nuevo a aquella época oscura en la cual no había un solo medio para frenar el VIH. Y es que esta peligrosa infección es resistente a casi todos los medicamentos conocidos hasta el momento para tratar la enfermedad.

Es necesario respetar todas las medidas para evitar la propagación de la infección: no practicar sexo sin protección con desconocidos y evitar que los drogadictos compartan jeringas.

Los enfermos de sida no tienen defensas adecuadas, y en ellos la tuberculosis es especialmente frecuente y grave.

A diferencia de esa enfermedad infecciosa, los seropositivos sí pueden transmitir el virus a través de la sangre y las relaciones sexuales.

Medidas contra la revolución bacteriana

La ventaja de las bacterias frente a los antibióticos es la rapidez con la que se multiplican. Una bacteria a gusto produce en una noche más descendientes que habitantes hay en España. Y al replicarse el material genético acumula fallos, mutaciones que, por puro azar, podrán conferir resistencia a un determinado antibiótico.

IPB Image


Cada vez que se utiliza un antibiótico aumenta el número de bacterias resistentes. Por esto se necesita la colaboración de las instituciones, de los médicos, de los granjeros y de otros que permitan abordar los efectos de los antibióticos desde nuevos puntos de vista.

Los laboratorios lo tienen difícil: las nuevas esperanzas están en el diseño de moléculas y la genética, pero están resultando más complejas de lo previsto: “Una posibilidad es sintetizar una molécula capaz de bloquear la multiplicación de una bacteria resistente. Pero llegar hasta ahí es muy difícil”

Otra táctica en ensayo para buscar nuevos antibióticos se basa en un sistema de defensa natural descubierto en plantas, orugas y anfibios, que también funciona en mamíferos, humanos incluidos: “Son pequeñas proteínas, con efecto antibiótico, que actúan como primera barrera de defensa del organismo contra infecciones microbianas”.

Otro inconveniente de la administración de antibióticos es que “ataca” tanto a las bacterias que producen la enfermedad, como a las bacterias benignas: (cuya presencia podría haber limitado la expansión de las patógenas)

Es hora de que se acepte a las bacterias como componentes normales de nuestro mundo, generalmente beneficiosos, para que no se persiga su eliminación, excepto en los casos en que producen enfermedad.

Para revertir la resistencia, se necesita una nueva conciencia de las consecuencias que tiene el uso de antibióticos o productos antibacterianos, una perspectiva que se refiere a la preservación de las bacterias a largo plazo, para que siempre existan bacterias sensibles a los antibióticos, que desplacen por competencia a las cepas resistentes.

Por: Nayara Fuentes.




___________________________________________________________




#23 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 23 octubre 2007 - 08:47

__________________________________

Donde esta el límite? .... triste futuro y triste espectáculo
____________________________________

En: tendencias21.net


Mil millones de personas se verán afectadas por el cambio climático en los ríos

Olga Castro-Perea


Mil millones de personas se verán afectadas por el impacto del cambio climático en los ríos del planeta, según un equipo internacional de científicos que ha realizado un análisis global de los caudales del planeta y una proyección de su situación bajo diversos escenarios ante el cambio climático. Los resultados son claros: los ríos están viendo modificado su caudal y, además, están perdiendo su capacidad de adaptación, por lo que son más proclives a provocar inundaciones. Además, el riesgo de sequías aumenta. El estudio revela la imperante necesidad de tomar medidas preventivas.

IPB Image


_______________________________________

#24 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 24 octubre 2007 - 04:52

______________________________________________


Premio Nobel de Medicina 2007
Alejandro Feijóo


En: http://www.bg.profes...contenido=51627


Dos científicos estadounidenses y uno británico obtienen el Premio Nobel de Medicina 2007 por sus trabajos con células madre genéticamente modificadas. El Instituto Karolinska resaltó su "exquisita precisión".

IPB Image


El Premio Nobel de Medicina del ańo 2007 ha confirmado la tendencia casi histórica en la disciplina de galardonar a científicos anglosajones. En esta ocasión, los investigadores Mario R. Capecchi, Oliver Smithies (estadounidenses de orígenes italiano y británico, respectivamente) y el británico Martin J. Evans se han alzado ex aequo con el Nobel de Medicina de este ańo por "poner en marcha una tecnología de una importancia inmensa para manipular genes en modelos animales", según especifica el acta del jurado del Instituto Karolinska de Estocolmo.

Una exquisita precisión


La elección pone asimismo de manifiesto la relevancia de las investigaciones genéticas, que han copado a su vez varios de los Nobel otorgados en los últimos ańos. En esta ocasión, los descubrimientos de Capecchi, Evans y Smithies han conseguido desarrollar una tecnología de manipulación genética cuyo "impacto en la comprensión de la función de los genes y sus beneficios para la humanidad seguirán creciendo en los ańos venideros".

Los premiados han conseguido una "exquisita precisión" en la manipulación del material genético de roedores, en los que crearon modelos de dolencias humanas, como el cáncer, la fibrosis quística o la hipertensión. La "precisión" a la que hace referencia el Instituto Karolinska responde tanto a la posibilidad de elegir qué gen mutar como la forma de mutación que se quiere crear. Esto ha permitido tal avance en el conocimiento de los procesos biológicos que ya se ha comenzado a aplicar la técnica en todas las áreas de la Biomedicina.

Tecnología versátil

IPB Image



Los estudios de Capecchi, Evans y Smithies comenzaron con una publicación científica en el ańo 1989. Tal como corresponde a toda investigación científica, el proceso de manipulación genética en ratones sufrió una serie de marchas y contramarchas hasta que en el ańo 2001 obtuvo el Premio Lasker, considerado el Premio Nobel de Estados Unidos. A partir de entonces, los investigadores han conseguido manipular más de diez mil genes de ratón, o lo que es lo mismo, cerca de la mitad de los genes que componen el genoma de los mamíferos.



El trabajo premiado en esta ocasión por el Instituto Karolinska recoge a su vez investigaciones de hace medio siglo relacionadas con la recombinación homóloga del ADN, por las que Joshua Lederberg obtuvo el Premio Nobel en 1958.

Uno de los avances que más se subraya en las justificaciones del premio es la alta versatilidad de la tecnología de manipulación genética desarrollada por los galardonados. Gracias a ella, se pueden introducir modificaciones en los genes en cualquier punto del desarrollo, así como en células u órganos específicos, lo cual permite determinar la función de cada gen en el desarrollo de enfermedades. Hasta la fecha, Capecchi, Evans y Smithies han conseguido crear más de quinientos modelos de enfermedades humanas en ratones.

Mario R. Capecchi nació en Verona (Italia) en el ańo 1937, y obtuvo el doctorado en Biofísica por la Universidad de Harvard. Por su parte, Oliver Smithies (Gran Bretańa, 1925) es doctor en Bioquímica por la universidad británica de Oxford, mientras que Martin J. Evans (Gran Bretańa, 1941) es doctor en Anatomía y Embriología por la Universidad de Londres.


______________________________________

Fuente: AF / Profes.net
______________________________________

#25 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 30 octubre 2007 - 03:58

___________________________________________________________


Premio Nobel de Física 2007

Alejandro Feijóo



El Premio Nobel de Física de este ańo, otorgado al francés Albert Fert y al alemán Peter Grünberg, reconoce una aplicación de la nanotecnología que permite optimizar el acceso a la información.

IPB Image


Los científicos Albert Fert (Francia, 1938) y Peter Grünberg (Alemania, 1939) han obtenido el Premio Nobel de Física por el descubrimiento de la magnetorresistencia gigante (GMR, por sus siglas en inglés). Para la Academia de Ciencias sueca, se trata de "un fenómeno que ha revolucionado las técnicas para recuperar datos de los discos duros".

Fabricación estándar


Fert y Grünberg iniciaron sus investigaciones de forma independiente a finales de la década de los ochenta del siglo XX. Entonces, la tendencia a la miniaturización de los sistemas de almacenamiento de información se encontraba con el obstáculo de de los materiales utilizados en los lectores de los discos duros.

A pesar de que la GMR ya era un efecto conocido por la comunidad científica, fueron los trabajos de los premiados los que permitieron aplicarlo a dispositivos como los discos duros, los reproductores portátiles de música y los motores de búsqueda. El descubrimiento supuso una auténtica revolución en esta tecnología que desde 1997 se aplica ya de manera estándar en la fabricación de sistemas de almacenamiento.

Hasta entonces, las aleaciones de hierro y níquel eran las más utilizadas para las cabezas de los lectores de los discos duros. Los primeros experimentos de Albert Fert y su grupo de colaboradores se dirigieron a la creación de capas en las que alternaban el hierro y el cromo. Por su parte, el grupo de Peter Grünberg creó un sistema aún más simple que el de su colega francés, integrando una capa de cromo entre dos de hierro.

IPB Image



Acercando la Física


Una vez estandarizada la fabricación de esta aplicación, se abre un inmenso camino para ampliar el uso de la GMR. En la actualidad, se investiga la posibilidad de sustituir la memoria RAM e incluso los discos duros de los ordenadores por una memoria de trabajo magnética llamada MRAM, ya utilizada pero aún no extendida. Esto supondría la existencia de una memoria universal que no dependería de la energía eléctrica, y que a la vez sería rápida y fácilmente accesible.

La decisión de la Academia de Ciencias sueca supone el reconocimiento a una aplicación de la física reconocible para los usuarios y, por tanto, un acercamiento del saber científico a los usos de la vida cotidiana. En su comunicado, la Academia afirma que el desarrollo de la GMR puede entenderse como uno de "primeros y más extendidos usos de la nanotecnología".

El francés Albert Fert ejerce la docencia en la Universidad París-Sud, y desde 1995 es director de la Unidad Mixta de Física CNRS/THALES de Orsay.

Por su parte, el alemán Peter Grünberg es profesor en el Instituto de Investigación de Cuerpos Sólidos del Centro de Investigaciones de Jülich, Alemania.


_______________________________________________



Premio Nobel de Química 2007
Alejandro Feijóo


El científico alemán Gerhard Ertl ha obtenido el Premio Nobel de Química por sus contribuciones en el campo de la química del estado sólido.

IPB Image


Estamos acostumbrados a que la Academia de Ciencias sueca encargada de entregar los Nobel "científicos"reconozca una o varias investigaciones sobre cuestiones específicas. En esta ocasión, sin embargo, ha saltado la sorpresa, puesto que el galardón anunciado para el químico alemán Gerhard Ertl premia algo así como toda una carrera profesional dedicada al estudio de los procesos químicos en superficies sólidas.

Aplicaciones industriales


Como si se tratara de una disculpa, el comunicado de la Academia puntualiza que “esta ciencia es importante para la industria química y puede ayudarnos a entender procesos tan diferentes como por qué se oxida el acero, cómo trabajan las pilas de combustible y cómo funcionan los catalizadores de nuestros coches”. Es decir, aplicaciones que abarcan sectores vitales de la industria, así como íntimamente relacionados con nuestra vida cotidiana.

IPB Image


Las investigaciones de Ertl sobre las reacciones químicas sobre las superficies “juegan un papel vital en numerosas operaciones industriales, como la producción de fertilizantes artificiales”, explica el comunicado, además de atańer a la industria de semiconductores. Es tan amplio el campo reconocido por el Nobel de Química de este ańo que la academia reconocer que "la química superficial puede incluso explicar la destrucción de la capa de ozono".

Regalo de cumpleańos


Ha querido la casualidad que el día en el que se hizo público el galardón, Gerhard Ertl cumpliera 71 ańos. "Es el mejor regalo de cumpleańos que se puede recibir", reconocía el premiado a la televisión pública británica. Ertl reconoció que, a pesar de suponerse entre los candidatos, no guardaba muchas esperanzas de victoria, sobre todo después de que uno de los galardonados con el Nobel de Física, Peter Grünberg, fuera alemán. Una vez conocida la decisión, el químico confía en que el premio "no me cambie mucho la vida, aunque todos los ganadores me han dicho que sí lo hace".

Gerhard Ertl nació en una pequeńa localidad alemana cercana a Stuttgart. Doctorado en la Universidad Técnica de Múnich en 1965, ha ejercido la docencia en centros universitarios de Estados Unidos y Alemania. Su prestigio en la comunidad científica es enorme, como lo demuestran los doctorados honoris causa por las universidades de Münster, Aarhus, Goteborg y Leuven.

Asimismo, tiene en su haber el premio Wolf y el premio de Eurofísica Hewlett-Packard de la Sociedad Física Europea. Este ańo ha recibido la Medalla de Oro de la Sociedad Química de Eslovaquia, y hasta 2006 dirigió el departamento de Química Física del Instituto Fritz Haber, en el que es profesor emérito.


_________________________________________________

#26 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 31 octubre 2007 - 11:35

_______________________________________________


Premio Nobel de Economía 2007

Alejandro Feijóo

Tres economistas estadounidenses han obtenido de manera conjunta el Premio Nobel de Economía 2007 por sus trabajos sobre la teoría del diseńo de mecanismos.

IPB Image


Los estadounidenses Leonid Hurwicz, Eric S. Maskin y Roger B. Myerson han conseguido el Premio Nobel de Economía 2007 por sus trabajos de investigación que sentaron “las bases de la teoría del diseńo de los mecanismos” en los mercados. Su contribución es relevante, puesto que permite “distinguir las situaciones en que los mercados funcionan bien de aquellas en que funcionan mal", concluyó la Real Academia sueca de Ciencias en su comunicado oficial.

La concesión del Premio de Ciencias Económicas en memoria de Alfred Nobel (tal es su nombre oficial) destaca la aportación de los galardonados en la identificación de asignaciones eficientes de recursos cuando el mercado no consigue autorregularse. Incidiendo en esta idea, la Academia afirma que “la metáfora clásica de Adam Smith de la mano invisible que gobierna el mercado, en condiciones ideales, asegura una asignación eficiente de recursos escasos, aunque en la práctica ese marco ideal no se da”.

El fundamento teórico de la teoría del diseńo de los mecanismos se encuentra en la teoría de los juegos, cuyos dos de sus más prestigiosos teóricos ya obtuvieron el Nobel de Economía en el ańo 2005. Entonces, los galardonados fueron Thomas C. Schelling y Robert J. Aumann, acreedores al premio por su contribución al fortalecimiento del conocimiento del conflicto y la cooperación a través del análisis de la teoría del juego.


Biografías


Del perfil de los ganadores destaca que Leonid Hurwicz se ha convertido, a sus noventa ańos, en la persona más edad en recibir un Premio Nobel. Hurwicz nació en la capital rusa en el ańo 1917, aunque emigró posteriormente a Estados Unidos. Fue presidente de la Sociedad Econométrica y en la actualidad es miembro de la Academia Americana de Artes y Ciencias. En la actualidad también ostenta el cargo de profesor emérito de la Universidad de Minnesota (Estados Unidos).

Por su parte, Eric Maskin nació en Nueva York hace cuarenta y siete ańos. Es doctor en Matemáticas por la Universidad de Harvard y catedrático de la Universidad de Cambridge. Está considerado uno de los investigadores más influyentes en su campo, puesto que sus investigaciones exceden lo económico para adentrarse en materias como la propiedad intelectual y el análisis de resultados electorales.

Compańero de investigación de Maskin, Roger Myerson nació en Boston en 1951 y también obtuvo el doctorado en Matemáticas por la Universidad de Harvard. En la actualidad ejerce de profesor en la Univesidad de Chicago.

El Premio Nobel de Economía es el único premio que no fue creado por Alfred Nobel, sino que se instituyó en 1968 por iniciativa del Banco Central de Suecia, y es el último que se entrega de la edición 2007 de los archifamosos premios.


_______________________________________________________



Premio Nobel de Literatura 2007

Alejandro Feijóo

Desde su quehacer literario, silencioso y constante, Doris Lessing se ha convertido por derecho propio en una de las voces centrales de la literatura del siglo XX.


IPB Image


Una de las incógnitas literarias del ańo, la identidad del ganador del Premio Nobel de Literatura, ya tiene nombre propio. Se trata de la escritora británica Doris Lessing, nacida en Persia (actual Irán) hace 87 ańos y dueńa de una producción ingente, en la que el poder de la ficción funciona como una plataforma desde la que plasmar su visión crítica de un mundo siempre cambiante y a menudo injusto.

En su fallo, la Academia sueca de la Lengua ha resaltado el talento de Lessing para plasmar "la épica de la experiencia femenina, y que con su escepticismo, pasión y fuerza visionaria ha examinado atentamente a una civilización dividida".

El premio más glamuroso


En sus primeras declaraciones a la prensa tras conocer el fallo, una "encantada pero no sorprendida" Lessing reconocía no saber a qué se referían los académicos con aquello de "la épica de la experiencia femenina". Ironías aparte, la premiada se mostraba exultante tras recibir el "galardón más glamuroso" aunque eso no signifique necesariamente "que sea el mejor". "He ganado muchos premios en toda Europa", se justificaba Lessing, quien mostraba su orgullo al ser el también nobel Gabriel García Márquez uno de los primeros en felicitarla. "Para mí es algo maravilloso, porque se trata de un escritor magnífico al que admiro profundamente", declaró.

De los muchos premios recibidos a los que hacía referencia Lessing, destaca sin duda el Príncipe de Asturias de las Letras de 2001. En las consideraciones de aquel fallo, el jurado destacó su “compromiso con las causas del Tercer Mundo, desde la literatura y desde la experiencia personal de una biografía azarosa”. El recorrido biográfico referido comienza en Persia y Rodesia (actuales Irán y Zimbabwe, respectivamente), lugares donde se alternaban la rígida educación familiar (es hija de un oficial del ejército británico herido durante la Primera Guerra Mundial) con el despertar hacia un entorno natural que la cautivaría, y que constituiría uno de los ejes de su producción literaria. No en vano su primera novela, de 1950, se titula Vencida por la sabana.

Compromiso y feminismo


IPB Image



El "compromiso" mencionado por la Fundación Príncipe de Asturias es hijo en parte de esas primeras vivencias africanas, donde asistió en primera fila a las injusticias de la segregación racial y de género. Su defensa de las libertades civiles y su adscripción al comunismo británico le valieron ser vetada en buena parte del continente africano. Sin embargo, el ansia de libertad de Lessing iba más allá de siglas y partidos, y mediada la década de 1950 abandonó el Partido Comunista tras su profunda decepción con el régimen estalinista.

En el ańo 1962 se publicó su novela más conocida, El cuaderno dorado, que, acaso sin su aquiescencia, la convertiría en bandera del movimiento feminista. Un movimiento que, evolución histórica mediante, recibiría las críticas de Lessing, en especial con motivo del lanzamiento de su hasta ahora última obra, La hendidura (2007), una novela de ciencia ficción que retrata un mundo habitado solo por mujeres en el que hacen aparición los hombres.


IPB Image


Lessing tiene en su haber una cuarentena de títulos, entre los que destacan, además de los mencionados, Un hombre y dos mujeres (1963), Instrucciones para un viaje al infierno (1971), Diario de una buena vecina (1983) o La buena terrorista (1985). Ha sido también muy celebrada su autobiografía, dividida en dos volúmenes: Dentro de mí (1994) y Un paseo por la sombra (1997).


______________________________________________________

#27 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 01 noviembre 2007 - 07:02

_________________________________________________


Premio Nobel de la Paz 2007

Alejandro Feijóo


IPB Image



El político estadounidense Al Gore y el Grupo Intergubernamental sobre el Cambio Climático de la ONU comparten el Premio Nobel de la Paz 2007.


Quien fuera vicepresidente de Bill Clinton, reconvertido en activista del ecologismo, y el organismo de referencia en la lucha contra el cambio climático han sido galardonados con el Premio Nobel de la Paz 2007. El Comité noruego del que depende la decisión ha destacado sus esfuerzos conjuntos "para construir y difundir un mayor conocimiento sobre el cambio climático causado por el hombre y poner las bases para las medidas necesarias para contrarrestar ese cambio".

El Comité Nobel ha reconocido la labor del Grupo Intergubernamental sobre el Cambio Climático (IPCC, por sus siglas en inglés), que gracias a sus informes sobre la cuestión ha creado "un consenso amplio sobre la relación entre la acción del hombre y el calentamiento global". Por su parte, de Al Gore se destaca que probablemente sea "la persona que a título individual más ha hecho para crear una conciencia mundial sobre las medidas" a adoptar contra el cambio climático.

Informes de referencia


El IPCC fue creado en el ańo 1988 ante las evidencias de que el calentamiento global era responsabilidad de las actividades humanas. Sus informes, elaborados y avalados por un panel de expertos de Naciones Unidas, sirvieron de base para la redacción del Protocolo de Kyoto, y en los últimos ańos se han convertido en documentos de referencia y consenso tanto para la comunidad científica como para la opinión pública.

IPB Image


Las previsiones del IPCC estiman que la subida de las temperaturas puede alcanzar casi 6ş durante el siglo XXI, al tiempo que el nivel de los mares llegaría a los 90 centímetros en el mismo período. Asimismo, el IPCC vaticina que las emisiones mundiales de gases de efecto invernadero crecerán hasta 2015, cuando alcanzarán su techo y luego descenderán en forma paulatina.

Entre las conclusiones más novedosas del IPCC destaca la rentabilidad de la lucha contra el cambio climático, puesto que mantener el nivel actual de concentración de partículas de dióxido de carbono en la atmósfera costará cerca del 0,3% del Producto Interior Bruto mundial, mientras que con una reducción de entre un 50% y un 75% de esos gases, el coste bajaría al 0,12%.

Una verdad incómoda y alarmista


Por su parte, la figura de Al Gore ha experimentado una fuerte proyección pública en los últimos ańos. Su activismo contra el cambio climático obtuvo un importante reconocimiento con el estreno del documental Una verdad incómoda, impulsado y protagonizado por él mismo y dirigido por Davis Guggenheim. El filme obtuvo en 2006 el Óscar al mejor documental (y otro a la mejor canción) y se convirtió en un éxito en taquilla en los Estados Unidos.

Precisamente esta semana se conocía el fallo de un juez británico que se pronunciaba sobre el documental, a raíz de una denuncia interpuesta por el director de una escuela del condado de Kent. Cabe recordar que Una verdad incómoda fue exhibido en las escuelas secundarias británica por orden gubernamental. En sus conclusiones, el juez Michael Burton reconoce que los contenidos del filme son "bastante exactos", aunque cuestiona algunas afirmaciones "alarmistas y exageradas". Como por ejemplo, la previsión de que los mares podrían aumentar seis metros en el futuro próximo, o la de que el huracán Katrina fue producto del cambio climático.

Reacciones


Con todo, la concesión compartida del Nobel ha sido interpretada como un espaldarazo a las posturas ambientalistas. En declaraciones a la prensa, el presidente del IPCC, Rajendra Pachauri, confiaba en que el premio "ponga la cuestión del cambio climático] en la parte central de la escena y que esto provoque una mayor toma de conciencia y un sentimiento de urgencia".


A su vez, a través de un comunicado, el vicepresidente estadounidense se mostraba "profundamente honrado", tanto por el galardón como por el hecho de compartirlo con el IPCC, "un grupo cuyos miembros han trabajado sin descanso y con abnegación desde hace muchos ańos".




___________________________________________________

#28 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 11 enero 2008 - 08:15

______________________________________________


Identifican nuevas proteínas que contribuyen con el desarrollo del VIH

El hallazgo podría conducir a tratamientos en caso de que los antivirales no sean efectivos





JUEVES 10 de enero (HealthDay News/Dr. Tango) -- Investigadores de la Harvard han identificado casi 300 proteínas humanas que ayudan a propagar el VIH, lo que da esperanzas para nuevos tratamientos que combatan el virus que causa el SIDA.

Mediante el uso de una técnica conocida como interferencia del ARN para explorar miles de genes, el equipo identificó 273 proteínas humanas, de acuerdo con el estudio que aparece en la edición en línea del 10 de enero de Science Express. Estas proteínas podrían constituir un medio de ayudar a los que tienen el VIH cuando el virus desarrolla resistencia a los antivirales actuales.

"Los antivirales están haciendo en estos momentos un buen trabajo para mantener a la gente con vida, pero en esta terapia todos sufren a causa del mismo problema, que es el desarrollo de resistencia, así que decidimos tomar un enfoque diferente centrándonos en las proteínas humanas utilizadas por el virus. El virus no sería capaz de mutar para derrotar a los medicamentos que interactúan con estas proteínas", dijo en una declaración preparada el autor principal Stephen Elledge, profesor del departamento de genética de la Facultad de medicina de la Harvard.


_______________________________________________________

Artículo por HealthDay, traducido por Dr. Tango

FUENTE: Harvard Medical School, news release, Jan. 10, 2008


_________________________________________________________


#29 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 31 enero 2008 - 07:24

____________________________________

En Genciencia
____________________________________



Dormir: Fundamental para poder aprender

aqui_c
30 Jan 2008




El cerebro es algo mucho más maleable de lo que la gente suele pensar, está cambiando todo el tiempo. Una de las áreas que se modifica constantemente es el de las sinapsis, es decir las conexiones entre neuronas, que son alteradas a medida que se reciben estímulos. “Mientras estás despierto la conexión entre neuronas se hace más fuerte y eso es bueno, porque así aprendes” dijo el Dr. Tononi, de la Universidad de Winsconsin.

Sin embargo estas conexiones fuertes son insostenibles a largo plazo, ya que requieren de mayor energía y material, pero existe un límite de cuánto de ambos está disponible. Sinapsis más fuertes son también más grandes, pero el cerebro no puede continuar creciendo y haciéndose más denso. “Si las sinapsis aumentan porque aprendes, llegará un punto en el que no puedas continuar con el proceso” dijo Tononi. Es por esto que se hipotizó que durante el sueño las conexiones sinápticas se hacen más débiles, manteniendo la fuerza relativa entre ellas: las que fueron utilizadas permanecen más fuertes que las que no.

Este proceso de debilitamiento es fundamental al dormir, ya que es lo único que permite que se continúe aprendiendo. Sin embargo su teoría va en contra de otra, que sostiene que los circuitos cerebrales que estaban activos mientras se estaba despierto se reactivan durante el sueño, consolidando el aprendizaje haciendo estas sinapsis más fuertes.

Los científicos de Winsconsin produjeron resultados experimentales en ratas que confirmarían sus hipótesis. Encontraron que en general las sinapsis de las ratas son más fuertes luego de períodos despiertas que de sueño. Midieron la presencia de un neuro-receptor en las sinapsis y determinaron que había un 50% menos en las ratas que habían dormido. El Dr. Tononi dijo que después de dormir “obtenemos un cerebro capaz de aprender, hay una ganancia en términos de energía, espacio, y recursos, y estás listo para aprender nuevamente.”


Más Información | New York Times
Más Información | Nature



________________________________________________





#30 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 23 abril 2008 - 08:24



smile_031.gif


Publicado por Kanijo el 30 Mar 2008 a las 10:08 am


En Ciencia Kanija


http://www.cienciaka...ierra/#more-951


______________________________________________________



Pistas sobre el retardo de la vida en la Tierra



Científicos de todo el mundo han reconstruido los cambios en la química del antiguo océano de la Tierra durante un amplio barrio de tiempo geológico, desde aproximadamente 2,5 a 0,5 mil millones de años. Han descubierto que una deficiencia de oxígeno y el metal pesado molibdeno en las profundidades del antiguo océano pueden haber retardado la evolución de la vida animal en la Tierra casi 2000 millones de años.

Las conclusiones, que aparecen en el ejemplar del 27 de marzo de la revista Nature, no fue una sorpresa para Ariel Anbar, uno de los autores del estudio y profesor asociado de la Universidad Estatal de Arizona con cargos en el Departamento de Química y Bioquímica y la Escuela de Exploración de la Tierra y el Espacio en la Universidad de Artes Liberales y Ciencias. El estudio fue liderado por Clint Scott, estudiante graduado en la Universidad de California en Riverside. Scott trabaja con Timothy Lyons, profesor de biogeoquímica en la UCR quien es un colaborador desde hace mucho tiempo de Anbar y también autor del artículo.

“Los datos de Clint son una importante nueva pieza del puzzle que estamos intentando resolver desde hace años”, dice Anbar. “Tim y yo hemos sospechado desde hace algún tiempo que si los océanos de esa época tenían déficit de oxígeno también deberían tener un déficit de molibdeno. Hemos encontrado pruebas de déficit anteriormente, en un par de puntos concretos en el tiempo. Los nuevos datos son importantes debido a que confirman que esos puntos eran típicos de esa era”.

El molibdeno a menudo es interesante para Anbar y otros debido a que es usado por algunas bacterias para convertir el nitrógeno de la atmósfera en una forma útil para los seres vivos – un proceso conocido como “fijación del nitrógeno”. Las bacterias no pueden fijar el nitrógeno de forma eficiente cuando están privadas de molibdeno. Y si las bacterias no pueden fijar el nitrógeno con la suficiente rapidez entonces los eucariotas – un tipo de organismos que incluyen las plantas, los paquidermos y la gente- tienen problemas ya que los eucariotas no pueden fijar el nitrógeno por sí mismos.

“Si hubo escasez de molibdeno, las bacterias habrían llevado la delantera”, continúa Anbar. “Los eucariotas dependen de que las bacterias tengan las facilidades para fijar el nitrógeno que sea suficiente para seguir. Por lo que si las bacterias tienen problemas para obtener suficiente molibdeno, entonces probablemente no habrían fijado el suficiente nitrógeno para que florecieran los eucariotas”.

“Este agotamiento de molibdeno puede haber retardado el desarrollo de vida compleja como animales durante al menos 2000 millones de años en la historia de la Tierra”, dice Lyons. “La cantidad de molibdeno en el océano probablemente desempeñó un papel importante en el desarrollo de la vida inicial”.

Esta investigación está motivada por la revisión de un artículo publicado en Science en 2002 por Anbar y Andy Knoll, colega de la Universidad de Harvard. Knoll quedó perplejo por el hecho de que los eucariotas no dominaran el mundo hasta hace aproximadamente 700 millones de años, incluso aunque parecen haber evolucionado hace 2700 millones de años. Juntos, Anbar y Knoll postularon que el déficit de molibdeno fue la clave, argumentando que el metal debería haber sido escaso en los antiguos océanos debido a que había muy poco oxígeno en esos tiempos.

En el mundo de hoy con altos niveles de oxígeno, el molibdeno es el más abundante de los metales de transición en los océanos. Esto es debido a que la fuente primaria del molibdeno en los océanos es la reacción del oxígeno con los minerales que contienen molibdeno en las rocas. Por lo que las hipótesis se centran en la idea de que la cantidad de molibdeno en los océanos debería ser un rastro de la cantidad de oxígeno. Para comprobar esta idea, Scott, Lyons y Anbar examinaron muestras de rocas de los antiguos suelos marinos disolviéndolos en un cóctel de ácidos y analizando las rocas buscando el contenido de molibdeno usando un espectrómetro de masas. Muchos de esos análisis se llevaron a cabo usando una instrumentación de vanguardia en el Laboratorio de la Fundación W. M. Keck para Biogeoquímica Ambiental en la Universidad Estatal de Arizona. Los científicos encontraron pruebas significativas de un océano carente de molibdeno en relación a los altos niveles medidos al agua marina moderna rica en oxígeno.

Estudiando los antiguos océanos de la Tierra, la atmósfera y la biología podemos probar cómo de bien comprendemos el entorno moderno, de acuerdo con Anbar. “Nuestra hipótesis del molibdeno se inspiró en la teoría de que la biología en los océanos de hoy a menudo se alimenta de otro metal distinto – el hierro – y la carencia de hierro en partes de los océanos afecta a la transferencia de gas invernadero dióxido de carbono desde la atmósfera al océano”, dice. “La idea de que el déficit de metal en los océanos puede afectar a todo el planeta es muy potente. Aquí estamos explorando los límites de esta idea viendo si podemos resolver antiguos misterios. Estos nuevos hallazgos refuerzan nuestra confianza en que se puede”.

Anbar, Lyons y Scott unieron a la investigación a A. Bekker de la Institución Carnegie de Washington, D.C.; Y. Shen de la Universidad de Quebec en Montreal; S.W. Poulton de la Universidad de Newcastle, en el Reino Unido; y X. Chu de la Academia China de las Ciencias en Pekín, China. La investigación fue patrocinada por becas de investigación de la División de Ciencias de la Tierra de la Fundación Nacional de Ciencia y el Programa de Astrobiología de la NASA.



___________________________________________________________








#31 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 25 abril 2008 - 11:29




smile_031.gif


En Ciencia Kanija


http://www.cienciakanija.com/


Un Portal Indispensable


_____________________________


Publicado por Kanijo



Planeta dirigido por los humanos: ¿Es hora de hacerlo oficial?






Rápida deforestación mostrada en Brasil, es sólo una de las formas en las que la gente está cambiando rápidamente el planeta.


Un grupo de geólogos ha propuesto formalmente designar una nueva época geológica, el Antropoceno, que abarcaría aproximadamente los últimos 200 años de la historia geológica. La acción es apropiada, dicen los autores, debido a que durante los dos últimos siglos, la actividad humana se ha convertido en el director principal de la mayor parte de los cambios en la topografía y clima de la Tierra.

Cada capa estratigráfica en el registro geológico refleja las condiciones de la época en la que se depositó y ofrece un destello del pasado de la Tierra. Los investigadores han unido laboriosamente esta historia geológica, diferenciando las capas en clasificaciones de distinta duración conocidas como eones, eras, periodos, épocas y eras que reflejan las condiciones características. Por ejemplo, el periodo Carbonífero, que duró desde hace 360 a hace 300 millones de años, es conocido por los vastos depósitos de carbón que se formaron a partir de las junglas y pantanos. Es más, incluso algunos de los más largos se han nombrado en base a su biología, como el Paleozoico (”vida vieja”) y el Cenozoico (”vida reciente”).

La Tierra ha estado sujeta a los mismos tipos de fuerzas físicas – vientos, olas, luz solar – a lo largo de toda la existencia del planeta. Pero la vida ha sido mucho más variada en su impacto. La aparición de fotógenesis productora de oxígeno, el surgimiento de las antiguas plantas, y muchos otros eventos evolutivos han dado forma a nuestro planeta de formas drásticas. Y ahora – los humanos. En los últimos 200 años, desde que la población humana alcanzó los mil millones, el uso de los combustibles fósiles, el crecimiento de las metrópolis y otras influencias han comenzado a afectar al proceso estratigráfico, alterando la naturaleza física y química de los sedimentos oceánicos, núcleos de hielo y depósitos superficiales. Por tanto ahora el grupo compuesto en su mayoría por científicos británicos quiere enmendar el registro geológico para acomodarlo a los cambios.

En el ejemplar de febrero de GSA Today, que se publica por la Sociedad Geológica Americana, el geólogo Jan Zalasiewicz de la Universidad de Leicester en el Reino Unido y sus colegas argumentan que la Comisión Internacional de Estratigrafía debería marcar oficialmente el final de la época actual. Esta sería el Holoceno (”completamente reciente”), que empezó después de la última glaciación, aproximadamente hace 10 000 años. La época más moderna y completamente reciente, postmoderna si cabe, debería ser el Antropoceno, argumenta el grupo.

Como prueba, los investigadores citan una variedad de tendencias desde el inicio del Holoceno hasta la actualidad. Estas tendencias muestran claros signos – algunos de los cuales se han hecho evidentes en el registro geológico – de alteraciones inducidas por los humanos. Desde aproximadamente el 1800, las concentraciones de plomo en el agua y suelo se han incrementado drásticamente, el dióxido de carbono ha inundado la atmósfera, y los diques han atrapado incontables cantidades de sedimentos. Todos estos procesos sobrepasan enormemente al equivalente en las fuerzas de la naturaleza. “Puede hacerse un caso razonable para el Antropoceno como una unidad formal válida”, dice Zalasiewicz.

El argumento tiene mérito, dice el geólogo Richard Alley de la Universidad Estatal de Pennsylvania. “En la Tierra, el agua, el aire, el hielo y los ecosistemas, el impacto humano es claro, grande y creciente”, dice. “Un geólogo del futuro lejano casi seguramente trazaría una línea, y comenzaría a usar un nuevo nombre, donde y cuando empezó a mostrarse nuestro impacto”.

Autor: Phil Berardelli
Fecha Original: 24 de enero de 2008



________________________________________________







#32 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 26 abril 2008 - 04:20





smile_031.gif


En Ciencia Kanija


http://www.cienciakanija.com/


Un Portal Indispensable


_____________________________



Publicado por Kanijo el 10 Apr 2008



Inteligencia: Una extraña comodidad cósmica





Avanzados telescopios en tierra y en el espacio están descubriendo nuevos planetas alrededor de otras estrellas casi a diario, pero un científico medioambiental de Inglaterra cree que incluso si algunos de esos planetas resultan ser como la Tierra, las posibilidades de que tengan habitantes inteligentes son muy bajas.

En un reciente artículo publicado en la revista Astrobiology, el Profesor Andrew Watson de la Universidad de East Anglia describe un modelo matemático mejorado para la evolución de la vida inteligente como el resultado de un pequeño número de pasos discretos.

Los modelos de pasos evolutivos han sido usados anteriormente, pero Watson (Miembro de la Sociedad Real Inglesa que estudió bajo la tutela de James Lovelock, inventor de la “hipótesis Gaia”) ve un factor limitante: La habitabilidad de la Tierra (y presumiblemente, otros mundos vivientes) terminará cuando el Sol brille con más fuerza. Como la mayoría de las estrellas, conforme avanzan en su secuencia principal, la energía generada por el Sol se incrementa (se cree que es aproximadamente un 25 por ciento más brillante ahora que cuando se formó la Tierra). En mil millones de años, esto elevará las temperaturas de la Tierra a 50 grados C, haciendo el planeta inhabitable.

Cuatro pasos principales


Aplicando el limitado lapso de vida en un modelo de pasos, Watson encontró que se requirieron aproximadamente cuatro pasos evolutivos principales antes de que una civilización inteligente se desarrollase en la Tierra. Estos pasos probablemente incluyeron el surgimiento de la vida unicelular aproximadamente 500 millones de años después de la formación de la Tierra, la vida multicelular aproximadamente 1500 millones de años después, las células especializadas permitiendo formas de vida compleja con órganos mil millones de años después de eso, y un lenguaje humano mil millones de años después.

Varios de estos pasos concuerdan con las principales transiciones que se han observado en el registro arqueológico.

Watson estima la probabilidad global de que la vida inteligente evolucionara como producto de las probabilidades de cada uno de los pasos necesarios. En su modelo, la probabilidad de cada uno de los pasos evolutivos en una época dada es del 10 por ciento o menos, por lo que la probabilidad de que la vida inteligente surgiera es bastante baja (menos del 0,01 por ciento en 4 mil millones de años). Incluso si la vida inteligente surge, el modelo sugiere que su persistencia será relativamente corta en comparación con el lapso de vida del planeta en el que se desarrolla.
Los métodos matemáticos que usó Watson supone que cada paso evolutivo es independiente de los otros, aunque deben suceder en secuencia. Watson considera esto “una primera aproximación razonable a lo que es, después de todo, un tipo de modelo muy idealizado, deliberadamente simplificado lo suficiente para que las matemáticas puedan resolverse de forma analítica”.


Cambios críticos



Watson también sugiere que algunos de estos pasos críticos pueden haber cambiado la biosfera de forma irreversible.

El desarrollo de las plantas fotosintéticas, por ejemplo, llevó el oxígeno a la atmósfera, lo cual fue un precursor necesario para el desarrollo de los animales terrestres complejos. Una vez tuvo lugar esta transición, cualquier paso evolutivo posterior tiene que tener lugar en una atmósfera con oxígeno, la cual puede tener oportunidades limitadas para que evolucione la vida que no respira oxígeno.

Watson dice en la conclusión de su artículo: ” … sólo en aquellos extraños planetas en los que evolucionen criaturas complejas pueden existir observadores que se hagan preguntas sobre la evolución y se preocupen por las respuestas”. Al preguntarle sobre si una civilización avanzada que deambule por el espacio pudiese ser capaz de sobrevivir al brillo de su estrella emigrando fuera del planeta en el que evolucionaron, Watson concuerda en que es posible: “el modelo predice sólo cuando la “inteligencia” puede surgir en base a un tiempo disponible. Una vez existen los observadores, podrían hacer una serie de cosas para encontrar nuevos lugares donde vivir”.
Seth Shostak, Astrónomo Sernior del Instituto SETI, tuvo este comentario para el trabajo de Watson: “Tenemos, por supuesto, sólo un ejemplo de vida inteligente (es más, vida de cualquier tipo). Eso significa que no podemos estimar posibilidades desde esta única instancia de cuáles son las probabilidades de vida en otros planetas a menos que estemos completamente seguros de que comprendemos todos los procesos evolutivos relevantes. Watson argumenta que la vida inteligente será penosamente extraña: no hay forma de demostrar que esto es cierto. Por otra parte, si se da el caso inverso – si la galaxia es hogar de muchas inteligencias – sí es susceptible de probarse. Deberíamos hacer el experimento”.

Autor: John D. Ruley
Fecha Original: 10 de abril de 2008
Enlace Original

http://www.space.com...ence-model.html


__________________________________________________________






#33 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 03 mayo 2008 - 12:46





smile_031.gif

En Ciencia Kanija


http://www.cienciakanija.com/


Un Portal Indispensable


_____________________________




La astrobiología está viva y en buen estado






Publicado por Kanijo el jueves, 01 de mayo de 2008


Lord Martin Rees, Astrónomo Real, abrió el AbSciCon 2008, la quinta conferencia bianual de ciencia astrobiológica. Su atenta visión de la vida en el contexto cósmico fijó el tono para la vigorosa e intelectualmente diversa reunión.

La comunidad internacional astrobiológica se reunió en el AbSciCon 2008 para presentar sus nuevos descubrimientos, construir colaboraciones, y celebrar una década de ciencia interdisciplinaria. El AbSciCon 2008 fue albergado por el Instituto SETI, y atrajo a más de 675 científicos, estudiantes, educadores y periodistas de 28 países. Aunque dominado por los asistentes de Estados Unidos, todos los continentes estaban representados, incluido la Antártica, donde varios investigadores han llevado a cabo programas científicos. La astrobiología es una próspera empresa internacional. Trabajar sobre los límites de otras disciplinas tradicionales lleva a nuevos descubrimientos, como fue evidente en las presentaciones orales y mediante pósters en la reunión.

AbSciCon 2008 fue organizado por más de 100 científicos que trabajan juntos para desarrollar importantes sesiones plenarias, y presidir 39 sesiones comunes. El Dr. Ariel Anbar (Universidad Estatal de Arizona) lideró el comité de dirección científica junto con los vicepresidentes Drs. Tori Hoehler (Centro de Investigación Ames de la NASA) y Pascale Ehrenfreund (Universidad Leiden). Muchos otros científicos y educadores organizaron sesiones individuales. Yo lideré un equipo en el Instituto SETI para gestionar la organización del evento.

La revista Astrobiology Journal publicó los resúmenes que pueden verse on-line.

http://www.lieberton...8/2?cookieSet=1


AbSciCon 2008 se centró en 3 temas principales:
El contexto para la vida planetario y astrofísico
El origen y la evolución de la vida
La búsqueda de la vida

Seis sesiones plenarias además de grupos de enfoque y paneles reunieron a todos juntos. Entonces, las sesiones normales paralelas se centraron en investigaciones concretas y esfuerzos de educación sobre la vida en entornos extremos en la Tierra, la astrobiología y la exploración del Sistema Solar y más allá. ¿Cómo podemos proteger la Tierra de la contaminación durante las misiones de retorno de muestras y, de la misma forma, cómo proteger a Marte de la contaminación de nuestras misiones que aterrizan en su superficie? ¿Qué es un planeta habitable? ¿Quién ha descubierto los primeros fósiles sobre la Tierra? (La respuesta a esta continúa cambiando con los nuevos trabajos de campo). ¿Qué pasa con la señal del metano en la atmósfera de Marte: es de origen biológico o geológico? ¿Cómo puede informarnos un laboratorio de investigación sobre el origen de la vida? ¿Cómo se originó la vida? ¿Podemos reconocer vida alienígena? Y, por supuesto, SETI: nuevas herramientas, estrategias, y experimentos.

El miércoles por la tarde, se invitó al público a un “Safari por mundo alienígenas” donde un panel de científicos destacados discutían las posibilidades de vida en cualquier punto. Los Drs. Jill Tarter, Tori Hoehler, Peter Ward, y T. C. Onstott discutían y contestaban preguntas sobre posibles mundos alienígenas: desde mundos de barro a mundos altamente tecnológicos. ¿Cómo podeos encontrarlos, y podemos reconocer vida en mundos alienígenas?

En colaboración con AbSciCon y el Instituto SETI, la Universidad Estatal de San Jose alojó al Dr. Antonio Lazcano, de la UNAM, para presentar “Origen de la Vida” el jueves y viernes. En la conferencia principal, Lazcano también presentó una maravillosa lectura como tributo a Stanley Miller (el experimento Miller-Urey) en una sesión sobre Las Moléculas de la Vida. En la misma sesión, el Dr. Gerald Joyce presentó una lectura en memoria de Leslie Orgel. Tanto Miller como Orgel eran científicos destacados en el estudio del origen de la vida.

¿Está sana la astrobiología? Hace un año, cuando el Instituto SETI decidió albergar el AbSciCon 2008, estábamos preocupados porque la reunión atrajera sólo a 200-300 personas. El patrocinio para la astrobiología se había recortado a la mitad por parte del antiguo Administrador Asociado de la Junta de Misiones Científicas de la NASA, la Dra. Mary Cleave. Esto feliz de informar que fuimos tremendamente pesimistas. Basándonos en la participación en el AbSciCon 2008, la comunidad astrobiológica está viva y con buena salud. Creo que tiene un vibrante futuro. La astrobiología atrae a gente joven y brillante a la ciencia: un tercio de los asistentes eran posdoctorados recientes y estudiantes graduados. En los Estados Unidos hay una discusión en marcha y muchas política sobre cómo atraer a los jóvenes a las carreras de Ciencia, Tecnología, Ingeniería y Matemáticas. Para mi es evidente que la astrobiología es un camino tentador para los estudiantes de estas ramas. Creo que la astrobiología está creciendo, y tiene un apasionante e inspirador futuro.

Nos vemos en la próxima reunión AbSciCon en 2010.

Autor: Edna DeVore

Fecha Original: 1 de mayo de 2008


http://www.space.com...cicon-2008.html



_____________________________________________________






#34 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 12 mayo 2008 - 06:51



smile_031.gif


En Ciencia Kanija


http://www.cienciakanija.com/


Un Portal Indispensable


_______________________________________________________



Ángela Hermán, viernes, 09 de mayo de 2008



Un café y una rosquilla podría proteger contra la enfermedad de Alzheimer







Una dosis diaria de cafeína bloquea los efectos negativos del colesterol alto que los científicos han relacionado con la enfermedad de Alzheimer. Un estudio en la publicación de acceso abierto Journal of Neuroinflammation reveló que la cafeína equivalente a tan sólo una taza de café al día podría proteger la barrera hemato-encefálica (BHE) de los daños que sufre por una dieta alta en grasas.

La BHE protege al sistema nervioso central del resto de la circulación del cuerpo, proporcionando al cerebro con esto su propio microambiente protegido. Estudios previos han demostrado que los niveles altos de colesterol acaban con la BHE, la cual entonces ya no puede proteger al sistema nervioso central de los daños causados por la contaminación hematológica. Una filtración en la BHE tiene lugar en una variedad de trastornos neurológicos tales como la enfermedad de Alzheimer.

En este estudio, los investigadores del Colegio Médico y Ciencias de la Salud de la Universidad de Dakota del Norte dieron a los conejos 3 mgr de cafeína cada día – el equivalente a una taza diaria de café para una persona de tamaño media. Los conejos fueron alimentados con una dieta enriquecida con colesterol durante este tiempo.

Después de 12 semanas un número de pruebas del laboratorio demostraron que la BHE estaba significativamente más intacta en los conejos que recibieron la dosis diaria de cafeína.

“La cafeína parece bloquear varios de los efectos nocivos del colesterol que crea las filtraciones en la BHE”, dice Jonathan Geiger del Colegio de Medicina y Ciencias de la Salud de la Universidad de Dakota del Norte. “Los niveles altos de colesterol son un factor de riesgo para la enfermedad de Alzheimer, quizás por comprometer la protección natural de la BHE. Por primera vez hemos demostrado que la ingestión crónica de cafeína protege a la BHE de las filtraciones inducidas por el colesterol”.

La cafeína parece proteger la ruptura de la BHE manteniendo los niveles expresados de proteínas estrechamente cruzadas. Estas proteínas unen estrechamente las células de la BHE unas con otras para detener el paso de moléculas no deseadas al sistema nervioso central.

Los hallazgos confirman y extienden los resultados de otros estudios que muestran que el consumo de cafeína protege contra las pérdidas de memoria del envejecimiento y de la enfermedad de Alzheimer.

“La cafeína es un fármaco seguro y de fácil disponibilidad y su capacidad para estabilizar los recursos de la BHE podrían tener un importante papel en las terapias contra los trastornos neurológicos”, dice Geiger.


Fecha Original: 3 de abril de 2008
Enlace Original:
http://www.physorg.c...ws126417255.htm




__________________________________________________





#35 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 15 mayo 2008 - 12:18





smile_031.gif



En Ciencia Kanija


http://www.cienciakanija.com/


Un Portal Indispensable


_______________________________________________________


Subido por Kanijo, jueves, 15 de mayo de 2008



Descubierta una molécula clave en la atmósfera de Venus






El hidroxilo, una molécula importante pero difícil de detectar, está hecha de un átomo de hidrógeno y otro de oxígeno. Ha sido encontrada en las capas superiores de la atmósfera de Venus, a unos 100 km por encima de la superficie, usando el instrumento VIRTIS de Venus Express




Venus Express ha detectado la molécula hidroxilo en otro planeta pro primera vez. Esta detección da a los científicos una importante nueva herramienta para desvelar el funcionamiento de la densa atmósfera de Venus.

El Hidroxilo, una importante molécula, pero difícil de detectar, está hecha de un átomo de hidrógeno y otro de oxígeno. Se ha encontrado en las capas superiores de la atmósfera venusiana, aproximadamente a 100 km por encima de la superficie, por en Espectrómetro de Imagen Térmica Infrarroja y Visible de Venus Express, VIRTIS.

La esquiva molécula se detectó alejando la nave del planeta y observando a lo largo de la apenas visible capa de la atmósfera que rodea el disco del planeta. El instrumento detectó las moléculas de hidroxilo midiendo la cantidad de luz infrarroja que emitían.

La banda de la atmósfera en la que brillaban las moléculas de hidroxilo es muy estrecha; apenas de 10km de espesor. Observando el limbo del planeta, Venus Express miró a lo largo de la débil capa atmosférica, incrementando la potencia de la señal en 50.

El hidroxilo se piensa que es importante para la atmósfera de cualquier planeta debido a que es altamente reactivo. En la Tierra desempeña un papel crucial eliminando los contaminantes de la atmósfera y se cree que ayuda a estabilizar el dióxido de carbono en la atmósfera marciana, evitando que se convierta en monóxido de carbono. En Marte también se cree que desempeña un papel vital en la esterilización del terreno, haciendo que las capas superiores sean hostiles a la vida microbiana.

La reactiva molécula se ha visto en cometas, pero el método de producción allí se cree que es completamente distinto al que lo forma en las atmósferas planetarias.

“Debido a que la atmósfera venusiana no había sido estudiada extensivamente antes de que Venus Express entrase en escena, no hemos sido capaces de conformar muchas cosas que nuestros modelos nos decían observando lo que pasa en realidad. Esta detección nos ayudará a refinar nuestros modelos y a aprender mucho más”, dice uno de los Investigadores Principales del experimento VIRTIS, Giuseppe Piccioni, del Instituto de Astrofísica Espacial y Física Cósmica en Roma, Italia.

En la Tierra, el brillo del hidroxilo en la atmósfera se ha mostrado estrechamente vinculado a la abundancia de ozono. A partir de este estudio, se piensa que lo mismo es válido para Venus.

Ahora, los científicos pueden emprender la estimación de la cantidad de ozono en la atmósfera del planeta.

Venus Express ha demostrado que la cantidad de hidroxilo en Venus es altamente variable. Puede cambiar un 50% de una órbita a la siguiente y esto puede estar causado por las distintas cantidades de ozono en la atmósfera.

“El ozono es una molécula importante para cualquier atmósfera, dado que es un potente absorbedor de radiación ultravioleta del Sol”, dice Piccioni. La cantidad de radiación absorbida es un parámetro clave que dirige el calentamiento y la dinámica de la atmósfera del planeta. En la Tierra, calienta la estratosfera (capa de la atmósfera) haciéndola estable y protegiendo la biosfera de los dañinos rayos ultravioleta.

Los modelos por ordenador ahora serán capaces de decirnos cómo estas subidas y bajadas en los niveles de ozono en cortos intervalos afectan a la inquieta atmósfera de ese mundo.

“Venus Express ya nos ha mostrado que Venus es mucho más parecido a la Tierra de lo que se pensó en un momento. La detección del hidroxilo nos lleva un paso más cerca”, dice Piccioni.

Él y sus colegas están informando sólo de la detección inicial de unas pocas órbitas en su último artículo. Están trabajando en el análisis de datos de otras 50 órbitas aproximadamente y las observaciones continuarán.


Fecha Original: 15 de mayo de 2008
http://www.esa.int/e...FF_index_0.html



_________________________________________________







#36 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 10 junio 2008 - 01:50




icon_eek.gif

PREGUNTAS DE INGENIO

smile_004.gif


EN GENCIENCIA



http://www.gencienci...vion-despegando

____________________________________________________



Quiz Genciencia: avión despegando




Gabriel A.


Todos hemos visto cómo despega un avión: a lo largo de una larga pista va cogiendo velocidad hasta que se separa del suelo. Pero quizá no hayamos pensado realmente por qué se separa del suelo. Y ahí se nos plantea una interesante cuestión:

¿Verdadero o falso?


Si el avión, en vez de rodar sobre el suelo, rodara sobre una cinta transportadora que se moviera con la misma velocidad pero en sentido contrario, sería incapaz de despegar.


RESPUESTA OFICIAL DE GENCIENCIA


La cuestión ha suscitado respuestas de lo más variopintas, y muchas erróneas. La afirmación es falsa, el avión sí puede despegar. Un repaso a los comentarios que suscitó la cuestión da una idea de los principales errores y también de los aciertos. Hay dos cuestiones importantes que hay que tener en cuenta:

1) el avión debe moverse a través del aire.

2) el avión debe moverse.


Para que el avión despegue, basta con que se mueva a una velocidad suficiente a través del aire (como en un despegue normal, sin cinta transportadora). Hasta ahí, todo el mundo está de acuerdo. El verdadero problema viene cuando nos preguntamos ¿impide la cinta transportadora que el avión se mueva a través del aire? Esa es la segunda parte de la cuestión, y la más importante.

El primer impulso es pensar que si un avión, sin cinta transportadora, se mueve a 200 km/h hacia delante, con una cinta transportadora que se mueve a 200 km/h hacia atrás, las velocidades se anulará y el resultante será 0 km/h. Sin embargo eso no es así. Eso ocurriría en el caso de que fueran las ruedas las que se movieran a 200 km/h. Sin embargo, lo que se mueve en un avión son las hélices o las turbinas o cualquier otro método propulsor (generalmente en las alas). Las ruedas giran libremente, por lo que la energía de la cinta transportadora simplemente hace que las ruedas giren más rápido, y en nada impide (“frena”) el movimiento del avión hacia adelante.

Un ejemplo de los errores (quizá por simplificar el problema) y los aciertos los tenemos en los comentarios #21, #22 y #23, que son una secuencia de pensamientos cada vez más elaborados. El primero de ellos asume que el avión no se mueve, y por tanto no se eleva. El segundo de ellos indica (acertadamente) que es un error pensar que el avión no se mueve, porque realmente sí se mueve en horizontal, impulsado por las hélices. El tercero afina aún más, y destaca que el efecto de la fricción (de esas ruedas moviéndose el doble de rápido) puede influir en que el avión despegue o no.

En resumen:

si un avión permanece en el mismo punto, no puede despegar. Pero una cinta transportadora en el suelo, moviéndose en sentido contrario a la misma velocidad, es completamente incapaz de mantener al avión en el mismo punto, pues el avión de desplaza a través del aire y por tanto lo que ocurra bajo las ruedas es irrelevante.

Por tanto, el avión sí despegaría.

Hay otras cuestiones planteadas interesantes. El lector Curian plantea si un avión puede volar en el vacío y añade que cree que no. Efectivamente, sin aire no hay propulsión (y sólo podría “volar” si tiene velocidad de partida, como en el caso de las sondas espaciales).

Nuestro lector Joshua Pivodit hace algunas observaciones dignas de mención, aunque se equivoca en su respuesta. Primero indica que un modelo a escala no es suficiente para demostrar la cuestión (cierto). También hace referencia al vídeo en el que se intentaba comprobar precisamente esto, con un avión real y una cinta transportadora de verdad. Dice que se veía claramente que el avión se movía más rápido que la cinta transportadora, por lo que estaba mal montado y no demostraba nada. Eso no es cierto. El avión se hubiera quedado quieto si hubiera una mano gigante sujetándolo en el sitio. ¿Debemos esperar eso? ¡No! No tiene esa mano, sino hélices que lo impulsan hacia delante. Por tanto, no va más rápido, simplemente va hacia delante, mientras que la cinta va hacia atrás. La cinta es incapaz de impedirle avanzar, por muy rápido que vaya (ignorando la fricción de las ruedas). Este lector comenta también que, si hacemos una analogía con un hidroavión, es imposible imaginárselo despegando en contra de la corriente de una gran catarata. Efectivamente: porque la fuerza de rozamiento del agua contra el hidroavión no es pequeña. Si la fuerza de rozamiento agua-hidroavión fuera tan pequeña como la de rueda-avión, sería despreciable. Por tanto la comparación no es válida, porque incluye una fuerza de rozamiento mucho mayor y significativa, que en el enunciado original del problema no aparecía.

Felicidades a los que habéis acertado y también a los que no, ya que casi todos los comentarios han sido buenas o muy buenas aportaciones.


____________________________________________________________







#37 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 13 junio 2008 - 11:08




smile_031.gif



En Ciencia Kanija


http://www.cienciakanija.com/


El Portal Indispensable


_______________________________________________________





KANIJO, Jueves, 12 de junio de 2008



Nuevo telescopio para buscar alienígenas





A typical galaxy like the Milky Way contains as many stars as there are grains of sand on all the worlds beaches. Most of these stars have planetary systems and many will have the right conditions for life to flourish. LOFAR can potentially search for artificial radio signals from intelligent civilisations in nearby stellar systems. Credit: Femke Boekhorst/LOFAR




Tal vez ET está a un Sistema Solar de distancia, y tal vez todo lo que necesitamos para encontrarlo es un telescopio más. Esa es la esperanza, al menos, de algunos científicos que dicen que un nuevo observatorio de radio que se está empezando a construir en Europa puede tener una posibilidad de encontrar vida alienígena más allá de nuestro planeta.

El Conjunto de Baja Frecuencia, o LOFAR, es una red de hasta 25 000 pequeñas antenas que se está construyendo en Holanda, Alemania, Suecia, Francia y Reino Unido. El conjunto de radio distribuido peinará colectivamente el universo en las frecuencias de radio bajas de luz cuando esté completo en 2009.

“LOFAR puede extender la búsqueda de inteligencia extraterrestre a una parte completamente inexplorada del espectro de radio de baja frecuencia, un área que ha sido usada masivamente para comunicaciones civiles y militares aquí en la Tierra”, dijo Michael Garrett, director general de ASTRON, el Instituto Holandés de Radioastronomía y profesor de técnicas de radio en astronomía en la Universidad Leiden en Holanda. “Además, LOFAR puede estudiar grandes áreas del cielo de forma simultánea — una ventaja importante si las señales SETI son raras o de naturaleza transitoria”.

Hasta ahora, el telescopio más famoso del mundo en búsqueda extraterrestre, el Observatorio de Arecibo en Puerto Rico, no ha tenido éxito al localizar alienígenas. El plato gigante, que ha estado escuchando ondas de radio desde 1963, incluso puede quedar cerrado en pocos años si no recupera el patrocinio perdido desde que la Fundación Nacional de Ciencia decidió reducir su presupuesto. LOFAR barrerá un rango de frecuencias más bajas del espectro electromagnético que Arecibo — el mismo rango en el que los terráqueos emiten señales de radio y televisión. Algunos científicos esperan que LOFAR ofrezca la posibilidad de sintonizar una versión alienígena de “I Love Lucy”.

Pero otros son escépticos ante esta sugerencia.


LOFAR probablemente no será lo bastante sensible para detectar señales de TV de ET, a menos que los alienígenas emitan con unos transmisores de televisión mucho más potentes de los que tenemos nosotros, dijo Seth Shostak, astrónomo senior del Instituto SETI en California. Calculó que una versión alienígena de LOFAR tendría que estar a una distancia de menos de un año luz de la Tierra para detectar nuestras señales de televisión, lo cual es más cercano que la estrella más próxima.

Además, emitir TV al espacio está pasado de moda en la Tierra, donde la mayoría de nosotros logramos nuestra señal a través de un cable en el muro, no mediante unas antenas colocadas en el techo. Pronto, puede que superemos por completo la emisión a través del aire.

“Presumiblemente, ET ha hecho todo eso ya, y no creo que la televisión ET aún se emita al espacio de la forma que nosotros lo hacemos, creo que eso es ser un poco simplista”, dijo Shostak a SPACE.com. “Las posibilidades de que estén en el mismo nivel que nosotros son muy, muy pequeñas”.

Aún así, a esos que pasan tiempo buscando y esperando que ET finalmente llame a casa, cualquier nueva herramienta que pueda ayudar en la empresa es bienvenida, como SETI@home, la cual permite a la gente donar tiempo de sus ordenadores personales para la búsqueda.

“Los buscadores SETI apenas están rascando la superficie; necesitamos usar muchos telescopios, técnicas y estrategias diferentes como nos sea posible, de forma que podamos maximizar nuestras posibilidades de éxito”, dijo Dan Werthimer, científico del proyecto SETI@home en la Universidad de California en Berkeley.

Autor: Clara Moskowitz

Fecha Original: 11 June 2008
Enlace Original
http://www.space.com...1-lofar-et.html


__________________________________________________






#38 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 20 julio 2008 - 04:50







smile_031.gif

En GENCIENCIA






_______________________________________________


La dificultad de convertirse en fósil






Imagen en:

http://www.mineraltown.com


No es nada fácil encontrar un fósil. Exige estar buscando en zonas muy concretas durante mucho tiempo, para sólo contar con una pequeña probabilidad de encontrarse con un resultado satisfactorio.

Pero hasta que no leemos unos cuantos datos, no podemos imaginar la cantidad de condiciones que se han tenido que cumplir para que un hueso se haya podido conservar durante miles y miles de años.

Veamos cuales son esas condiciones.

En primer lugar, está la ubicación. Sólo el 15% de rocas cumplen con las condiciones idóneas para conservar fósiles. Se tiene que acabar enterrado en un sedimento en el que poder dejar una impresión. Además, no podemos acabar expuestos al oxígeno, para lograr así que las moléculas de nuestros huesos y algunas otras partes sean sustituidas por minerales disueltos, con lo que tendremos creada nuestra copia.


Luego viene el transporte. Al tener que sufrir durante miles y miles de años el movimiento de la superficie terrestre, tendremos que haber quedado de alguna forma que seamos reconocibles, si al menos pretendemos que reconozcan a qué raza pertenecíamos.

Pues bien, se cree que sólo un hueso de cada mil millones llega a fosilizarse.

O dicho de otra forma, el legado fósil de todos los estadounidenses (unos 270 millones de personas con 206 huesos cada uno) se compondría de un total de 50 huesos. No nos llega ni para un cuarto de esqueleto.

Pero aún hay más problemas. Estamos diciendo que esos 50 huesos se conservarán, pero no que se encontrarán. Sabiendo que se puede encontrar algo enterrado en un área de unos 9,3 millones de kilómetros cuadrados, que muy poco se excavará, y que aún menos se examinará, podemos ver de una forma más cercana la dificultad de encontrar fósiles.

Se calcula que sólo hemos podido descubrir cerca de una especie de cada 10.000 que hayan existido. Si aceptamos la estimación de que en la Tierra ha habido 30.000 millones de criaturas, y la estimación de que hay 250.000 especies en nuestro registro fósil, la proporción queda en una de cada 120.000.

Ya por último, debemos saber que la mayoría de animales terrestres murieron en campo abierto, se pudrieron o quizás fueron devorados. Así que cerca del 95% de fósiles son animales que vivieron en el mar.

Pues parece que no es tan fácil dejar huella.

Todos estos datos han sido extraídos de la gran obra “Una breve historia de casi todo”, de Bill Bryson. Altamente recomendable.


Más información | Una breve historia de casi todo
Más información | Fósiles
En Genciencia | Fósil



_________________________________________________








#39 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 05 agosto 2008 - 09:04







icon_eek.gif

¿¿¿Donde está el límite???


En Ciencia Kanija


El portal Indispensable


http://www.cienciakanija.com/


______________________________________________________



MOTOR WARP, LA PROPULSIÓN DEL FUTURO

Kanijo, martes 05 de agosto de 2008[


INTRODUCCIÓN



A lo largo de la última década, ha habido un respetable nivel de científicos interesados en la idea de un “motor warp”. Éste es un hipotético motor de propulsión que podría, teóricamente, solventar las limitaciones tradicionales de la relatividad espacial la cual restringe la velocidad de la nave a una por debajo de la luz.

Cualquier gran avance en este campo revolucionaría la exploración espacial y abriría una puerta al viaje interestelar. Este artículo discute una novedosa aproximación a la generación de la “burbuja warp” necesaria para tal propulsión; los detalles matemáticos de este teoría se discuten en un artículo publicado en Journal of the British Interpanetary Society. La teoría está basada en algunas de las apasionantes predicciones procedentes de la Teoría de Cuerdas y el objetivo del artículo es introducir la idea de motor warp desde una perspectiva no matemática que debería ser accesible a un amplio rango de lectores.


¿POR QUÉ UN MOTOR WARP?



Es universo es verdaderamente vasto, y las actuales tecnologías de propulsión nos restringen drásticamente a la exploración de nuestro propio Sistema Solar. Si queremos visitar incluso el más cercano de los sistemas estelares, nos encontraríamos con tiempos de tránsito de muchas decenas de miles de años como poco. Una poderosa razón por la que podríamos realmente querer visitar otras estrellas es la reciente evidencia de “planetas extrasolares’, que son planetas que orbitan otras estrellas distintas a nuestro Sol. Hasta la fecha, conocemos al menos 250 planetas extrasolares. Una posibilidad incluso más apasionante es que algunos de estos planetas pueden ser “similares a la Tierra”, con la capacidad teórica de soportar vida.

Este año, un equipo suizo descubrió un planeta designado como Gliese 581c; este planeta orbita la estrella Gliese, a 20,4 años luz de la Tierra. El planeta es destacable debido a que es el único planeta extrasolar conocido hasta la fecha que está en el área conocida como ‘zona habitable’ de una estrella (Fig.1). Ésta es el área alrededor de una estrella donde las temperaturas de superficie podrían mantener agua en estado líquido. Se cree que Gliese 581c tiene aproximadamente 5 veces la masa de la Tierra, y tiene una temperatura superficial similar.





FIG. 1: Gliese está dentro de la “zona habitable” de su estrella madre, lo que significa que el agua podría existir en sus superficie.



Dadas estas asombrosas similitudes, uno se pregunta, naturalmente, si Gliese 581c podría albergar vida. Aunque puede ser posible verificar de forma indirecta la existencia de vida usando técnicas observacionales aquí en la Tierra, la profundidad del análisis sería particularmente limitado. Por otra parte, podríamos obtener datos de un valor científico mucho mayor si realmente pudiésemos visitar estos planetas con sondas, o incluso humanos, para una mejor comprensión del origen y desarrollo de la vida, y para ver si existe sólo en forma de organismos elementales o si la inteligencia ha evolucionado. El descubrimiento de vida fuera de la Tierra sería obviamente de un enorme significado científico, y muy posiblemente, sería recordado históricamente como el descubrimiento científico más significativo de todos los tiempos. La única forma realista en la que podríamos visitar estos mundos en marcos temporales de una vida humana sería desarrollar lo que popularmente se conoce como “motor warp”.


ORÍGENES DEL MOTOR WARP



El término “motor warp” se originó en la ciencia-ficción. Un artículo de 1994 del físico teórico Miguel Alcubierre colocó la idea sobre una base más científica. El artículo de Alcubierre demostró que una solución a las ecuaciones de campo de Einstein podría “estirar” es espacio de forma que el propio espacio se expandiría detrás de una hipotética nave, mientras se contrae por delante de la misma, creando un efecto de movimiento (Fig. 2). En contra de la tecnología convencional que da como resultado el movimiento de la nave a través del espacio, en esta teoría es el propio espacio el que se mueve alrededor de la nave. Esto es una salida radical del concepto tradicional de movimiento, debido a que la nave está, en un sentido clásico, inmóvil dentro de una hipotética burbuja de espacio-tiempo en movimiento.



FIG. 2: La métrica “sombrero de copa” de Alcubierre. Una burbuja de curvatura de espacio-tiempo asimétrico rodea la nave la cual se situaría en el centro de la burbuja.



Lo que es particularmente atractivo de esta aproximación a la propulsión es que la nave podría, en teoría, viajar de forma efectiva más rápido que la velocidad de la luz. La relatividad especial prohíbe que los objetos se muevan por el espacio a la velocidad de la luz o superiores, pero el propio tejido del espacio no está restringido de ninguna forma. De esta forma, incluso aunque la nave no pueda viajar más rápido que la luz en un sentido local, ésta podría hacer un viaje de ida y vuelta entre dos puntos en periodo de tiempo arbitrariamente corto medido por un observador que permaneciera en reposo en el punto inicial.


FÍSICA ELEMENTAL DE LOS MOTORES WARP



La idea de motor warp está basada en la Teoría de la Relatividad General de Einstein (GR), una teoría física aceptad y extremadamente bien comprobada. Uno de los componentes necesarios para un motor warp es una exótica forma de energía conocida como energía negativa, la cual debería generarse en copiosas cantidades para que tuviera lugar la propulsión de una nave (Ver Fig. 3). La energía negativa está clásicamente prohibida en la relatividad general; no obstante, se permite si nos movemos al paradigma de la teoría de campo cuántico. Y en realidad, la energía negativa no sólo se permite en esta teoría; se ha verificado experimentalmente usando el ‘Efecto Casimir’.



FIG. 3: Fuera de las placas conductoras no hay restricción en los modos del vacío. En el interior sólo pueden formarse ondas estacionarias. Esta asimetría en el campo provoca que las placas se vean empujadas entre sí por una fuerza de naturaleza puramente cuántica.



El Efecto Casimir es uno de las más prominentes manifestaciones de las fluctuaciones del vacío. Su forma más simple se encuentra en la interacción de un par de placas conductoras paralelas neutras. Las placas modifican el estado base del vacío cuántico en el volumen entre las placas, creando una fuerza atractiva entre las placas.

La interpretación física es que existe un estado de energía negativa en el interior de la región de las placas. Teóricamente, el Efecto Casimir podría usarse para crear la energía negativa requerida para un motor warp. Desde esta perspectiva, no hay nada que impida teóricamente la creación de un motor warp.


LA NATURALEZA COMO PROFESOR



Esencialmente, la burbuja warp consiste en una región del espacio-tiempo en expansión, y una región de espacio-tiempo en contracción. La primera fase en el desarrollo de una motor warp necesariamente implica aprender cómo generar estas burbujas asimétricas.

Como en todas las buenas tecnólogas de ingeniería, la propia naturaleza puede proporcionaros un grado de visión. Somos afortunados de que el espacio-tiempo ya se esté expandiendo, aunque a un ritmo extremadamente lento. En 1929, la observación de Hubble del desplazamiento al rojo galáctico cimentó el paradigma de un espacio-tiempo en expansión en la cosmología física (Fig. 4).




FIG. 4: Vistas desde la Tierra la mayor parte de las galaxias parecen estar retrocediendo de nosotros. Esto nos proporciona pruebas de que el universo se expande.



A energía responsable de la actual expansión del espacio-tiempo es generalmente conocida como “constante cosmológica”, o su equivalente 2energía del vacío” (los términos se usarán de forma indistinta en este artículo). A escala local, el espacio se expande de una forma extremadamente lenta: aproximadamente una mil millonésima de mil millonésima de metro por segundo.

Claramente, para construir un motor warp se requeriría que el espacio-tiempo fuese estimulado de alguna forma a expandirse (y contraerse) a un índice mucho mayor, pero el hecho de que ya se está expandiendo nos da una primitiva guía para darnos cuenta de las ambiciones del motor warp. El primer paso para controlar un mecanismo es comprenderlo; por tanto, si podemos comprender por qué el espacio-tiempo está en expansión, podríamos ser capaces de usar este conocimiento para generar de forma artificial una expansión (y contracción) del espacio-tiempo.


ORÍGENES DE LA CONSTANTE COSMOLÓGICA



Comprender la constante cosmológica puede desempeñar un papel crucial en el desarrollo de un motor warp, dado que ayudará a comprender por qué el espacio se expande. No obstante, el origen de la constante cosmológica es aún un misterio casi un siglo después de su introducción en la cosmología. Los físicos no saben con certeza qué genera la constante cosmológica; simplemente sabemos que está ahí. Existen varias ideas sobre la naturaleza de este campo. La energía oscura, por ejemplo, es una frase contemporánea popular. Se han realizado esfuerzos para explicar la constante cosmológica usando la Teoría de Campo Cuántico (QFT), la cual se creó varias décadas después de la relatividad general de Einstein (GR). No obstante, las predicciones teóricas usando la QFT están en un conflicto tan enorme con las observaciones, siendo de un factor de 10120 que la predicción se ha dado en conocer como la peor predicción de la física teórica”.

Una corrección (parcial) a los cálculos de la energía del vacío es la introducción de supersimetría (SUSY). Una discusión completa de SUSY va más allá del ámbito de este artículo; no obstante, la idea básica es que todas las partículas conocidas tienen asociada una superpartícula cuyo “espín” difiere en media unidad. Por tanto, en SUSY todas las partículas de espín entero (bosones) están equilibradas por partículas de espín semientero (fermiones) en el contenido de partículas elementales del universo.

Esta idea es particularmente atractiva dado que la existencia de partículas supersimétricas suaviza las avergonzantes predicciones de la QFT con respecto a los cálculos de la energía del vacío. En nuestro modelo se analizan las contribuciones a la densidad de energía del vacío que son de dimensiones puramente superiores en origen.


LA FÍSICA EN LAS DIMENSIONES SUPERIORES



La idea de dimensiones extra no es nueva. Se introdujo por primera vez en 1919 por el físico Theodore Kaluza, en un esfuerzo por unificar las leyes de la gravitación y el electromagnetismo. La teoría principal de Kaluza fue introducir una quinta dimensión. Una vez resueltas las ecuaciones de Einstein (o más técnicamente, variaciones de la acción Einstein-Hilbert), Kaluza fue capaz de producir un conjunto de ecuaciones el cual combinó tanto con las ecuaciones de campo de Einstein como con las ecuaciones de campo de Maxwell. L cuestión de dónde se situaban las dimensiones extra fue abordada por Oskar Klein quien, en 1926, sugirió que la quinta dimensión estaba compactada deforma que tenía una geometría de círculo con un radio extremadamente pequeño. Una forma de ver el espacio-tiempo es imaginárselo como una manguera. Desde una larga distancia parece una línea unidimensional pero una inspección más cercana revela que cada punto de la línea es, de hecho, un círculo (Fig. 5). Aunque la teoría contiene fallos, fue la primera pista de que las dimensiones espaciales extra pueden desempeñar un papel importante en la física.



FIG. 5: Una dimensión extra permanece oculta a nosotros debido a su tamaño.



Más recientemente, las dimensiones extra se han aceptado como una parte de la física teórica moderna. La teoría de supercuerdas, o Teoría M- en su formato más moderno, es una teoría que trata de unificar toda la física moderna ajo un único marco conceptual matemático, y predice la existencia de dimensiones espaciales extra. Otros dos modelos de dimensiones extra contemporáneos son el modelo de Randall-Sundrum (RS) de dimensiones extra “curvadas”,y el modelo de Arkani-Hamed-Dimopoulos-Dvali (ADD)de dimensiones extra grandes. Ambas teorías intentan explicar la observación de que la gravedad es mucho más débil que el resto de fuerzas conocidas. Una forma de pensar en el modelo ADD es describir la gravedad como algo libre de propagarse en todas las dimensiones (incluyendo las dimensiones extra), mientras que las otras fuerzas están restringidas a nuestras tres dimensiones espaciales familiares. De esta forma, la gravedad, en cierto sentido, se diluye, lo cual da como resultado que sea mucho más débil que las otras fuerzas.


MANIPULAR LAS DIMENSIONES EXTRA PARA CREAR UN MOTOR WARP



Existen actualmente numerosos modelos que intentan explicar el origen físico de la constante cosmológica. Uno de los modelos sugiere que la energía de punto cero de las fluctuaciones del gravitón en las dimensiones extra del modelo ADD puede ser el responsable final. La energía de punto cero es precisamente la energía que provoca que las placas del Efecto Casimir se atraigan entre sí, como discutimos anteriormente. Esta energía de punto cero debería existir también en dimensiones superiores. En esta descripción, es la periodicidad de la dimensión extra la que desempeña exactamente el mismo papel que las placas paralelas del Efecto Casimir tradicional. Así como las placas aseguran que la interferencia deconstructiva destruya las frecuencias no resonantes del vació cuántico, también lo hace una dimensión extra circular, la cual permite sólo las frecuencias resonantes a lo largo de su circunferencia. En este modelo es el tamaño de la dimensión extra el que regula directamente la magnitud de la constante cosmológica, y por tanto la expansión del espacio-tiempo.

En un artículo reciente, abordábamos la plausibilidad de influenciar localmente el tamaño de la dimensión extra para ajustar localmente (por local, queremos decir en al vecindad de la nave) la constante cosmológica. Esto podría crear teóricamente una modificación del espacio-tiempo alrededor de una nave que podría ajustarse para adquirir las características de la burbuja de Alcubierre (ver Figura 3). La idea básica es que alterando el radio de una dimensión extra, sería posible, en principio, ajustar la densidad de energía de la del espacio-tiempo (la cual se relaciona directamente con la constante cosmológica la cual controla en último término la inflación/contracción del propio espacio). Hemos tomado dos aproximaciones a esta idea: una desde el punto de vista de la QFT y otras desde la GR. Las ecuaciones de ambas teorías indican que la física del espacio de las dimensiones extra requieren que afecta al índice de expansión del espacio “normal” mediante un efecto de “corte dimensional. Las ecuaciones de la GR demostraron que haciendo más pequeñas las dimensiones extra inflaría nuestro espacio, y que la expansión de la dimensión extra lo contraería. De estar forma, podría crearse una burbuja de expansión/contracción del espacio-tiempo en la parte trasera y delante de la nave (Fig. 6).

Los cálculos iniciales indicaron que una propulsión por encima de la velocidad de la luz para una nave de 1000m3 podría lograrse con un coste de energía estimado en 1045J, o aproximadamente la masa-energía total contenida en el planeta Júpiter tras usar la famosa relación E = mc2. Aunque este número puede parecer enorme, es ciertamente una mejora con respecto a anteriores cálculos, los cuales indicaban que el motor warp requeriría más masa-energía de la contenida en todo el universo observable.



FIG. 6: La métrica de Alcubierre (imagen inferior) es una distorsión asimétrica del espacio-tiempo. Una hipotética nave se sitúa dentro de la burbuja mientras que el espacio se expande detrás de la nave y se contrae por delante. Este efecto se logra manipulando el radio de las dimensiones extra como se ilustra en la imagen superior.



Los cálculos QFT revelaron un límite superior en la velocidad que un motor podría lograr, dando como resultado una longitud mínima para la longitud de una dimensión extra, la longitud de Planck. Si las dimensiones extra se encogiesen hasta la longitud de Planck, entonces nuestros cálculos revelarían que el límite en la velocidad del motor warp es de 1032c (donde c es la velocidad de la luz). Este número es un límite teórico, dado que nuestros cálculos respecto a la energía requerida para lograr esta velocidad indican que se requeriría significativamente más masa de la disponible en el universo observable.

Un tema que necesita abordarse es la discrepancia entre las predicciones de la GR respecto a la expansión y contracción del espacio-tiempo y las predicciones de la QFT. En el límite de un espacio-tiempo con una constante cosmológica cero, la GR demuestra que el corte de una dimensión extra en contracción tiene el efecto de expandir las restantes dimensiones y de forma similar expandir las dimensiones extra contraerá el resto de dimensiones. No obstante, los cálculos teóricos de campo cuántico demuestran que un radio fijo compacto puede también dar como resultado una expansión de volumen tres debido al Efecto Casimir. Aunque este tema necesita claramente ser resuelto, ambas teorías sugieren que la física del espacio compactado afecta al espacio no compactado.


PERSPECTIVAS DE FUTURO



Se ha propuesto una nueva aproximación para la generación de la burbuja warp necesaria para el motor warp; esta burbuja warp teóricamente permitiría a una nave viajar a unas velocidades arbitrariamente altas. Un aspecto vital de la futura investigación en esta área implica el estudio de cómo manipular localmente una dimensión extra. La Teoría de Cuerdas sugiere que las dimensiones se mantienen globalmente compactas por cuerdas que las rodean; si efectivamente este es el caso, entonces podría ser posible incrementar decrementar localmente la tensión de la cuerda, o incluso contrarrestar los efectos de algunos modos de vibración de la cuerda. Eso lograría el efecto deseado de modificar el tamaño de las dimensiones extra, lo cual llevaría teóricamente a una propulsión mayor que la velocidad de la luz.

Esta aproximación, aunque altamente teórica en esta etapa, nos da una visión de cómo se podrían abordar los problemas asociados con las vastas distancias implicadas en el viaje interestelar, y también abrir una puerta a nuevas avenidas para la investigación futura.



Autor: Richard K Obousy/Gerald Cleaver

Fecha Original: 15 de julio de 2008
Enlace Original http://arxiv.org/PS_...0807.1957v2.pdf



____________________________________________________






#40 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 22 agosto 2008 - 09:48




icon_eek.gif




AGENCIA AUPEC. 27-05-1998



________________________________


HASTA LOS PECES CAMBIAN DE SEXO

Ahora cuando todo el mundo habla de contaminación, las pruebas contundentes de este hecho es su efecto en los seres vivos.





Foto de Enciclopedia Países del Mundo




La española Silvia Gimeno colabora en el Departamento de Toxicología Ambiental, del Instituto de Nutrición y Alimentación, de Holanda y actualmente realiza estudios sobre los efectos negativos de los contaminantes medio ambientales en los seres vivos.

En trabajo conjunto a otros investigadores ha logrado demostrar que los peces cambian de sexo o se vuelven estériles debido a sustancias químicas contaminantes que se vierten en las aguas.
Se cree, con base en resultados científicos, que compuestos químicos presentes en las aguas reaccionan como la hormona femenina estradiol.

Estos compuestos de degradación que provienen de dos grandes grupos, el uno de la fabricación del plástico para obtener plásticos flexibles y el otro de la degradación de jabones o detergentes, tiene efectos negativos en la reproducción. Así mismo se han encontrado estos compuestos en otros productos químicos como pesticidas.




Foto de Bambusa Guadua



Machos con características femeninas



En la investigación realizada se midieron los efectos de un compuesto ya identificado que era el estrógeno, sobre peces macho en diferentes estados, desde huevo hasta adulto.

En este proceso de diferenciación sexual se pudo observar que debido a la exposición al compuesto, se obtuvieron características femeninas en los peces machos que estaban en periodo crítico para la reproducción y el cual es sensible a la influencia de diferentes hormonas. Los peces en estado de desarrollo no manifestaron ninguna característica femenina.

Igualmente los investigadores encontraron que los peces en estado de maduración sexual, expuestos al compuesto, mostraron una reducción en la producción de esperma. Del mismo modo se pudo apreciar que los peces expuestos a altas concentraciones del compuesto mostraban una alta cantidad de la proteína femenina biterogenina.

“Esto permite concluir que si hay efectos en el desarrollo sexual delos peces también puede tener efecto en otras especies de vertebrados, porque el sistema hormonal y de desarrollo de los órganos sexuales son bastante estables a lo largo de la reproducción”, explica la investigadora.
Lo más importante de este estudio es mostrar la necesidad de investigar sobre otros compuestos que pueden tener efectos tan graves como estos y así empezar a desarrollar normas para controlarlos.


Contacto:
El Mundo de la Ciencia y la Salud. Radio Netherlands. e-mail: [email protected]

© Se permite la reproducción total o parcial de este material, siempre y cuando se cite a AUPEC como fuente original


______________________________________________