Ir a contenido


Foto

Cosas de Matemáticas y Matemáticos...


  • Inicia sesión para responder
11 Respuesta(s) a este Tema

#1 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 29 noviembre 2007 - 01:04





____________________________________________


LOS JUEGOS DEL REY
26-06-98


Era un Rey muy sabio y poderoso. Un día llamó a su hijo y le comunicó que se iba y dejaba el reino en sus manos. Pero no incondicionalmente. Y las condiciones, en sí mismas constituían un GRAN JUEGO, en el que el hijo tendría que tomar decisiones. Según acertase o errase al adoptarlas ello le permitiría conservar o perder el reino, disfrutar o no de una vida de holganza e, incluso, tener o carecer de la libertad.

Hace unos 70 años John von Neumann, un gran matemático americano de origen húngaro, creaba una nueva especialidad matemática conocida como la teoría de los juegos. Se basaba en las estrategias seguidas en los juegos sencillos, que se rigen por reglas fijas, como sería el caso de las apuestas de cara o cruz, tres en raya, ajedrez o póquer. Lo que Neumann hizo fue desarrollar esas reglas y aplicarlas a juegos mucho más complicados, es decir, propugnar un análisis matemático de las situaciones en las que aparezcan un conflicto de intereses. La finalidad perseguida es la de encontrar las opciones óptimas para que, en las circunstancias consideradas, se consiga el resultado deseado. Ello es también aplicable a los diversos problemas que pueden aparecer en los campos de la sociología, la economía de la Ciencia política y militar, o cualesquiera otros. En la II Guerra Mundial, se aplicó la teoría de juegos en las áreas de la logística, la guerra submarina y la defensa aérea. A partir de entonces esta teoría evolucionó intensamente dentro del campo de las ciencias sociales, con una gran aplicación en la Economía, en el que uno de los múltiples ejemplos es el del equilibrio de Nash: en un juego con dos jugadores, X y Y en el que la elección de X es óptima dada la de Y, y la elección de Y es óptima dada la de X. Por sus aplicaciones a diferentes situaciones prácticas John Nash obtuvo el Premio Nobel de Economía en 1994.

EL REY. En la teoría de juegos, la palabra juego se refiere a un tipo especial de conflicto en el que toman parte n individuos o grupos (conocidos como los jugadores). Hay ciertas reglas del juego que dan las condiciones para que éste comience, las posibles jugadas legales durante las distintas fases del juego, el número total de jugadas que constituye una partida completa y los posibles resultados cuando la partida finaliza. Pero volvamos a nuestro Rey juguetón.

El "juego" propuesto por el Rey a su hijo podríamos contarlo asi: "Hoy me marcho y en mi ausencia reinarás. No sabrás de mí nada hasta el día que regrese, ni siquiera si regresaré. Si lo hago y ese día te encuentro seriamente ocupado en la gobernación, a partir de ese momento serás el Rey definitivo. Pero si volviese y ese día estuvieses holgazaneando, disfrutando de los placeres, serás hecho prisionero para siempre. Y debes saber que poseo los mecanismos de información necesarios para saber, cada noche, lo que has hecho cada día y que yo siempre podría presentarme aquí el próximo día, cualquier día".
Al hijo del Rey le interesa reinar para siempre, pero no quiere renunciar a los placeres que le atraen, más agradables que el de la gobernación. Pero sabe si escoge los placeres, por cada día de holganza que se vaya acumulando los riesgos son mayores. ¿Qué hacer entonces?. Sus decisiones, y las del Rey, se corresponden a los de la lógica probabilística. ¿Existen soluciones matemáticas para ello?.

Este problema, el gran juego, fue propuesto, de forma general, no en forma de cuentecillo, en 1957, por el matemático D. Gillette. Las soluciones dependerían, para los dos jugadores implicados en cualquier variante del juego, de los valores respectivos que ellos le diesen a los diferentes resultados u opciones, así como del modo en que valorasen el futuro, comparado con el presente. Salvo para algún caso particular, hasta ahora no se había encontrado una solución general matemática para abordar las soluciones del gran juego.

LA SUMA NULA. Se dice que un juego es de suma nula si el total de las ganancias al final de la partida es cero; es decir, si el total de las ganancias es igual al total de las pérdidas. En el caso concreto campo de la economía, los juegos de suma nula se refieren a la no existencia de producción o destrucción de bienes durante el juego económico.

Respecto al gran juego, en 1968 Blackwell y Ferguson encontraron una solución para el caso particular de una suma nula, es decir, si los intereses del Rey y su hijo fuesen los mismos, pero opuestos. Ello podría ocurrir si suponemos que, cogido en falta, el hijo pudiera salir de la cárcel y alcanzar la libertad pagándole al Rey una cierta cantidad C de dinero diaria. Por el contrario, si regresara el Rey y encontrase a su hijo gobernando, para recuperar el Rey su reinado, diariamente tendría que pagar al hijo esa misma cantidad C. En tal situación, de suma nula, matemáticamente la mejor estrategia para el Rey sería escoger al principio un número N grande y cada día calcular el valor D = N + A - B . En esta expresión A sería, hasta entonces, el número de días verdaderos de gobernación del hijo y B los días que, también hasta entonces, hubiera holgado. La probabilidad de regresar del Rey, cada día, sería la de la inversa del cuadrado de D.

LA SOLUCIÓN. Las cosas permanecieron así durante unos diez años, hasta que, en 1981-1982, Mertens y Neyman fueron capaces de extender la solución a juegos con más de dos posibles resultados. Pero aun permanecía la restricción de la suma nula, es decir, que lo que un jugador perdiese habría de equivaler, exactamente, a la ganancia del otro.

Han tenido que transcurrir otros 17 años para que un matemático francés, Nicolas Vieille, encuentre lo que parece ser una solución compleja, pero definitiva al problema del gran juego, a través de una serie de cuatro artículos publicados desde 1992 hasta el presente. En todo caso, no se trata de una prueba constructiva. Por ello, en bastantes ocasiones, no se puede dar una solución concreta, como la del cuento del Rey y su hijo, sino simplemente alcanzar la conclusión de saber que existe solución. De cualquier modo, los expertos en la Teoría de Juegos opinan que el obtenido es un gran logro, que ha necesitado el uso de herramientas muy sofisticadas de todas las ramas de las matemáticas, desde la geometría algebraica a la teoría ergódica (derivada de la mecánica estadística).

Lo que parece evidente es que el hecho de haber encontrado soluciones al problema general del gran juego dará lugar a la aparición de nueva clases de modelos, más adecuados que los existentes, para estudiar cualquier clase de fenómenos de conflicto y de cooperación. También está claro que tales modelos serán de gran utilidad para el estudio científico de todo tipo de interacciones sociales y económicas.






________________________________________________


En: www.laverdad.es

Autorizado por el Profesor Dr. José Antonio Lozano Terue


http://canales.laver...lud/Indice.html



___________________________________________________






#2 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 10 agosto 2008 - 09:35






smile_031.gif

En:




Por José Antonio Lozano Teruel

Catedrático de Bioquímica y Biología Molecular.

Facultad de Medicina.

Universidad de Murcia.




MATEMÁTICAS



...Y AL PRINCIPIO FUE EL CAOS

03-07-1994


En la Cosmología griega las primeras nociones sobre el caos lo asimilaban a la oscuridad del inframundo, de modo que fue Caos quien engendró a Erebo (obscuridad) y a Nyx, quien a su vez dio lugar a Éter (el brillante aire superior) y a Día, antes de que originase los aspectos negros y horrendos del universo: Sueño, Muerte, Guerra y Hambre.

En la Metamorfosis de Ovidio, el Caos adquiere su consideración clásica de materia confusa y previa para todas las cosas que habían de ser creadas con posterioridad. Sin embargo, en la Genealogía de los dioses paganos, escrita por Giovanni Bocaccio, durante los años que mediaron entre la terminación del Decamerón, en 1350, y su muerte, acaecida en 1365, aparece otro concepto. Se relata que para quienes, como Teodoncio, creían que la Tierra era la creadora de todas las cosas, estaba establecido que dentro de ella existía una mente divina denominada Demogorgón. Es decir, el padre y origen de todos los dioses paganos, cuyos compañeros eran la Eternidad y el Caos.

CAOS. Es evidente que en la actualidad el caos puede ser abordado de un modo menos misterioso y cosmológico, de una forma incluso literariamente tan deliciosa como lo ha hecho en un artículo mi buen amigo, psiquiatra y escritor, el doctor Francisco Carles. Pero ahora hemos de referirnos a los aspectos científicos del caos, definido, en principio, como una cualidad de un sistema matemático determinista en el que existe una extrema sensibilidad a las condiciones iniciales. El término determinista significa que el sistema considerado está sujeto a las normas y reglas científicas establecidas, por lo que es posible que, respecto a la evolución inmediata del mismo, se puedan hacer predicciones seguras mediante la aplicación de esas leyes. Claro que la segunda característica, la de la extrema sensibilidad, hace que para plazos o tiempos prolongados, se produzca una complejidad del tratamiento, lo que convierte en totalmente impredecible su evolución o situación a largo plazo. Por eso, un sistema de este tipo se denomina caótico, debiendo quedar claro, desde ahora, que nos estamos refiriendo a un caos determinista, que matemáticamente se corresponde a lo que se denomina una dinámica no lineal, aunque ello no tiene nada que ver con la acepción gramatical de nuestra Real Academia Española del concepto caos como confusión, desorden.

Lo que resulta realmente interesante es que muchos sistemas físicos y, por ende, biológicos e incluso fisiológicos posean esa cualidad de sistemas caóticos, cualidad que quizá comprendamos más fácilmente con un ejemplo. Supongamos que vertemos una pequeña cantidad de colorante rojo alimenticio en una masa pastosa de caramelo en elaboración, masa que una máquina va extendiendo y doblando sucesivamente. A partir de la situación inicial, y conociendo los parámetros del sistema y de la máquina, es evidente que, con bastante aproximación, se podría calcular donde estarán situadas las partículas del colorante en la siguiente vuelta. Pero, también resulta claro que, al cabo de poco tiempo, será imposible conocer el rastro de tales partículas coloreadas conforme se extiendan a través de la masa. La trayectoria se pierde porque sería imposible generalizar las funciones matemáticas precisas que permitiesen predecir en cada momento el paradero de cada partícula de colorante. Para conseguirlo se requeriría una precisión fuera de toda comprensión.

MECANICISMO. Este ejemplo nos sirve para evidenciar la imposibilidad de que en la práctica sea viable alcanzar el mecanicismo total expresado en 1814 por Laplace: "Una inteligencia que conociera todas las fuerzas que animan la naturaleza, así como la situación respectiva de los seres que la componen...podría abarcar en una sola fórmula los movimientos de los cuerpos más grandes del universo y los del átomo más ligero; nada le resultaría incierto y tanto el futuro como el pasado estarían presentes a sus ojos".

La realidad es que este mecanicismo radical de Laplace hizo aguas por varias razones: en primer lugar, porque existen sistemas complejos con tantas variantes que resulta totalmente imposible seguir la huella de cada una de ellas a lo largo del espacio o del tiempo. En tales casos, únicamente cabe acudir a la ayuda de las leyes estadísticas, estocásticas o probabilistas. En segundo término, porque las partículas elementales, los núcleos, los átomos y las moléculas constituyen sistemas cuánticos, cuyas leyes difieren de las de Newton extrapoladas por Laplace. Y, en tercer lugar, el aspecto que nos interesa hoy, la existencia de los sistemas denominados caóticos, que a pesar de presentar un aspecto simple y con pocos grados de libertad poseen, sin embargo, un comportamiento muy complejo que los hace ser simultáneamente deterministas (a corto plazo) e impredecibles(a mayor tiempo).

La causa radica en que, aunque están sujetos a las leyes físicas deterministas, también presentan otras trayectorias o cambios complejos. En tal situación, lo que podríamos considerar como errores, crecen de una manera violenta e incontrolada. Como es imposible conocer el estado actual de un sistema de este tipo con total precisión (matemáticamente el equivalente a infinitas cifras decimales), ello hace que al cabo de un tiempo el error acumulado sea tan grande que no tenga sentido cualquier predicción al respecto. La razón radica en que al transformarse el sistema se va destruyendo información por la acumulación de errores, por lo que pronto existe una total inseguridad respecto a los números que pudieran expresar matemática y físicamente el estado del sistema. Es a este fenómeno al que se refería el Premio Nobel Prigogine al afirmar que estamos condenados a ver el mundo a través de una ventana temporal.

SISTEMAS BIOLÓGICOS. De gran importancia es que, desde el comienzo de la década de los 80, se haya ido comprobando que muchos sistemas biológicos, incluso fisiológicos básicos, se comportan como sistemas caóticos, por lo que en los últimos 5 años se han ido desarrollando reglas para aplicar la teoría del caos a la Biología y a la Medicina. Ya parece evidente que es hora de abandonar creencias tradicionales como que la salud está asociada a sistemas periódicos y ordenados, mientras que la enfermedad o el envejecimiento lo estarían en alteraciones de ese orden. Más bien existen muchos ejemplos demostrativos de lo contrario, de que los procesos fisiológicos en situación de salud pueden constituir un rico muestrario para los estudios sobre el caos, los fractales y las dinámicas no lineales. La Investigación sobre estos temas, aparentemente tan esotéricos, puede derivar en consecuencias inmediatas e interesantes sobre el conocimiento de los efectos de las enfermedades y otras disfunciones. Tanto es así que Rossler, uno de los pioneros en estos campos, ha llegado a decir que "la Fisiología es la madre del caos", mientras que para Henry Adams "el caos engendra vida, mientras el orden crea hábito".

Tendremos que volver a insistir en alguna de estas cuestiones. Hasta tanto, puede servirnos de referencia la consideración de que la importancia del caos biológico descansa en el hecho de que las variables que gobiernan su geometría espacial y temporal pueden ser muy pequeñas en cuanto a su número y fraccionales en cuanto a sus dimensiones. Se abren así las posibilidades de que si, en un momento y lugar adecuados, se introduce en el sistema una variación de pequeña energía se pueden ocasionar importantes y complejas consecuencias deterministas, previsibles. Recientemente así ha sido comprobado por el grupo del Dr. Spano, en sus estudios sobre la dinámica de los latidos cardíacos, sistema asimilable a los caóticos. Analizadas sus características, con un pequeño impulso eléctrico individual aplicado, han sido capaces de cambiar la dinámica cardíaca desde el estado de ritmicidad al de arritmicidad, y viceversa. También resulta muy sugestivo el que la dinámica del caos parece aplicable a procesos biológicos tan importantes como la expresión de los genes o la traducción biológica de sus mensajes genéticos.


_______________________________________________________________






#3 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 22 agosto 2008 - 05:40






En:







Por José Antonio Lozano Teruel

Catedrático de Bioquímica y Biología Molecular.

Facultad de Medicina.

Universidad de Murcia.


_________________________





MÁS CAOS

31-07-1994


En 1975, Tien-Yien Li realizaba su doctorado en matemáticas en la Universidad de Maryland, USA, dirigido por el Dr. James A. Yorke, junto con quien preparaba la publicación de un artículo en el American Mathematical Monthly sobre un oscuro concepto matemático conocido como período tres. Li se resistía a las sugerencias que, respecto al posible título, le hacía su director, ya que lo consideraba demasiado arriesgado.

Finalmente, Tien-Yien Li fue convencido y la palabra caos, un concepto vivo e imaginativo, pero hasta entonces poco relacionado con la Ciencia, tuvo su entrada en el vocabulario científico. Hoy, ese artículo es famoso y sigue citándose continuamente, mientras que con otro título probablemente nunca hubiese alcanzado cierta relevancia.


CAOS DETERMINISTA.



En ocasión anterior hemos abordado la existencia de los sistemas caóticos y, por tanto, de lo que perfectamente se puede llamar Ciencia y teoría del caos, lo que a primera vista pudiera sorprender, ya que todos intuimos que lo que pretende la Ciencia es, precisamente, descubrir el orden oculto de las cosas. Pero no existe ninguna contradicción al respecto. Los avances de los últimos años han hecho descubrir nuevas facetas de lo que se conoce como caos determinista, es decir, sistemas simples que siguen leyes deterministas no lineales y que poseen una dependencia muy sensible respecto a sus condiciones iniciales.

Ello significa que pueden evolucionar de un modo tan complejo que en la práctica esa evolución se hace imprevisible, de una manera aparentemente similar a lo que ocurre con los sistemas de azar.

Resulta inevitable la descripción probabilista de tales sistemas, que han mostrado no ser excepcionales. Cubren aspectos tan variados como los movimientos de planetas y objetos estelares en el sistema solar, la frecuencia de las lluvias, los cambios climáticos, la propagación de muchas epidemias, las fluctuaciones de la Bolsa, la frecuencia de los ritmos cardíacos y otros muchos más ejemplos. Son muestras de casi todos los campos científicos y sociales de nuestro entorno, que pueden estudiarse a través de la acuñación de un nuevo concepto, el de ergodicidad, es decir, la propiedad por la cual se pueden aplicar los métodos estadísticos a sistemas que obedecen a leyes deterministas no lineales. Y aquí reside el quid de la cuestión, ya que los matemáticos dividen las ecuaciones que modelan los sistemas físicos en lineales y no lineales. Las ecuaciones lineales pueden sumarse, superponerse, para obtener otra solución resultante. Ocurre como con las pequeñas olas de agua superficiales, que pueden interaccionar entre sí, superponiéndose sus consecuencias. Sin embargo, las ecuaciones no lineales, como las que caracterizan a los sistemas caóticos, no se suman de ese modo y sus interacciones son más complicadas. Lo mismo sucede entre las grandes olas del océano, de manera que dos grandes olas se pueden combinar produciendo un resultado complejo de mayor magnitud que su simple suma, lo que puede conducir al hundimiento de un gran barco.


SISTEMAS BIOLÓGICOS.



Tal como indicamos en un artículo anterior, en esta ocasión vamos a considerar, aunque sea superficialmente, la relación entre caos y sistemas biológicos, recordando que los primeros que se interesaron por ello fueron los ecólogos que trabajaban en la dinámica de las poblaciones vegetales y animales. Así, ya en 1987, Michael Hassel del Imperial College de Londres, fue capaz de simular la evolución de una población de insectos con una dinámica que era mezcla de caos determinista y de un ruido o fondo aleatorio. Los intentos conducentes a poder separar y analizar ambos tipos de señales se vieron facilitados, en los años 80, por unas técnicas inspiradas en los objetos matemáticos conocidos como atrayentes extraños. Se trata de técnicas de tipo fenomenológico que permiten hacer previsiones a corto plazo sin necesidad de llegar a tener que comprender los mecanismos biológicos básicos ni las interacciones que puedan estar ejerciendo.


De esta guisa, William Schaffer, de la Universidad de Arizona, y Mark Kot, de la Universidad de Tennessee, hace unos años fueron los primeros en aplicar estos métodos al estudio epidemiológico de los casos de sarampión habidos en Nueva York entre los años 1824 y 1963. Inmediatamente fueron seguidos por otras muchas investigaciones epidemiológicas, todas las cuales condujeron a la conclusión general de que el modo más fácil de ajustarse a la realidad era la de considerar que los datos se habían engendrado en un proceso caótico. De los resultados se extrajeron conclusiones útiles sobre la previsión de eventuales olas epidémicas futuras así como de cuál sería el mejor momento para iniciar las adecuadas vacunaciones.

Otro ejemplo ilustrativo lo constituye el de las fluctuaciones del ritmo cardiaco, que analizadas cuidadosamente también responden a un comportamiento caótico.

El ritmo cardiaco, en ausencia de estímulos externos, en lugar de relajarse a un estado homeostático regular, lo que hace es sufrir fluctuaciones con una dinámica de tipo caótica, habiéndose demostrado en este caso la existencia de uno de los característicos atrayentes extraños, que son propios de los sistemas caóticos. En otros laboratorios, analizando electroencefalogramas de individuos sanos se ha concluido con que hay pruebas de la existencia de caos en el sistema nervioso. Asimismo, investigadores de la Universidad de Tubinga han descubierto comportamiento de caos en componentes del sistema nervioso responsables de la secreción hormonal, tras un meticuloso análisis de los niveles hormonales de un gran número de individuos sanos. En otro orden de cosas, el polimorfismo genético de los seres vivos puede verse favorecido a través de las propiedades dinámicas de las asociaciones huésped-agente patógeno cuyos comportamientos también parecen responder a las reglas del caos.

La conclusión general, de acuerdo con la expresiva frase de Einstein de que Dios no juega a los dados, es la de que muchos sistemas biológicos están sometidos a leyes deterministas no lineales.

Ello implica necesariamente que es normal que los comportamientos caóticos (que no es lo mismo que comportamientos al azar) sean, al menos, tan frecuentes como los comportamientos cíclicos y estacionarios. Más aun, debido a que los sistemas caóticos funcionan bajo un amplio abanico de condiciones, que son muy adaptables y flexibles, ello les proporciona mejores armas para responder a un ambiente que puede ser cambiante e impredecible. Muchas funciones corporales pueden tener en su comportamiento caótico un símbolo o señal de su buena salud, mientras que un modelo periódico puede ser indicativo de enfermedad. De hecho se ha comprobado que muchas patologías exhiben comportamientos más regulares cuando más graves son, tal como se ha deducido del análisis de miles de electrocardiogramas en personas con diversas patologías cardíacas. Es de esperar que el progreso en la profundización de los sistemas no lineales caóticos en el futuro pueda proporcionarnos importantes informaciones fisiopatológicas sobre las características de procesos tales como el envejecimiento y la enfermedad.



__________________________________________






#4 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 27 agosto 2008 - 06:56




smile_031.gif

En:





Por José Antonio Lozano Teruel

Catedrático de Bioquímica y Biología Molecular.

Facultad de Medicina.

Universidad de Murcia.


________________________________________________


ELEGIR BIEN


03-03-1996


Las tradiciones, religión y leyes judías se basan en los antiguos preceptos del Talmud. Allí se narra el caso de un varón casado con tres mujeres, cuyos correspondientes contratos matrimoniales establecían que, en caso de quedar viudas, recibirían cifras de 100, 200 y 300, respectivamente, para cada una de ellas. Pero ¿qué ocurriría si los bienes del difunto son inferiores a 600?.

El Talmud establece que para una herencia total de 100 se realizará un reparto por igual (33 y un tercio) para cada viuda. Si la suma total alcanza o supera los 300, el reparto será proporcional (a 50, 100 y 150). Pero si la cantidad a repartir es de 200 se recomienda una intrigante proporción: 50, 75 y 75. Durante casi dos mil años los estudiosos trataron de interpretar esas cifras, hasta que, en 1958, se descubrió que en realidad esas cifras se amoldaban a las obtenidas con la moderna y matemática TEORÍA DE JUEGOS, correspondiendo cada solución a un concepto definido en los llamados juegos corporativos, dentro de la Teoría de Juegos.

JOHANN VON NEUMANN.


La teoría de juegos es la rama de las matemáticas que analiza situaciones competitivas cuyo desarrollo depende no solo de la elección, incluso la suerte, de uno mismo ante varias alternativas, sino también de las que hagan los otros participantes o jugadores. En consecuencia, se trata de la estrategia de saber elegir bien. Ejemplos típicos serían el ajedrez, dominó, póker o bridge, con normas establecidas respecto a jugadas y estrategias, con las que cada jugador (individuo, parejas o colectivos) busca su éxito respecto a los contrincantes. Como la idea del máximo bien para el máximo número es irrealizable (MAXIMAXI), se puede aplicar el principio alternativo MINIMAX. Ya en 1713 James Waldgrave fue capaz de hallar la primera solución conocida de estrategia mixta minimax respecto a un juego de cartas.

Johann von Neumann fue un extraordinario matemático húngaro-germano-americano (1903-1957) que realizó geniales contribuciones en campos dispares: física cuántica, lógica, meteorología u ordenadores. Y es a él a quien se debe la moderna teoría de juegos. En 1928 probó el llamado teorema minimax y en 1944, junto al economista Oskar Morgenster, escribió el famoso libro TEORÍA DE JUEGOS Y COMPORTAMIENTO ECONÓMICO. Ello estimuló el rápido y generalizado desarrollo de las teorías matemáticas aplicadas a la economía, política, ciencias militares, negocios, leyes, deportes, biología, etcétera, es decir, a todas las actividades en las que intervienen decisiones estratégicas.

EL DILEMA DE LOS PRISIONEROS.


A.W. Tucker, en el transcurso de una clase dada en 1950, inventó este dilema, que podríamos actualizar en una forma muy libre con el nombre de dilema de los sospechosos: En unas elecciones generales, como las que se celebran en España en el día de hoy, se introduce un voto subrepticio en una urna. En las inmediaciones del colegio electoral se detienen a dos sospechosos de haber cometido el delito, cuyas iniciales son F.G.M. y J.M.A., respectivamente, a quienes se les conduce ante el juez B.G. Cada sospechoso, sea o no inocente, tiene las alternativas de confesar o no su culpabilidad y la de inculpar o no al otro sospechoso. El juez B.G. realizará el interrogatorio individualmente, sin que cada inculpado sepa lo declarado por el otro inculpado. Antes del interrogatorio B. G. decide que si los dos sospechosos se declaran inocentes ambos quedarán libres, con una pequeña fianza de cien mil pesetas para cada uno. Si ambos se declaran culpables e inculpan también al otro, la fianza se elevaría a un millón de pesetas por cabeza. Pero en el caso de que un sospechoso se declare culpable, inculpando también al otro sospechoso, pero este no confesase su culpabilidad, el juez B.G. dejará libre, sin fianza al que confiesa e impondrá al otro una fianza de cien millones de pesetas.

F. G y J.M.A. se plantean el problema estratégico de qué declarar, por lo que "racionalmente" reflexionan: "Si el otro decide confesarse culpable e implicarme y yo me confieso culpable tengo una fianza de un millón y si me confieso inocente la fianza será de 100 millones. En el caso de que el otro se declare inocente la alternativa de declararme culpable me deja libre, sin fianza, mientras que si me declaro inocente habré de abonar cien mil pesetas. Por tanto, en ambos casos lo más favorable para mí es declararme culpable". Tanto F.G. como J.M.A. piensan lo mismo y el resultado "racional" final es que los dos se declaran culpables. Ello da como resultado que cada uno de ellos ha de abonar una fianza de un millón de pesetas. Indudablemente esta no es la mejor solución económica, ya que si ambos se hubiesen declarado inocentes solo les hubiese costado cien mil pesetas, pero para ello tendrían que haber actuado "irracionalmente". Este tipo de ejemplo de juego sirvió, en su día, para definir los juegos de equilibrio de estrategias dominantes. En este caso confesarse culpable es la estrategia dominante y el que ambos jugadores actúen con ella conduce al equilibrio de estrategias dominantes.

NOBELES.


El desarrollo de la teoría de juegos ha conducido a complicados tratamientos matemáticos de las diferentes situaciones posibles en todo orden de cosas. Por ejemplo, el número de jugadores, posibles coaliciones o subdivisiones entre ellos, resultado de suma cero (lo que gana uno lo pierden otros) o de suma no-cero (posibilidad simultánea de ganar y perder), existencia o no de cooperatividad, etcétera. Por otra parte, el vertiginosos desarrollo de los ordenadores está posibilitando el análisis de situaciones cada vez más complejas. Un hecho significativo fue el de la concesión, en 1994, del Premio Nobel de Economía a John F. Nash, John Aarsanyi (americanos) y Reinhardt Selten (alemán) por su desarrollo de la teoría de juegos, pues según la Academia sueca de Ciencias: "cada jugador ha de desarrollar estrategias basadas en las previsibles acciones del resto de los jugadores... y tales interacciones estratégicas también caracterizan muchas situaciones económicas y la teoría de juegos ha resultado muy útil para los análisis económicos"

Refiriéndonos en concreto a Reinhardt Selten, nació en Breslau (actual Wroclawen Polonia), en 1930, es profesor de la Universidad de Bonn y perfeccionó los estudios de Nash sobre la diferenciación de juegos cooperativos y no cooperativos, en los que se aplica el llamado equilibrio de Nash. El trabajo de Selten consiguió la reducción de "equilibrios de Nash no interesantes" así como la aplicación de nuevos conceptos como la "perfección del subjuego" o el "equilibrio de mano temblorosa". Todo ello ha sido determinante para la realización de muchos recientes estudios sobre política económica, oligopolios, organización industrial, teorías macroeconómicas sobre políticas económicas, etcétera. Por ello, es noticia de interés indicar que el próximo miércoles día 6 de marzo, patrocinado por CajaMurcia y otras instituciones, en su Aula Cultural de Murcia, los matemáticos, economistas o simplemente curiosos de la teoría de juegos podrán tener la oportunidad de escuchar al propio profesor Selten en una disertación sobre la Teoría de Juegos.


____________________________________________________








#5 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 05 septiembre 2008 - 03:28






smile_031.gif





Por José Antonio Lozano Teruel

Catedrático de Bioquímica y Biología Molecular.

Facultad de Medicina.

Universidad de Murcia.


_______________________________________________


6. LAS MATEMÁTICAS, FÍSICA Y QUÍMICA

6.1. Matemáticas



EL FUTURO ES BORROSO

24-07-98




En 1950 el gran filósofo galés Bertrand Russell recibió el Premio Nobel de Literatura. Pero, sin duda, sus aportaciones más importantes e imperecederas son las encuadradas dentro de la filosofía y de la lógica matemáticas. A principios de siglo Russell se interesó por la vieja paradoja griega del cretense que afirmaba que todos los cretenses mienten. En tal caso, ¿miente el cretense?. Si miente al hacer la afirmación, entonces no está diciendo la verdad, es decir, no miente. Pero si no miente, está diciendo la verdad, es decir, miente.

La contradicción del cretense es evidente: su enunciado, simultáneamente, resulta ser cierto y falso. Pero, aunque lo parezca, este ejemplo no es una simple paradoja. Sus derivaciones actuales marcan multitud de procesos industriales, informáticos o económicos. En realidad esta paradoja se relaciona con el mismo corazón de la teoría de conjuntos y de la lógica moderna. El mismo Russell ya encontró otra paradoja semejante en la teoría matemática de los conjuntos. El conjunto de todos los conjuntos es, a su vez, otro conjunto, por lo que sería miembro de sí mismo. Pero, si pensamos, por ejemplo, en el conjunto formado por todas las naranjas, no sería un miembro de sí mismo, ya que sus miembros son naranjas y no conjuntos. Entonces Russell se preguntó ¿es el conjunto de todos estos conjuntos, que no son miembros de sí mismos, un miembro de sí mismo?. Si lo es, no lo es, pero si no lo es, entonces lo es. Nuevamente la paradoja contradictoria.


ARISTÓTELES Y LOS ORDENADORES.



Intentaremos aclarar este embrollo, es decir, la contradicción existente entre la lógica clásica y la lógica borrosa o difusa. El origen de sus diferencias radica en lo que Aristóteles expuso como ley del tercio excluso. Lo usual en la teoría de conjuntos es que un objeto cualquiera pertenezca a un conjunto o bien no pertenezca a él, sin términos medios posibles. Así, una persona a la que le falta un brazo pertenece al conjunto de los mancos y no pertenece al conjunto de los no mancos. O el número 4 forma parte del conjunto de los números pares, pero en absoluto del de los números impares. Un objeto no puede pertenecer simultáneamente a un conjunto y a su complementario.

El funcionamiento de los ordenadores se basa en este tipo de lógica. El "razonamiento" de un ordenador consiste en tratar con situaciones concretas y precisas que se corresponden a la disyuntiva verdadero / falso, a través de un lenguaje binario consistente en series de unos y ceros. Pero al cerebro humano no le basta con esta lógica tradicional, sino que utiliza expresiones más inciertas e indeterminadas que incluyen juicios de valor: "esta naranja está bastante jugosa", "la subida de la bolsa está siendo relativamente elevada", "este joven está suficientemente preparado" o "ayer hizo un día fresco y hoy es caluroso".


LA LÓGICA BORROSA.



La Inteligencia Artificial pretende construir sistemas capaces de realizar las mismas funciones que caracterizan al pensamiento humano mientras que los Sistema Expertos son aplicaciones informáticas que adoptan decisiones o resuelven problemas de índole variada (industriales, económicos, tácticos, médicos), utilizando los conocimientos y las reglas analíticas definidas por los expertos en esos campos. El nexo de unión entre la Inteligencia Artificial y los Sistemas Expertos es la lógica borrosa. Mediante la lógica borrosa la Inteligencia Artificial se aplica a los ordenadores a fin de transformar el blanco / negro de la lógica ordinaria hasta los tonos de grises que caracteriza nuestra percepción de un mundo que es incierto.

La lógica clásica no tenía contestación para la paradoja del cretense. Para la lógica borrosa sí la hay: el cretense es un 50% veraz y un 50% mentiroso. Algo puede ser simultáneamente una porción de verdadero y la porción complementaria de falso. Fue el lógico polaco Jan Lukasiewick quien, a principios de siglo, desarrolló los principios de la que se denominó lógica multievaluada o lógica borrosa. Los enunciados de esta lógica pueden poseer valores fraccionarios situados entre el 0 y el 1 de la lógica binaria. Otro gran protagonista de esta teoría fue el matemático de origen austriaco Karl Meyer, quien había realizad, además, grandes aportaciones a la geometría, a la economía matemática, a la ética racionalista e, incluso, a la lógica deóntica. En 1951 publicó unos artículos en los que introdujo una serie de conceptos pioneros para la teoría de los conjuntos borrosos. El tercer gran protagonista científico es el actualmente profesor emérito de la Universidad de California, Lofti A. Zadeh, con su publicación FUZZY SETS (Conjuntos borrosos), que marcó un hito, sirvió de bautizo para esta disciplina borrosa e incluyó a la lógica tradicional como un caso particular de la borrosa.


CONJUNTOS BORROSOS.



A los conjuntos borrosos, pues, solo se pertenece en parte. Sus bordes están difuminados, por lo que la condición de pertenencia no es un escalón sino una curva. La condición más obvia es que la suma de los grados de pertenencia de un objeto a conjuntos complementarios debe ser la unidad. Por ejemplo si el aire de una habitación con acondicionador nos parece fresco en un 80% es porque debemos considerarlo como no fresco en un 20%.

El gran éxito de la lógica borrosa, plasmada en forma de desarrollos matemáticos, ha sido el de su aplicación, ya que está resultando ser muy útil para modelar infinidad de sistemas continuos: físicos, biológicos, ingenieriles, económicos, industriales, etcétera, lo que se traduce en la construcción de electrodomésticos "inteligentes" (lavadoras, frigoríficos, acondicionadores), supervisión eficaz de multitud de procesos de manufactura e industriales, e, incluso, en la perfecta y más económica conducción de trenes y metros sin conductor. Hace siete años los responsables industriales japoneses ya calculaban que la categoría Productos Borrosos superaba en su país los dos mil millones de dólares, cantidad que se ha incrementado enormemente con la incorporación a esta filosofía de muchas empresas de Estados Unidos y Europa. Y es que, para resolver los problemas, los modelos de sentido común, borrosos, resultan ser mucho más útiles que los matemáticos normales. Por ello, en la próxima colaboración consideraremos algunos de los ejemplos más llamativos de la aplicación de la lógica borrosa. Y, sin duda, al futuro, en muchos de sus aspectos, podemos considerarlo cada vez más borroso.


_______________________________________________







#6 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 14 septiembre 2008 - 12:07




smile_031.gif

En:






Por José Antonio Lozano Teruel

Catedrático de Bioquímica y Biología Molecular.

Facultad de Medicina.

Universidad de Murcia.

______________________________________________________


6. LAS MATEMÁTICAS, FÍSICA Y QUÍMICA

6.1. Matemáticas


APLICACIONES DE LA LÓGICA BORROSA

31-07-98




Hace ya algún tiempo se celebró en Kobe, Japón, un Congreso Internacional sobre Células Pigmentadas al que nuestro grupo de Investigación había sido invitado para presentar unas ponencias. Lo que, de modo más inmediato e intenso, nos impresionó no fue ningún templo exótico japonés, sino que el Metro que nos trasladaba desde el centro de la ciudad al Palacio de Congresos no tenía conductor humano, aunque era conducido inteligentemente.

¿Qué significa que un sistema artificial actúe inteligentemente, con los esquemas de la Inteligencia Artificial?. Que no lo hace con la forma binaria verdadero / falso, sino de un modo parecido al razonamiento humano, con reglas de la forma "si...., entonces...", usando los principios, que en la divulgación de la semana pasada exponíamos, como propios de los conjuntos borrosos. La lógica borrosa o difusa transforma entradas en salidas, un conjunto borroso en otro. Las reglas de un conjunto borroso definen un conjunto de zonas que se solapan entre sí, relacionando una serie completa de entradas con otra serie completa de salidas

Ello se consigue aplicando los Sistemas Expertos, que utilizan la información previamente suministrada por expertos en cada campo concreto. De este modo, el sistema funciona flexiblemente en respuesta a las situaciones concretas tales como serían, en el caso del Metro, las variaciones en el número de viajeros, las condiciones del trayecto, las características de las vías, los imprevistos, etcétera. En realidad, la primera aplicación práctica de la lógica borrosa ya tuvo lugar en 1973, cuando el científico británico Ebrahim H. Mamdani inventó un controlador borroso para un motor de vapor controlado por 24 reglas. Pero el primer éxito espectacular japonés de la aplicación de la lógica borrosa se situó unos años después, con el Metro de la ciudad japonesa de Sendai.


METRO DE SENDAI.



El proyecto era difícil, ya que un Metro es un sistema que funciona en tiempo real y, por tanto, los sistemas de control deben regular los cambios no solo en el momento de producirse sino anticipándose a ellos. El tema fue abordado por los investigadores Shoji Miyamoto y Seiji Yasunobu y el 15 de julio de 1987 tuvo lugar la inauguración. La conducción resultó ser más suave que cualquier otra previamente conocida controlada, humana o mecánicamente. La precisión de la frenada fue de 7 cm, mientras que la realizada por un conductor suele superar los 20 cm. Las aceleraciones y desaceleraciones resultaron ser mucho más suaves. El número de cambios de marcha se redujo a un tercio de los de la conducción humana o de los controlados informáticamente por sistemas no borrosos. Todo ello redundó, además, en un ahorro del 10% de energía. No es de extrañar que pronto el Ayuntamiento de Tokio contratase a Hitachi para que instalase sistemas borrosos de control en buena parte de la gran red del Metro de Tokio.

Tampoco fue ilógico el que en Japón, hacia 1988, se produjese una especie de "boom" de la lógica borrosa. En consecuencia, actualmente más de cien empresas, entre ellas muchas de las mayores, realizan Investigación y desarrollo en estos campos, con miles de patentes realizadas, de las que, aproximadamente, un millar están en explotación.



CHIPS BORROSOS.



Los productos borrosos ejecutan algoritmos borrosos de inferencia. Para ello usan sensores que miden las condiciones de entrada variables así como microprocesadores especiales diseñados para almacenar y procesar las reglas borrosas suministradas por los Sistemas Expertos. El primer circuito digital borroso se produjo en 1985 en los laboratorios AT&T BELL. Procesaba unas 80.000 inferencias lógicas borrosas por segundo. Diez años después la capacidad se había multiplicado por un factor de 30.

La mayoría de las empresas de microprocesadores investigan el desarrollo de circuitos borrosos, aunque una buena parte de los productos ofrecidos comercialmente siguen basándose en microprocesadores corrientes a los que los ingenieros programan con unas pocas líneas de códigos de inferencia borrosa. A pesar de ello, el mercado mundial de los microprocesadores borrosos alcanza cuantías superiores a los miles de millones de dólares anuales.

En cualquier caso, las reglas de los sistemas borrosos, su dependencia de instrucciones confeccionadas por expertos, constituye su punto débil. Para automatizar el proceso se intentan construir sistemas adaptativos basados en las conocidas como redes neuronales artificiales que puedan llegar a ser capaces de afinar, o incluso formular, las reglas iniciales. Constan de "neuronas" y "sinapsis" (componentes de silicio o ecuaciones escritas en soportes lógicos), que simulan el comportamiento neuronal, modificándose los valores en respuesta a los estímulos procedentes de sinapsis y neuronas circulantes, de modo que cada "neurona" procesa todas las señales de entrada procedentes de otras "neuronas" y emite una señal en forma de respuesta numérica.



APLICACIONES.



Las aplicaciones de los sistemas borrosos inteligentes se han ido haciendo innumerables, en cualquier campo que consideremos. Así, a partir de 1975, en Europa se desarrollaron sistemas de control borroso, iniciados con una planta de agua caliente en Holanda, sistemas intercambiadores de calor en Dinamarca, o una planta de sinterización para la BRITISH STEEL Co. en el Reino Unido. También en Dinamarca el científico Holmblad desarrolló un sistema de control borroso para un horno cementero que constituyó el primer gran éxito industrial al ahorrar combustible y mejorar a los operadores humanos. Desde 1982 se pudo aplicar un lenguaje especial de programación numérico sustitutivo de las previas reglas lingüísticas de control, con lo que el proceso se aplicó a centenares de instalaciones industriales.

En Japón, la ingeniería borrosa se hizo realidad con el control de una planta de purificación de agua, para la compañía FUJI ELECTRIC, en 1982. Otro hito fue el desarrollo de un robot (un automóvil en miniatura) con capacidad de reconocimiento del habla y de comprensión, adaptando las instrucciones "con sentido común", a las condiciones concretas de la conducción. En 1988 se lanzó el primer producto borroso mundial de consumo: un aparato para regular a voluntad la temperatura de salida del agua de un grifo con suministro de agua fría y caliente. Las válvulas correspondientes obedecen a un controlador borroso, un microprocesador de 4 bits, que determina la temperatura y flujo de salida en respuesta a un mando manual exterior.

Actualmente existen todo tipo de instrumentos, máquinas y procedimientos controlados borrosamente, adaptándose "inteligentemente" a cada situación particular: acondicionadores de aire, frigoríficos, lavadoras / secadoras, aspiradoras, hornos microondas, mantas eléctricas, ventiladores, autoenfoques fotográficos, estabilizadores de imágenes en grabadoras de vídeo, transmisiones de automóviles, suspensiones activas, controles de ascensores, dispensadores de anticongelantes para los aviones en los aeropuertos, sistemas de toma de decisiones industriales o económicas, y un largo etcétera en el que se incluye hasta un helicóptero no tripulado, cuyo prototipo, de más de 4 m. de envergadura ha sido capaz de mejorar al convencional, consiguiendo su estabilización tras perder una pala, cosa que ningún piloto humano ha logrado jamás.

Una vez más la experiencia nos demuestra, pues, como un concepto inicialmente básico, tan abstracto como el de los conjuntos o la lógica borrosa, puede convertirse, en relativamente poco tiempo, en aplicaciones útiles para nuestra vida diaria y el progreso de la Humanidad.



_________________________________________________






#7 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 28 septiembre 2008 - 08:11





En:








Por José Antonio Lozano Teruel

Catedrático de Bioquímica y Biología Molecular.

Facultad de Medicina.

Universidad de Murcia.

______________________________________________________


6. LAS MATEMÁTICAS, FÍSICA Y QUÍMICA

6.1. Matemáticas




LOS JUEGOS DE RUSSELL CROWE

24-02-2002



Posiblemente, el filme "Una mente maravillosa", de inmediato estreno, será uno de los más destacados del año cinematográfico. Ha conseguido, por ahora, el mayor número de Globos de Oro. Lo que si se puede suponer es que el actor neozelandés Russell Crowe aspirará como uno de los más firmes candidatos, al Oscar al mejor actor masculino.

Lo hará por su interpretación del matemático John Forbes Nash, a quien se concedió el Premio Nobel de Economía el 11 de octubre de 1964, por sus trabajos pioneros sobre la teoría de juegos.

En esa fecha ya habían transcurrido varios años de su tremenda lucha contra la esquizofrenia, enfermedad que también ha hecho presa en su hijo. El profesor Nash, de 73 años de edad, aun vive, y trabaja como maestro emérito de matemáticas y ciencias aplicadas a la Investigación biológica en la Universidad de Princeton. En cuanto a las aportaciones de otro de sus compañeros Nobel, el profesor Selten, ya nos ocupamos oportunamente en estas páginas con ocasión de una visita y conferencia que impartió hace unos pocos años en Murcia.

JUEGOS.


Podemos definir un juego como una situación conflictiva en la que uno debe tomar decisiones sabiendo que los demás también lo hacen, y que el resultado del conflicto se determinará de algún modo como consecuencia de todas las decisiones realizadas. Un juego puede tener diferentes características. Por ejemplo, en los llamados juegos de información perfecta (damas, ajedrez, tres en raya) en cada situación el jugador cuenta, para decidir, con toda la información de los movimientos pasados y de los que en hipótesis dispone su oponente. La victoria, o la posición óptima, debe ser claramente conocida, y lo que gana un jugador procede totalmente de las pérdidas de otro(s), lo que se define con la denominación de "juegos de suma cero".

En otros juegos el conocimiento antes aludido o bien es incompleto o es nulo y el azar posee una importante participación.

En todo caso, ¿es posible el abordaje científico de los juegos?. ¿Se pueden extrapolar las consecuencias halladas a través de una posible Teoría de Juegos aplicándolas a situaciones de otro tipo, tales como toma de decisiones estratégicas, militares, económico-comerciales, etcétera?.

En realidad, la Teoría de Juegos trata de cualquier situación interactiva en la que una o más personas, de acuerdo con un reglamento u otras normas convenidas, comparten el control de un grupo de variables y en la que cada uno debe alcanzar decisiones en relación a las actividades o posiciones del conjunto. El éxito de cada individuo está determinado, no solo por la acción propia, sino por la del grupo. A través del juego se trata de establecer una ganancia medible matemáticamente (dinero, poder, honor, etcétera) como resultado del valor de lo realizado.

La realidad es que pueden existir conflictos entre seres racionales, que desconfíen uno del otro o pugnas entre oponentes que interaccionan y se influyen mutuamente, que piensan y que, incluso, pueden ser capaces de engañarse uno al otro. Este es el campo de estudio de la teoría de juegos basda en un análisis matemático riguroso de la consideración del conflicto desde un punto de vista racional.

La Teoría de Juegos plantea que debe existir una forma racional de jugar a cualquier juego, especialmente en el caso de haber muchas situaciones engañosas y segundas intenciones. Un buen ejemplo sería la adivinación mutua de las intenciones del contrario que ocurre en juegos como el póquer lo que da lugar a cadenas de razonamiento teóricamente infinitas.

Fue Nash quien introdujo la distinción entre juegos cooperativos y no cooperativos según la posibilidad de cerrar acuerdos, desarrollando un concepto de equilibrio para estos últimos conocido como "equilibrio de Nash". Se trata de una solución válida para cualquier número de jugadores y para cualquier objetivo de éstos. La información es perfecta e idéntica entre todos los jugadores, por lo que todos pueden calcular una estrategia óptima, así como la que seguirán los demás. Si todos esperan alcanzar el mismo equilibrio, nadie tiene incentivos para cambiar de estrategia. En este equilibrio, todos los jugadores alcanzan sus objetivos y las estrategias elegidas son óptimas.

Nash propuso una segunda formulación de su equilibrio basada en la estadística de poblaciones, que ha sido trasladada con éxito a la biología para entender los procesos de interacción estratégica entre especies en la selección natural. Tambien, desde esta perspectiva, los conflictos en el ámbito económico pueden considerarse como juegos, sujetos a las leyes preestablecidas

NASH.


Algún tiempo después de recibir junto a John C. Harsanyi y Reinhard Selten el Premio Nobel de Economía, John Forbes Nash escribió unos folios autobiográficos relatando los hechos más destacados de su existencia, desde su nacimiento el 13 de junio de 1928 en Bluefield, West Virginia, USA. Su ambiente familiar fue estudioso, no en vano su madre era profesora y, tras los pasos de su padre, primero quiso ser ingeniero eléctrico, después cambió a la ingeniería química y, siguiendo los consejos de sus profesores de matemáticas, terminó graduándose en Matemáticas en su High School..

En 1947 Nash llega a la Universidad de Princeton cuyo Departamento de Matemáticas era ferozmente competitivo. Pronto fue apodado "el misterioso genio de Virginia Oriental", y sin haber estudiado en ninguna escuela preparatoria de prestigio ni poseer una sólida fortuna familiar logró ingresar en la confraternidad universitaria más prestigiosa de Princeton, la Liga de Hiedra.

Estimulado por las lecturas de los trabajos de von Neumann and Morgenstern se interesó por la Teoría de Juegos, y cierta noche, mientras estaba con sus compañeros en un bar, cristalizó la idea que le había estado obsesionando. El resultado fue un cambio en las matemáticas de la Teoría del Juegos no cooperativos. Con ello contradijo las doctrinas de Adán Smith, el padre de economía moderna, así como puso punto final a ciento cincuenta años de conceptos aceptados como verdaderos pero que se convirtieron en abruptamente anticuados.

Su fama se acrecienta. En 1951 ganó un codiciado puesto de Investigación y enseñanza en el Instituto Tecnológico de Massachussets, y allí conoció a una estudiante de Física, de origen salvadoreño, Alicia Larde (en el filme representada por la actriz Jennifer Connelly), con la que contrajo matrimonio en 1956. Durante ese periodo de tiempo abordó brillantemente variados problemas relacionados con la geometría diferencial y la relatividad general, con probar la incrustabilidad de los múltiples espacios abstractos riemannianos en los espacios planos euclideanos, y un largo etcétera.

ESQUIZOFRENIA.


Como el mismo Nash escribió, fue a principios de 1959 cuando se manifestaron claramente sus signos de esquizofrenia paranoica. Por ejemplo, irrumpió en una reunión de profesores con un ejemplar del New York Times en su mano, afirmando que una determinada información era un mensaje cifrado procedente de otra galaxia.

Temporalmente, creía en alienígenas y que la Biblia estaba llena de mensajes secretos. Durante los siguientes 30 años su vida transcurrrió entre internamientos hospitalarios y el campus universitario donde se le apodó com "El fantasma". Pero Nash decide luchar contra una enfermedad considerada no solo incurable, sino también degenerativa. Su lucha por la recuperación progresó y en 1994 se le concedía el Premio Nobel. En sus intermedios vitales de relativa normalidad sus aportaciones científicas han continuado siendo de excepcional importancia.

Y, cuando alguien le preguntó por qué razón creía en esas visiones, Nash contestó que se le presentaban del mismo modo que sus grandiosas intuiciones y soluciones científicas. Entonces, ¿por qué no creer en ellas?. En otra ocasión, reflexionando sobre la relación del hombre con el cosmos, indicaba que para un no zoroastriano, Zarazustra sería simplemente un hombre loco que indujo a millones de seguidores a adoptar un culto al fuego, pero que sin esa locura, el gran reformador de la religión persa hubiese sido simplemente uno de entre miles de millones de seres humanos cuya vida sería totalmente desconocida e ignorada,

Tras la filmación de Una Mente Maravillosa Crowell tuvo un encuentro con Nash a quien le ofreció tomar café o té.

Según relata Crowe, tras el ofrecimiento no tuvo contestación hasta unos 15 minutos después, cuando Nash reflexionó así..

"Bueno, si tomo café, ¿lo tomaría con leche y con azúcar?. Pero si lo tomo con leche y con azúcar, ¿seguiría siendo café o leche azucarada?. Y si tomase café, ¿me gustaría más que una taza de té? Y si tomase una taza de te, ¿cómo estaría seguro de que fuese del sabor y densidad que a mi me gusta, porque el te de Sri lanka o el de sur de la India no me agradan?. Yo prefiero el te del norte de la India".

Lo que no aclaró Crowell es si al final Nash tomó algo, aunque no fuese te ni café..

El filme ha originado alguna controversia al presentar un Nash fascinante pero incompleto, ya que deliberadamente se han omitido episodios como el divorcio con su primera mujer y su bisexualidad. En todo caso, el recuerdo que a la Humanidad le quedará de Nash será el de sus asombrosas e inteligentes aportaciones intelectuales científicas. Y esperemos, que del la contemplación del filme sobre su vida a nosotros nos quede el recuerdo de una excelente actuación interpretativa de Russell Crowell.


____________________________________________________









#8 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 07 octubre 2008 - 03:45





smile_031.gif


En:





Por José Antonio Lozano Teruel

Catedrático de Bioquímica y Biología Molecular.

Facultad de Medicina.

Universidad de Murcia.

______________________________________________________


6. LAS MATEMÁTICAS, FÍSICA Y QUÍMICA

6.1. Matemáticas




MONTECARLO: EL AZAR DOMESTICADO


13-10-2002



El naturalista francés Georges-Louis Leclerc de Buffon (1707-1786) fue el primer científico destacado que intentó discutir públicamente las leyes de la evolución tal como dejó reflejado en su voluminosa obra "Historia natural", en 44 tomos. Dado que todo se estropea con el tiempo, Buffon, quien había tenido el gran acierto de postular el cambio de las especies a lo largo del tiempo, cometió el error de considerar que la evolución era un simple fenómeno degenerativo: los monos serían humanos degenerados, los asnos caballos degenerados y así sucesivamente.

Buffon también incurrió en otro gran error llevado por su interés en la búsqueda de una causa natural, independiente de Dios, que explicase la existencia de la Tierra. Sugirió que su origen se debía a una colisión del Sol con un gran cometa, e intentó calcular la edad de la Tierra a partir de la velocidad de su enfriamiento desde la temperatura del Sol a la existente contemporáneamente. Según sus cálculos, la edad de la Tierra era de 75.000 años, la vida apareció hace unos 40.000 años y hasta dentro de 90.000 años mantendría suficiente calor para seguir albergando seres vivos. Sus cálculos, pues, suponían solo un poco más de una cien milésima parte de las cifras que actualmente consideramos como más verosímiles.



ACIERTOS.




A pesar de tales errores, en buena parte explicables por la escasez de conocimientos al respecto existentes en esas fechas, sin embargo, Buffon ocupa un lugar destacado en la historia de las ciencias, más concretamente en la de las Matemáticas, ya que fue el precursor del método Montecarlo, con el que los matemáticos usan el azar para conseguir informaciones muy difíciles de obtener mediante otros procedimientos y que se aplican en muy diversos problemas, incluido el de diseño de nuevos y complejos fármacos. El método Montecarlo fue bautizado así por su clara analogía con los juegos de ruleta de los casinos, el más célebre de los cuales es el de Montecarlo, casino cuya construcción fue propuesta en 1856 por el príncipe Carlos III de Mónaco, siendo inaugurado en 1861. Desde entonces, el casino y sus anexos, incluyendo un teatro de la Ópera, contribuye en un buen porcentaje a los saneados ingresos del estado de Mónaco.

En 1773, Buffon ideó un nuevo sistema para calcular el número pi. El experimento se basaba en lanzar una aguja de longitud l sobre un tapete de listado cuadrado cuyas listas estaban separadas entre sí por una distancia d. La probabilidad de que al caer la aguja toque en más de una franja es 2l/pd, es decir, que si la longitud de la aguja es igual a la anchura de la franja entonces la probabilidad es el número pi. Por tanto haciendo un gran número de lanzamientos al azar se podría deducir un valor aproximado para pi. Traducido a otro lenguaje, el método de Montecarlo sería una técnica para buscar una solución de un problema numérico, usualmente un problema de probabilidades, utilizando experimentos de muestreo artificial.




IMPORTANCIA.



La importancia actual del método Montecarlo se basa en varios hechos:

a) La existencia de problemas numéricos de muy difícil solución por métodos exclusivamente analíticos;

b) El desarrollo de las aplicaciones de los ordenadores, que permite que los experimentos no se tengan que realizar físicamente sino mediante simulaciones de números aleatorios o de números determinísticos pseudoaleatorios;

c) Las aplicaciones posibles, que han trascendido a las propias Matemáticas (ecuaciones diferenciales parciales de Laplace o de Schrödinger, integrales, matrices, distribuciones de Student, redondeos aleatorios, etcétera).


Por ello, sus aplicaciones actuales se extienden a campos científicos y técnicos tan variados como son los de la Física estadística, biología molecular, genética, redes de información, telecomunicaciones o finanzas.

Concretando, algunas de las diversas variantes del método Montecarlo se han aplicado a numerosos y diferentes problemas relacionados con temas como:

a) Magnitud de las emisiones de rayos cósmicos;

b) Tamaño crítico de los reactores nucleares,

c) Difusión y movimiento browniano;

c) Paso de líquidos a través de sólidos;

d) Propiedades de retículos poliméricos o no;

e) Características de los recipientes necesarios para el transporte de neutrones;

f) Aplicaciones de la teoría de colas a problemas comerciales como almacenamiento, sustitución y mantenimiento de equipos, gestión de seguros, etc.



Una aplicación concreta en Biología Molecular es el del diseño asistido por ordenador de moléculas complejas, como proteínas, con posible aplicación farmacológica.

La flexibilidad de determinadas regiones proteicas se examina con técnicas de dinámica molecular y por métodos Montecarlo.

En éstos últimos se simula un pequeño movimiento de cada átomo y se acepta si la estructura resultante tras el movimiento es más estable que la original. Debido al gran número de átomos de una proteína las simulaciones más grandes que se pueden conseguir por ahora son tan solo de alrededor de 1 nanosegundo, suficientes para estudiar los movimientos de las cadenas laterales e los aminoácidos pero insuficientes para analizar los grandes movimientos de las relativamente grandes zonas interesantes de las proteínas.




RECIENTE.




Dos aplicaciones recientes de interés tienen relación con las técnicas radiográficas y con la obtención de materiales poliméricos de aplicaciones biológicas. En el primer caso los fotones emitidos al atravesar la materia sufrirían una serie de colisiones aleatorias que producen desviaciones en la trayectoria. En el segundo caso el polímero es una larga cadena de diversos monómeros, lo que podría hacer que algunas zonas de su secuencia fuesen bioespecíficas.

En el primer caso se trataría de simular el proceso, sin necesidad de ninguna instrumentación real, a fin de estudiar las influencias de fuentes de radiación, tipos de películas y pantallas. Ello supone una sucesión aleatoria de colisiones de cientos de millones de fotones al atravesar los materiales, con sucesivas desviaciones individuales de sus trayectorias caso hasta llegar a una imagen final.

En el caso de los biomateriales la analogía sería la sucesión de letras (monómeros) en un texto (el polímero) que contiene palabras (regiones del polímero) que tienen sentido (zonas moleculares capaces de interactuar con la materia viva). En ambos casos lo que se hace es simular estados macroscópicos (recorrido del fotón, cadena polimérica) por medio de sorteos sucesivos aleatorios de los estados microscópicos que los componen (fotón en las colisiones, monómeros en la cadena) haciendo depender cada estado del anterior según normas adecuadas (de interacción fotón-materia; de asociación entre monómeros).

No existen, pues, barreras entre las Ciencias, sino fructíferas interacciones entre ellas en campos cuya naturaleza hace algún tiempo hubiera parecido simple ficción o elucubración.



__________________________________________________







#9 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 15 octubre 2008 - 07:17





smile_031.gif


EN




Por José Antonio Lozano Teruel

Catedrático de Bioquímica y Biología Molecular.

Facultad de Medicina.

Universidad de Murcia.

______________________________________________________


6. LAS MATEMÁTICAS, FÍSICA Y QUÍMICA

6.1. Matemáticas



LA CONJETURA DEL MILLÓN DE DÓLARES

16-01-2004




Las Matemáticas han sido capaces de romper sus barreras internas, e interaccionan con otras ciencias, con las empresas, las finanzas, las cuestiones de seguridad, la gestión, la toma de decisiones o la modelización de sistemas complejos. Y algunas de estas disciplinas, por su parte, están retando a los matemáticos con nuevas clases de problemas interesantes lo que, a su vez, está dando lugar a nuevas aplicaciones.

Quizá, por ello y por el sentido práctico americano, se crean instituciones como el Instituto de Matemáticas Clay, financiado por el rico empresario americano Landon Clay, con sede en Cambridge (Massachussets). Es una fundación privada, sin ánimo de lucro, dedicada a estimular y divulgar el conocimiento de las Matemáticas.


POINCARÉ.


Con motivo del cambio de siglo, en el año 1900, el científico alemán David Hilbert elaboró una lista con los 23 grandes problemas que los matemáticos del siglo XIX habían sido incapaces de resolver. Ello marcó buena parte de la investigación matemática del siglo XX y de los 23 retos de Hilbert, 20 fueron resueltos o abordados satisfactoriamente, dos ya no se consideran cruciales y otro sigue estando vigente.

Dentro de los actos celebrados por el College de France para conmemorar el centenario de esa lista, el 25 de mayo del 2000, en París, el Instituto Clay ofreció un millón de dólares a cada uno de quienes solventen cualquiera de los siete enigmas fundamentales de una nueva lista de problemas que, hasta ahora, han derrotado a la matemática del siglo XX. En este Millennium Prize Problem, una de las reglas del premio especifica que la solución propuesta deberá estar expuesta previamente, por un periodo de al menos dos años, al escrutinio de la comunidad matemática internacional. Para muchos matemáticos es claro que, dada la importancia y naturaleza de los problemas seleccionados, la solución de cualquiera de ellos indudablemente proporcionará a su autor no sólo una considerable cantidad de dinero sino además un lugar sobresaliente en la historia de la Matemática.

Entre estos problemas, tras más de un siglo de su enunciado, sigue figurando la conjetura de Poincaré. Henri Poincaré (1854-1912), físico francés y uno de los principales matemáticos del siglo XIX, realizó importantes y originales aportaciones a las ecuaciones diferenciales, la probabilidad y a la teoría de las funciones. Destacó por su desarrollo de las llamadas funciones fuchsianas, y por sus contribuciones a la mecánica analítica. Sus estudios engloban investigaciones sobre la teoría electromagnética de la luz y sobre la electricidad, mecánica de fluidos, transferencia de calor y termodinámica. También se anticipó a la teoría del caos.

Y todo parece indicar que, antes de un año, de acuerdo con las normas de la competición, habrá un ganador, un matemático ruso, que habrá solucionado su conjetura topológica, la conjetura de Poincaré.


TOPOLOGÍA.


Poincaré inventó la Topología. La topología se interesa por establecer una clasificación apropiada de las superficies, por las propiedades fundamentales de las estructuras y de los espacios. Existe una cantidad infinita de superficies distintas en el espacio. Ejemplos sencillos son los planos, las superficies de las esferas, de los elipsoides, de los toros, de los paraboloides, los hiperboloides, etc. Para simplificar podemos imaginarnos las superficies como delgadísima láminas de goma totalmente flexibles, contraíbles o extensibles, con posibilidad de transformarse, siempre que no se pinchen o rasguen. A los ojos de un especialista en Topología, si una superficie puede ser deformada continuamente en otra, entonces las dos son "esencialmente iguales" ya que sus propiedades topológicas no son afectadas por la deformación. Los topólogos utilizan la expresión superficies homeomorfas para referirse a aquellas superficies que son "esencialmente iguales". Así, topológicamente, las superficies de dos esferas con radios distintos son homeomorfas. Para un topólogo es lo mismo una manzana, un balón de fútbol, uno de rugby o la superficie terrestre. Se dice que un topólogo ve un donut y una taza de café como la misma cosa, porque puede deformar cualquiera de ellos hasta obtener una forma básica común a ambos, que se llama toro.

Los topólogos están particularmente interesados en las variedades, o multiplicidad de formas. El objetivo de los topólogos es identificar todas las variedades posibles, incluyendo la forma del universo.

Un balón de fútbol, por ejemplo, es una variedad de dimensión 2, una 2-esfera; lo podemos manipular como queramos, dándole diferentes formas, pero sin romperlo, y seguirá siendo una 2-esfera. El criterio para comprobar si una variedad es una 2-esfera es muy simple. Imagine el lector que coloca una goma elástica tremendamente deformable apoyada sobre la superficie del balón. Si la goma se puede comprimir (sin salirse de la superficie) hasta ocupar un solo punto, y esto en cualquier parte de la superficie, el balón es una 2-esfera y decimos que es simplemente conexa.

El problema de clasificar las variedades en el espacio usando como criterio de clasificación el concepto de homeomorfismo fue resuelto en el siglo XIX. Así, la esfera es una variedad de dimensión 2 (cada trozo pequeño de la esfera es un pequeño trozo de plano ligeramente deformado), cerrada y simplemente conexa y se estableció que toda variedad de dimensión 2, cerrada y simplemente conexa es homeomorfa a la esfera. Dicho de otro modo: sólo hay una variedad de dimensión n=2, cerrada y simplemente conexa, y se trata de la esfera.

Todas las variedades de dimensión n=2 están inmersas en el espacio de dimensión 3. Por analogía, se definen otras variedades de dimensión n estarían inmersas en espacios de dimensión n+1.


CONJETURA.


En 1904, Poincaré (1854-1912) conjeturó que el resultado obtenido para la esfera n=2 del espacio de dimensión 3 tenía un análogo para la esfera n=3 del espacio de dimensión 4. En otras palabras: en el espacio de dimensión 4, toda variedad de dimensión n=3, cerrada y simplemente conexa, sería homeomorfa a la esfera de dimensión n=3. Pero Poincaré no consiguió probar su conjetura. Tampoco ninguno de sus contemporáneos ni sucesores. Con el tiempo, la conjetura de Poincaré cobró interés hasta convertirse en el problema abierto más notable de la Topología Geométrica, con destacables implicaciones para la Física. Más aún, llegó a convertirse en uno de los problemas abiertos más importantes de la Matemática.

Para n=1 la conjetura es trivial y para n=2 ya fue demostrada en el siglo XIX. Para n=5, hubo de esperar hasta 1961, a que lo hiciera Erik Christopher Zeeman. Ese mismo año Stephen Smale lo consiguió para n igual o mayor que 7 y, en 1962, John R. Stallings para el caso n=6. Los casos n=3 y n=4 se resistían y hubo que esperar a 1986 cuando, en lo que se consideró una hazaña matemática del estadounidense Michael Hartley Freedman, se consiguió demostrar el caso n=4. Lo irónico es que, resuelto con éxito para todas las demás dimensiones, el caso original n=3, planteado por Poincaré, se resistía, hasta ahora, denodadamente a cualquier demostración matemática.


__________________________________________________







#10 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 22 enero 2009 - 06:55







smile_031.gif
En:








Por José Antonio Lozano Teruel

Catedrático de Bioquímica y Biología Molecular.

Facultad de Medicina.

Universidad de Murcia.


_______________________________________



6.1. Matemáticas


CÓMO APILAR BIEN LAS NARANJAS


09-04-2004



Sir Walter Raleigh (1554-1618), aventurero y escritor inglés, fue un personaje singular, que participó en expediciones de piratería contra las posesiones españolas, fundó la primera colonia inglesa en Norteamérica, luchó contra la Armada Invencible española y buscó, infructuosamente, la fuente de la juventud en la legendaria ciudad de El Dorado.

Armado caballero por la reina Isabel I, su gran poder lo perdió al descubrir la reina que se había casado en secreto con una de sus damas de honor.

Su vida aventurera continuó y el rey Jacobo I le acusó de conspiración, siendo sentenciado a muerte. Durante su encarcelamiento de trece años en la torre de Londres escribió numerosos poemas y valiosas obras, incluyendo una Historia del mundo. Aunque tras su liberación volvió a dirigir una expedición a a América, a su regreso, finalmente, aconsejado por el embajador español, el rey le hizo decapitar.



LA CONJETURA.




Indudablemente Raleigh deseaba conocer y explorar lo desconocido.

Thomas Harriot era asistente suyo y, posteriormente, un célebre matemático que fue el primero en utilizar los símbolos > y <, "mayor que" y "menor que".

Raleigh se dirigió a Harriot para preguntarle si conocía algún método sencillo capaz de resolver un problema típico que se les presentaba en aquellos tiempos a los marinos de guerra. ¿Cuántas balas de cañón se pueden apilar en la cubierta de un barco utilizando el menor espacio posible?. La pregunta, en términos matemáticos sería: ¿Cuál es el empaquetamiento más denso posible para un conjunto de esferas?.

Harriot fue incapaz de encontrar una respuesta matemática y pasó la consulta al gran astrónomo alemán Johannes Kepler. Kepler, en 1611, le contestó, pero no en forma matemática, sino afirmando que al igual que los fruteros colocan sus frutas (y aludió al ejemplo de las naranjas), la sabiduría centenaria indicaba que el sistema más adecuado era el del apilamiento en forma de pirámide. Desde ese momento había nacido lo que se conoce con el nombre de conjetura de Kepler. Esa idea de sentido común para el empaquetamiento de esferas, ¿se podría demostrar matemáticamente?. En la ciencia hasta lo que parece obvio ha de tener que demostrarse rigurosamente.


INTENTOS.



Según la conjetura de Kepler, la densidad de un empaquetamiento de un conjunto de esferas nunca excede de un número máximo.

Este, indudablemente, es un problema apasionante de resolver en nuestra era de la Información, ya que guarda relación con las soluciones para guardar información en discos compactos o para comprimir información que haya de ser transmitida posteriormente.

Pues bien, pasaron los años, y a principios del siglo XIX el matemático Carl Friedrich Gauss que había sido capaz de dar una explicación adecuada al concepto de número complejo, expuso que la conjetura de Kepler solo se cumplía si los empaquetamientos de las esferas adoptaban la forma de una red.

Un problema análogo al de Kepler, en dos dimensiones, sería el de empaquetar discos circulares de igual diámetro tan densamente como fuese posible. Gauss mostró que, en este caso, la solución es una disposición hexagonal en la que cada disco está rodeado por otros seis en una estructura reticular. Pero, ¿que sucede en las dimensiones superiores?

Mucho más recientemente, en 1953 el matemático húngaro Laszlo Toth dio un paso gigantesco al reducir el problema a una serie finita de cálculos para un determinado volumen de casos específicos.

Y, en 1998, pareció que se llegaba al final.

El científico americano Thomas Hales, continuando la labor de Toth, formuló una ecuación de 150 variables que describía los 5000 posibles agrupamientos de esferas concebibles, solucionando cada caso, por sistemas de programación linear, lo que significó el uso de sofisticadas técnicas informáticas, con la resolución individualizada de más de 100.000 problemas de programación lineal en los que cada uno incluía entre 100 y 200 variables y de 1000 a 2000 restricciones. Ello le llevó diez años de investigación en dos universidades y su investigación la plasmó en un trabajo de 250 páginas que fue divulgado por correo electrónico. Pero los especialistas indicaron que, aunque un 99% de la investigación de su demostración matemática era correcta el otro 1% era imposible de verificar.



FINAL




Han tenido que transcurrir otros seis años más de estudios y refinamientos.

Pero, el pasado martes 6 de abril, el periódico New York Times, en un extenso artículo del periodista científico Kenneth Chang, anunciaba que, finalmente una de las revistas matemáticas más importantes del mundo ANNALS OF MATHEMATICS, tras los correspondientes informes de los expertos, ha aceptado publicar la parte teórica de la demostración, mientras que otra revista científica especializada, DISCRETE AND COMPUTATIONAL GEOMETRY, publicará el ingente trabajo informático de la demostración.

El debate principal abierto entre los matemáticos es el del papel que pueden jugar los ordenadores en las complejas demostraciones matemáticas. La conjetura de Kepler no es el primer ejemplo de ello.

En 1976 los matemáticos Haken y Appel, de la Universidad de Illinois, usaron complicados cálculos informáticos para probar el teorema de los cuatro colores, que establece que cualquier mapa necesita tan solo de cuatro colores para asegurar que nunca dos regiones adyacentes tendrán el mismo color.

El problema surgió cuando tras la publicación del trabajo algunos matemáticos comenzaron a encontrar pequeños errores.

La realidad fue que, en cada caso, los doctores Haken y Appel fueron capaces de solucionar y fijar los pequeños problemas, pero usando las palabras de Dr. Robert D. McPherson, editor de la revista ANNALS OF MATHEMATICS, ese tipo de situaciones deja muy mal sabor de boca por lo que en el caso de la conjetura de Kepler han tenido que transcurrir 6 años de examen y perfeccionamiento del trabajo para que, parcialmente, es decir, solo la parte teórica, se haya admitido a publicación en esa revista.

En cualquier caso, está abierta la controversia sobre el papel de los ordenadores en la creación de ciencia matemática.

El Dr. Conway, un matemático de la Universidad de Princeton opina que si los ordenadores actuales son capaces de vencer a los grandes maestros del ajedrez, es lógico pensar que los de mañana sean capaces de descubrir pruebas que han escapado a las mayores mentes humanas matemáticas.

Posiblemente, la mente humana nunca podrá ser sustituida pero una ventaja de los ordenadores es la de que, sin problemas, pueden seguir rutas que sean anti intuitivas, lo que no nos sucede a los humanos.

Y, para el tendero de la esquina, que cuidadosamente prepara sus pirámides de naranjas, tomates, manzanas o granadas, la satisfacción de haber llegado a la misma solución, que tras más de 400 años de profundas investigaciones y esfuerzos parece que, definitivamente, ha sido demostrada con la conjunción de las más preclaras mentes humanas y de los ordenadores más potentes.




____________________________________________








#11 ADELA

ADELA

    Usuario

  • Members
  • 1 Mensaje(s)

Publicado el 28 enero 2009 - 07:19

icon_razz.gif icon_razz.gif
CITA(Ge. Pe. @ Jan 22 2009, 07:55 AM) Ver Mensajes






smile_031.gif
En:



Por José Antonio Lozano Teruel

Catedrático de Bioquímica y Biología Molecular.

Facultad de Medicina.

Universidad de Murcia.
_______________________________________

6.1. Matemáticas
CÓMO APILAR BIEN LAS NARANJAS


09-04-2004

Sir Walter Raleigh (1554-1618), aventurero y escritor inglés, fue un personaje singular, que participó en expediciones de piratería contra las posesiones españolas, fundó la primera colonia inglesa en Norteamérica, luchó contra la Armada Invencible española y buscó, infructuosamente, la fuente de la juventud en la legendaria ciudad de El Dorado.

Armado caballero por la reina Isabel I, su gran poder lo perdió al descubrir la reina que se había casado en secreto con una de sus damas de honor.

Su vida aventurera continuó y el rey Jacobo I le acusó de conspiración, siendo sentenciado a muerte. Durante su encarcelamiento de trece años en la torre de Londres escribió numerosos poemas y valiosas obras, incluyendo una Historia del mundo. Aunque tras su liberación volvió a dirigir una expedición a a América, a su regreso, finalmente, aconsejado por el embajador español, el rey le hizo decapitar.
LA CONJETURA.

Indudablemente Raleigh deseaba conocer y explorar lo desconocido.

Thomas Harriot era asistente suyo y, posteriormente, un célebre matemático que fue el primero en utilizar los símbolos > y <, "mayor que" y "menor que".

Raleigh se dirigió a Harriot para preguntarle si conocía algún método sencillo capaz de resolver un problema típico que se les presentaba en aquellos tiempos a los marinos de guerra. ¿Cuántas balas de cañón se pueden apilar en la cubierta de un barco utilizando el menor espacio posible?. La pregunta, en términos matemáticos sería: ¿Cuál es el empaquetamiento más denso posible para un conjunto de esferas?.

Harriot fue incapaz de encontrar una respuesta matemática y pasó la consulta al gran astrónomo alemán Johannes Kepler. Kepler, en 1611, le contestó, pero no en forma matemática, sino afirmando que al igual que los fruteros colocan sus frutas (y aludió al ejemplo de las naranjas), la sabiduría centenaria indicaba que el sistema más adecuado era el del apilamiento en forma de pirámide. Desde ese momento había nacido lo que se conoce con el nombre de conjetura de Kepler. Esa idea de sentido común para el empaquetamiento de esferas, ¿se podría demostrar matemáticamente?. En la ciencia hasta lo que parece obvio ha de tener que demostrarse rigurosamente.
INTENTOS.

Según la conjetura de Kepler, la densidad de un empaquetamiento de un conjunto de esferas nunca excede de un número máximo.

Este, indudablemente, es un problema apasionante de resolver en nuestra era de la Información, ya que guarda relación con las soluciones para guardar información en discos compactos o para comprimir información que haya de ser transmitida posteriormente.

Pues bien, pasaron los años, y a principios del siglo XIX el matemático Carl Friedrich Gauss que había sido capaz de dar una explicación adecuada al concepto de número complejo, expuso que la conjetura de Kepler solo se cumplía si los empaquetamientos de las esferas adoptaban la forma de una red.

Un problema análogo al de Kepler, en dos dimensiones, sería el de empaquetar discos circulares de igual diámetro tan densamente como fuese posible. Gauss mostró que, en este caso, la solución es una disposición hexagonal en la que cada disco está rodeado por otros seis en una estructura reticular. Pero, ¿que sucede en las dimensiones superiores?

Mucho más recientemente, en 1953 el matemático húngaro Laszlo Toth dio un paso gigantesco al reducir el problema a una serie finita de cálculos para un determinado volumen de casos específicos.

Y, en 1998, pareció que se llegaba al final.

El científico americano Thomas Hales, continuando la labor de Toth, formuló una ecuación de 150 variables que describía los 5000 posibles agrupamientos de esferas concebibles, solucionando cada caso, por sistemas de programación linear, lo que significó el uso de sofisticadas técnicas informáticas, con la resolución individualizada de más de 100.000 problemas de programación lineal en los que cada uno incluía entre 100 y 200 variables y de 1000 a 2000 restricciones. Ello le llevó diez años de investigación en dos universidades y su investigación la plasmó en un trabajo de 250 páginas que fue divulgado por correo electrónico. Pero los especialistas indicaron que, aunque un 99% de la investigación de su demostración matemática era correcta el otro 1% era imposible de verificar.
FINAL

Han tenido que transcurrir otros seis años más de estudios y refinamientos.

Pero, el pasado martes 6 de abril, el periódico New York Times, en un extenso artículo del periodista científico Kenneth Chang, anunciaba que, finalmente una de las revistas matemáticas más importantes del mundo ANNALS OF MATHEMATICS, tras los correspondientes informes de los expertos, ha aceptado publicar la parte teórica de la demostración, mientras que otra revista científica especializada, DISCRETE AND COMPUTATIONAL GEOMETRY, publicará el ingente trabajo informático de la demostración.

El debate principal abierto entre los matemáticos es el del papel que pueden jugar los ordenadores en las complejas demostraciones matemáticas. La conjetura de Kepler no es el primer ejemplo de ello.

En 1976 los matemáticos Haken y Appel, de la Universidad de Illinois, usaron complicados cálculos informáticos para probar el teorema de los cuatro colores, que establece que cualquier mapa necesita tan solo de cuatro colores para asegurar que nunca dos regiones adyacentes tendrán el mismo color.

El problema surgió cuando tras la publicación del trabajo algunos matemáticos comenzaron a encontrar pequeños errores.

La realidad fue que, en cada caso, los doctores Haken y Appel fueron capaces de solucionar y fijar los pequeños problemas, pero usando las palabras de Dr. Robert D. McPherson, editor de la revista ANNALS OF MATHEMATICS, ese tipo de situaciones deja muy mal sabor de boca por lo que en el caso de la conjetura de Kepler han tenido que transcurrir 6 años de examen y perfeccionamiento del trabajo para que, parcialmente, es decir, solo la parte teórica, se haya admitido a publicación en esa revista.

En cualquier caso, está abierta la controversia sobre el papel de los ordenadores en la creación de ciencia matemática.

El Dr. Conway, un matemático de la Universidad de Princeton opina que si los ordenadores actuales son capaces de vencer a los grandes maestros del ajedrez, es lógico pensar que los de mañana sean capaces de descubrir pruebas que han escapado a las mayores mentes humanas matemáticas.

Posiblemente, la mente humana nunca podrá ser sustituida pero una ventaja de los ordenadores es la de que, sin problemas, pueden seguir rutas que sean anti intuitivas, lo que no nos sucede a los humanos.

Y, para el tendero de la esquina, que cuidadosamente prepara sus pirámides de naranjas, tomates, manzanas o granadas, la satisfacción de haber llegado a la misma solución, que tras más de 400 años de profundas investigaciones y esfuerzos parece que, definitivamente, ha sido demostrada con la conjunción de las más preclaras mentes humanas y de los ordenadores más potentes.
____________________________________________







#12 Ge. Pe.

Ge. Pe.

    God of Forum

  • Administrators
  • 11.598 Mensaje(s)
  • Gender:Male

Publicado el 28 enero 2009 - 07:41





smile_031.gif

En:








Por José Antonio Lozano Teruel

Catedrático de Bioquímica y Biología Molecular.

Facultad de Medicina.

Universidad de Murcia.

______________________________________________________


6.1. Matemáticas


Soy mujer. ¿podré ser un genio matemático?


31-05-2008




Lo que es incuestionable es que no podrá aspirar al Premio Nobel ya que el testamento de Alfred Nobel no mencionaba a las Matemáticas como una fuente de “progreso y felicidad para la humanidad”, posiblemente por creerlas de naturaleza meramente teórica. ¿Cuál fue la razón de no unir las Matemáticas a la Física, Química, Fisiología y Medicina o la Literatura?.



LEYENDAS.



Varias leyendas se extendieron intentando justificar ese hecho.

Su protagonista principal es el prestigioso matemático sueco G. M. Mittag-Leffler (1846-1927). La “versión sueca” alude a la enemistad personal entre Nobel y Mittag-Leffler y a que en los momentos en los que los premios se estaban gestando Nobel preguntó a sus consejeros que, si hubiese un premio Nobel en Matemáticas, Mittag-Leffler podría ganarlo.

Ante la respuesta positiva; Nobel ordenaría que no hubiese premio Nobel de Matemáticas. La forma más extrema de la “versión francesa” explicaba que la mujer de Nobel le había sido infiel con el matemático sueco.

La realidad es que Nobel nunca llegó a estar casado; que parece que mantenía una relación sentimental con la vienesa Sophie Hess; que por aquella época otros matemáticos más célebres, con más méritos para un posible Nobel, eran Poincare and Hilbert; y que, en aquel entonces Nobel residía en París, posiblemente sin contactos con Mittag-Leffler,

Pero dejemos las leyendas y la realidad es que cuando se recorren los caminos matemáticos es muy difícil encontrarse con referencias a grandes figuras Matemáticas femeninas.

¿Cuál es la causa?. ¿Existe una incompatibilidad objetiva entre los circuitos neuronales del pensamiento femenino y los del razonamiento matemático?. O, más bien, se sigue tropezando en un conjunto de barreras social y culturalmente impuestas?.

Para el gran filósofo alemán Imanuel Kant (1724-1804) la respuesta sería muy sencilla. Sus escritos muestran su opinión al respecto: “es tan posible que una mujer tenga barba como que sienta preocupación por la geometría”. Y, muchos matemáticos también opinaron lo mismo. Como para muestra basta un botón, el de matemático De Morgan (1806-1871), primer catedrático de Matemáticas del University College, e introductor de la Lógica matemática, resulta suficientemente significativo ya que consideraba a las mujeres débiles y sin preparación física para las actividades científicas. Incluso unos pretendidos datos médicos trataban de convencer de que una mujer que pensara demasiado podía sufrir desviaciones de la sangre desde el aparato reproductor hasta el cerebro.

A este rechazo conceptual previo habría que añadir las dificultades para la mujer de conseguir una educación matemática, cuando hasta después de la 1ª guerra mundial, era una situación normal que la mujer no pudiera acceder a puestos universitarios, así como también el problema de compaginar la dedicación a las Matemáticas con el rol histórico femenino de las labores domésticas.



CEREBRO.



Existen multitud de investigaciones científicas que han abordado el tema de las peculiaridades y funcionamiento específico de los cerebros masculino y femenino y es clara la diferencia cromosómica y hormonal existente entre los dos sexos. Es motivo de grandes controversias científicas la existencia, cuantía y origen de las peculiaridades de género respecto a las Matemáticas. Ciertas explicaciones biológicas resaltan las evidencia de que los hombres tienen mejores rendimientos en los tests espaciales mientras que las mujeres lo consiguen en los tests verbales. Sin embargo, esas diferencias son pequeñas y su aplicabilidad al razonamiento matemático es discutible.

Es claro que, históricamente, son escasas las mujeres Matemáticas de relieve. He aquí algunas: Hypatia de Alejandría, Emile du Chatelet, Maria Agnesi, Sophie Germain, Mary Somerville, Ada Lovelace, Florence Nightingale, Sonya Kovalevsky y Emmy Noether.

A su obra nos referiremos en otra ocasión. La interpretación de su escaso número abre las dos posibilidades más inmediatas: que se deba a los condicionamientos sociales y culturales existentes o que la causa sea funcional, relacionada con el funcionamiento de los respectivos circuitos cerebrales de hombres y mujeres y la especificidad del razonamiento matemático.

¿Cómo dilucidar entre ambas alternativas?. La reputada revista SCIENCE en su número del pasado incluye un trabajo de un grupo multidisciplinar italo-americano de cuatro investigadores/as titulado (traducido) “Cultura, Género y Matemáticas” en el que abordan el problema alcanzando unas conclusiones bastantes claras.



INVESTIGACIÓN.



Para sopesar la contribución relativa de las dos explicaciones, la cultural y la biológica, los investigadores siguieron el Programme for International Student Assessment (PISA) que se había utilizado con 276.165 estudiantes de 15 años de edad de 40 países, sometidos a pruebas idénticas en Matemáticas y Lectura que habían sido diseñadas por la OECD para que estuviesen libres de condicionamientos culturales.

Un primer examen de los resultados podría parecer que apoya la interpretación biológica ya que la media para los chicos fue superior en Matemáticas y para las chicas en Lectura.

Concretamente, las puntuaciones Matemáticas de las chicas fueron 10,5 puntos inferiores a las de los varones (un 2% menos) pero mostraron una gran variabilidad con el país considerado, por lo que en algunos países la situación se revertía, con diferencias como las siguientes: Turquía (-22,6), Korea (-20), Italia (-19), USA (-10), Portugal (-9), Francia (-icon_cool.gif, Polonia (-7), Noruega (-4), Suecia (-2) e Islandia (+15). Respecto a las pruebas de Lectura, la ventaja media para las chicas fue de 32,7 puntos (6,6% mayor) que el de los varones y la tendencia por países siguió la misma pauta de mejora que la existente para Matemáticas, pero mucho más incrementada: Turquía (25), Corea 824), Italia (38), USA (30), Portugal (40), Francia (40), Polonia (38), Noruega (50), Suecia (43), Islandia (60).

Las grandes diferencias entre países indicaban la existencia de un fuerte factor social/cultural en los resultados. Los investigadores examinaron los indicadores de igualdad de género, escogiendo el índice GGI (World Economic Forum´s Gender Gap Index), que tiene en cuenta para cada país las oportunidades económicas, políticas, educativas y de bienestar para la mujer y que variaban, por ejemplo, desde valores cercanos a 0,6 para Turquía y Corea hasta valores de 0,8 para Noruega, Suecia e Islandia.

El resultado final fue el de que existía una estrecha correlación entre los datos de diferencias Matemáticas y los referentes a igualdad de género, de modo que si matemáticamente se corrigiesen aquellos teniendo en cuenta éstos entonces no habría diferencias Matemáticas entre chicos y chicas en ningún país.

Además, mediante técnicas de medidas de diferencias genéticas se descartó que los resultados estuviesen influidos por las posibles diferencias biológicas existentes entre los países, con lo que la conclusión final respecto a las Matemáticas es la de que las existencias existentes entre hombre y mujeres quedarán paulatinamente eliminadas cuando se den, en cada país, unas condiciones reales de igualdad de género.



_____________________________________________________