El sistema locomotor de muchos animales está basado en los músculos. Sin embargo, es común que los animales marinos muy pequeños se muevan por medio de cilios. Esta clase de locomoción es mucho más antigua en la evolución que la locomoción basada en músculos, y es habitual en el plancton marino.
Como organismos planctónicos, las larvas del gusano anélido marino Platynereis nadan libremente en el agua. Se mueven por la actividad de sus cilios. Ante condiciones ambientales cambiantes, las larvas nadan hacia arriba o hacia abajo, hasta alcanzar la profundidad más adecuada para ellas en el agua.
Unos científicos del Instituto Max Planck para la Biología del Desarrollo en Alemania, acaban de identificar en el sistema nervioso de las larvas algunas sustancias de señalización que regulan la profundidad de nado de las larvas. Estas sustancias influyen en el movimiento de los cilios y mantienen de esta manera a las larvas en las profundidades preferidas por ellas.
Los investigadores han descubierto que esta regulación es posible gracias a una circuitería muy simple de neuronas, lo que refleja un estadio evolutivo muy temprano del sistema nervioso.
El equipo de Gáspár Jékely analizó los genes del Platynereis, identificando varias sustancias de señalización neuronal, específicamente neuropéptidos.
Además, los científicos han constatado que estos neuropéptidos son producidos en células nerviosas sensoriales individuales de las larvas, y son liberados directamente en la banda ciliar.
Los científicos han llegado a la conclusión de que estas neuronas envían la información sensorial directamente a los cilios.
FUENTE: Noticias de la Ciencia
martes, 27 de diciembre de 2011
CADA FOLÍCULO DE LA PIEL ACTÚA COMO UN SENSOR DEL TACTO ESPECIALIZADO
Científicos estadounidenses muestran, en un trabajo realizado con ratones, cómo cada folículo piloso de la piel actúa como un sensor independiente. La información que capta se une a la del resto de folículos y se organiza en la médula espinal, desde donde se envía al cerebro.
El sentido del tacto del ser humano es capaz de distinguir, por ejemplo, si sobre la piel se posa un mosquito o cae una gota de agua. Expertos norteamericanos muestran por primera vez su funcionamiento y el recorrido que realiza la información desde que el vello recibe un estímulo en la epidermis hasta que llega al cerebro.
Estudiando las neuronas en el cuero cabelludo de los ratones, los autores observaron patrones muy ordenados, lo que sugiere que cada tipo de folículo piloso funciona como un órgano sensorial distinto, ‘sintonizado’ para registrar diferentes clases de detalles.
Según el trabajo, cada folículo está conectado al sistema sensorial mediante un ‘cable’ y a través de él emite información que se une a la que envían el resto de folículos en la médula espinal. Desde allí, lo que han recogido los sensores se puede integrar en los impulsos con destino al cerebro.
“Ahora podemos ver con detalle cómo los folículos pilosos y las neuronas asociadas a ellos están organizados entre sí. Esta estructura permite pensar cómo se integra y procesa la información mecano-sensorial para la percepción del tacto”, explica Ginty.
El equipo de Ginty ha desarrollado una forma de etiquetar las distintas poblaciones de los receptores sensoriales de la piel, llamados mecanorreceptores de umbral bajo.
Antes de este estudio, era muy complicado visualizar estos receptores sensibles a la flexión, a la presión y el estiramiento en su estado natural.
Al no tener tanto pelo como un ratón, no está claro si en los humanos algunas de estas neuronas dependen de los vellos para captar sensaciones y el resto son simplemente parte de la estructura neural bajo la piel.
Además, Ginty reconoce que no sabe cómo estas neuronas se las arreglan para organizarse de esta manera durante el desarrollo.
FUENTE: Noticias de la Ciencia
El sentido del tacto del ser humano es capaz de distinguir, por ejemplo, si sobre la piel se posa un mosquito o cae una gota de agua. Expertos norteamericanos muestran por primera vez su funcionamiento y el recorrido que realiza la información desde que el vello recibe un estímulo en la epidermis hasta que llega al cerebro.
Estudiando las neuronas en el cuero cabelludo de los ratones, los autores observaron patrones muy ordenados, lo que sugiere que cada tipo de folículo piloso funciona como un órgano sensorial distinto, ‘sintonizado’ para registrar diferentes clases de detalles.
Según el trabajo, cada folículo está conectado al sistema sensorial mediante un ‘cable’ y a través de él emite información que se une a la que envían el resto de folículos en la médula espinal. Desde allí, lo que han recogido los sensores se puede integrar en los impulsos con destino al cerebro.
“Ahora podemos ver con detalle cómo los folículos pilosos y las neuronas asociadas a ellos están organizados entre sí. Esta estructura permite pensar cómo se integra y procesa la información mecano-sensorial para la percepción del tacto”, explica Ginty.
El equipo de Ginty ha desarrollado una forma de etiquetar las distintas poblaciones de los receptores sensoriales de la piel, llamados mecanorreceptores de umbral bajo.
Antes de este estudio, era muy complicado visualizar estos receptores sensibles a la flexión, a la presión y el estiramiento en su estado natural.
Al no tener tanto pelo como un ratón, no está claro si en los humanos algunas de estas neuronas dependen de los vellos para captar sensaciones y el resto son simplemente parte de la estructura neural bajo la piel.
Además, Ginty reconoce que no sabe cómo estas neuronas se las arreglan para organizarse de esta manera durante el desarrollo.
FUENTE: Noticias de la Ciencia
ESTUDIAN UTILIZAR INSECTOS VOLADORES EN LABORES DE BÚSQUEDA Y RESCATE DE PERSONAS
Un estudio elaborado por científicos de la Universidad de Michigan ha planteado la posibilidad de utilizar insectos voladores, equipados con microcámaras y micrófonos, en misiones de búsqueda y rescate para ayudar a localizar a los supervivientes en terremotos y otros desastres.
Los investigadores se encuentran inmersos en el desarrollo de una pequeña 'mochila' equipada con sistemas electrónicos de comunicación y sensores, que puedan portar pequeños insectos. La intención es que, ante una catástrofe, los servicios de emergencia puedan utilizar a estos animales, que podría introducirse en un edificio derruido, una zona de escombros, o cualquier otra área considerada peligrosa para la inspección humana.
El director de este proyecto, ha señalado que se ha pensado en los insectos porque su energía cinética puede actuar como batería para una gran variedad de equipos de comunicación. De hecho, los expertos ya han desarrollado un dispositivo capaz de generar energía a partir del movimiento del ala de un escarabajo verde durante su vuelo.
Esto se ha logrado mediante el montaje de un generador en miniatura en cada ala del insecto. Ahora, los científicos esperan ser capaces de alcanzar el poder suficiente para operar cámaras y micrófonos.
FUENTE: La Razón
Los investigadores se encuentran inmersos en el desarrollo de una pequeña 'mochila' equipada con sistemas electrónicos de comunicación y sensores, que puedan portar pequeños insectos. La intención es que, ante una catástrofe, los servicios de emergencia puedan utilizar a estos animales, que podría introducirse en un edificio derruido, una zona de escombros, o cualquier otra área considerada peligrosa para la inspección humana.
El director de este proyecto, ha señalado que se ha pensado en los insectos porque su energía cinética puede actuar como batería para una gran variedad de equipos de comunicación. De hecho, los expertos ya han desarrollado un dispositivo capaz de generar energía a partir del movimiento del ala de un escarabajo verde durante su vuelo.
Esto se ha logrado mediante el montaje de un generador en miniatura en cada ala del insecto. Ahora, los científicos esperan ser capaces de alcanzar el poder suficiente para operar cámaras y micrófonos.
FUENTE: La Razón
LA ASOMBROSA EFICENCIA DE LA CONDUCTA COLECTIVA EN GRUPOS DE BACTERIAS
Las conductas colectivas de las bacterias, incluyendo la toma de decisiones críticas, les permiten prosperar e incluso propagarse de forma eficiente en entornos difíciles.
Ahora, unos investigadores han desarrollado un modelo digital que explica mejor cómo las bacterias se mueven en "enjambres". Y este modelo puede ser aplicado a tecnologías desarrolladas por el Ser Humano, como ordenadores, robótica, e inteligencia artificial en general.
La investigadora Adi Shklarsh, con colaboración, han descubierto cómo las bacterias recopilan colectivamente información sobre su entorno y encuentran el modo óptimo de proliferar, incluso en los entornos más complejos.
Estudiar los principios de la navegación de las bacterias permitirá a los investigadores diseñar una nueva generación de robots inteligentes que puedan formar enjambres inteligentes, o ayudar al desarrollo de microrrobots médicos utilizables para hacer diagnósticos o para distribuir con gran precisión medicamentos en el cuerpo, entre otras aplicaciones.
Las bacterias no son los únicos organismos que viajan en grupo. Peces, abejas y aves también realizan desplazamientos colectivos coordinados. Pero como organismos simples, se pensaba que las bacterias estarían en desventaja al ser comparadas con otros organismos que viajan en grupo.
En un sorprendente descubrimiento, los investigadores han constatado que las bacterias tienen en realidad tácticas de supervivencia superiores, que les permiten encontrar "comida" y evitar ser dañadas, con una facilidad mayor que en el caso de otros grupos, como los de amebas o los de peces. Ello se debe a que se comunican de un modo diferente, a través de medios químicos, moleculares y mecánicos, y pueden evitar algunos de los errores que a menudo afectan al movimiento colectivo de otros organismos.
FUENTE: Amacing
Ahora, unos investigadores han desarrollado un modelo digital que explica mejor cómo las bacterias se mueven en "enjambres". Y este modelo puede ser aplicado a tecnologías desarrolladas por el Ser Humano, como ordenadores, robótica, e inteligencia artificial en general.
La investigadora Adi Shklarsh, con colaboración, han descubierto cómo las bacterias recopilan colectivamente información sobre su entorno y encuentran el modo óptimo de proliferar, incluso en los entornos más complejos.
Estudiar los principios de la navegación de las bacterias permitirá a los investigadores diseñar una nueva generación de robots inteligentes que puedan formar enjambres inteligentes, o ayudar al desarrollo de microrrobots médicos utilizables para hacer diagnósticos o para distribuir con gran precisión medicamentos en el cuerpo, entre otras aplicaciones.
Las bacterias no son los únicos organismos que viajan en grupo. Peces, abejas y aves también realizan desplazamientos colectivos coordinados. Pero como organismos simples, se pensaba que las bacterias estarían en desventaja al ser comparadas con otros organismos que viajan en grupo.
En un sorprendente descubrimiento, los investigadores han constatado que las bacterias tienen en realidad tácticas de supervivencia superiores, que les permiten encontrar "comida" y evitar ser dañadas, con una facilidad mayor que en el caso de otros grupos, como los de amebas o los de peces. Ello se debe a que se comunican de un modo diferente, a través de medios químicos, moleculares y mecánicos, y pueden evitar algunos de los errores que a menudo afectan al movimiento colectivo de otros organismos.
FUENTE: Amacing
jueves, 15 de diciembre de 2011
LA MAS ANTIGUA FORMA DE VIDA TERRESTRE CAPAZ DE RESPIRAR OXÍGENO
Se han obtenido las primeras pruebas de que ya había bacterias capaces de respirar oxígeno aposentadas en tierra firme unos 100 millones de años antes de lo que se pensaba.
La forma de vida más primitiva con respiración aerobia en tierra firme apareció hace 2.480 millones años.
El equipo de investigación, dirigido por Kurt Konhauser, ha obtenido este resultado tras investigar un vínculo entre los niveles de oxígeno atmosférico y el aumento en las concentraciones de cromo en rocas de antiguos fondos marinos. Los investigadores sugieren que el aumento en los niveles de cromo fue provocado por la oxidación en tierra firme de la pirita.
La oxidación de la pirita es provocada por las bacterias y el oxígeno. Las bacterias aerobias descompusieron la pirita, produciendo ácido a una escala sin precedentes. Luego, el ácido disolvió rocas y suelos en un cóctel de metales que incluía al cromo, el cual fue llevado al mar por el escurrimiento del agua de lluvia.
Esto establece una nueva fecha para la Gran Oxidación, que es la época en que la atmósfera tuvo oxígeno en cantidades significativas por primera vez. El aumento en los niveles de oxígeno atmosférico estimuló la evolución de nuevas especies de bacterias con respiración aerobia que vivían en tierra firme.
Las mismas formas de vida bacterianas que iniciaron esa adaptación pionera en aquella lejana época todavía existen hoy en día. Obtienen su sustento de la pirita y viven en las aguas residuales muy ácidas de las minas de muchas partes del mundo.
FUENTE: Amacing
La forma de vida más primitiva con respiración aerobia en tierra firme apareció hace 2.480 millones años.
El equipo de investigación, dirigido por Kurt Konhauser, ha obtenido este resultado tras investigar un vínculo entre los niveles de oxígeno atmosférico y el aumento en las concentraciones de cromo en rocas de antiguos fondos marinos. Los investigadores sugieren que el aumento en los niveles de cromo fue provocado por la oxidación en tierra firme de la pirita.
La oxidación de la pirita es provocada por las bacterias y el oxígeno. Las bacterias aerobias descompusieron la pirita, produciendo ácido a una escala sin precedentes. Luego, el ácido disolvió rocas y suelos en un cóctel de metales que incluía al cromo, el cual fue llevado al mar por el escurrimiento del agua de lluvia.
Esto establece una nueva fecha para la Gran Oxidación, que es la época en que la atmósfera tuvo oxígeno en cantidades significativas por primera vez. El aumento en los niveles de oxígeno atmosférico estimuló la evolución de nuevas especies de bacterias con respiración aerobia que vivían en tierra firme.
Las mismas formas de vida bacterianas que iniciaron esa adaptación pionera en aquella lejana época todavía existen hoy en día. Obtienen su sustento de la pirita y viven en las aguas residuales muy ácidas de las minas de muchas partes del mundo.
FUENTE: Amacing
martes, 13 de diciembre de 2011
NUESTRA PERSONALIDAD CAMBIA MENOS DE LO CREÍDO ENTRE LA INFANCIA Y LA ADULTEZ
Los rasgos de personalidad en la infancia sí permiten en muchos casos pronosticar la personalidad en la edad adulta. Ésta es la conclusión a la que ha llegado el psicólogo Christopher S. Nave, de la Universidad Rutgers.
Usando datos de un estudio de la década de 1960 sobre aproximadamente 2.400 niños, alumnos de enseñanza primaria en Hawái, la comparación realizada por el equipo de Nave entre las clasificaciones de personalidad de los estudiantes realizadas por sus profesores, y las entrevistas grabadas en video de algunas de esas personas 40 años después, indica que nuestra personalidad cambia menos de lo creído entre la infancia y la madurez.
Los rasgos de personalidad en la infancia sí permiten en muchos casos pronosticar la personalidad en la edad adulta.
Los niños con gran fluidez verbal, definidos como muy habladores, tendían, como adultos de mediana edad, a hablar con fluidez.
Los niños evaluados como muy adaptables, o sea definidos como capaces de desenvolverse bien en situaciones nuevas, tendían, como adultos de edad mediana, a comportarse de manera desenvuelta, usualmente con simpatía.
Los alumnos calificados como impulsivos, en su madurez eran propensos a hablar alto. Aquellos que en su infancia recibieron una puntuación baja en este rasgo de personalidad, en su madurez fueron clasificados por los investigadores como sujetos temerosos o tímidos, manteniendo siempre las distancias con los demás y expresando inseguridad.
Los niños cuyos profesores los definieron como tendentes a minimizarse a sí mismos, es decir a restar importancia a sus méritos propios y nunca fanfarronear, en la madurez presentaban una tendencia a buscar apoyo en otras personas y a expresar inseguridad.
En muchos aspectos, en la madurez seguimos siendo la persona que éramos en la infancia. Esto demuestra la importancia de comprender la personalidad porque nos sigue a donde vayamos a través del tiempo y de los diferentes contextos.
FUENTE: Amacing
Usando datos de un estudio de la década de 1960 sobre aproximadamente 2.400 niños, alumnos de enseñanza primaria en Hawái, la comparación realizada por el equipo de Nave entre las clasificaciones de personalidad de los estudiantes realizadas por sus profesores, y las entrevistas grabadas en video de algunas de esas personas 40 años después, indica que nuestra personalidad cambia menos de lo creído entre la infancia y la madurez.
Los rasgos de personalidad en la infancia sí permiten en muchos casos pronosticar la personalidad en la edad adulta.
Los niños con gran fluidez verbal, definidos como muy habladores, tendían, como adultos de mediana edad, a hablar con fluidez.
Los niños evaluados como muy adaptables, o sea definidos como capaces de desenvolverse bien en situaciones nuevas, tendían, como adultos de edad mediana, a comportarse de manera desenvuelta, usualmente con simpatía.
Los alumnos calificados como impulsivos, en su madurez eran propensos a hablar alto. Aquellos que en su infancia recibieron una puntuación baja en este rasgo de personalidad, en su madurez fueron clasificados por los investigadores como sujetos temerosos o tímidos, manteniendo siempre las distancias con los demás y expresando inseguridad.
Los niños cuyos profesores los definieron como tendentes a minimizarse a sí mismos, es decir a restar importancia a sus méritos propios y nunca fanfarronear, en la madurez presentaban una tendencia a buscar apoyo en otras personas y a expresar inseguridad.
En muchos aspectos, en la madurez seguimos siendo la persona que éramos en la infancia. Esto demuestra la importancia de comprender la personalidad porque nos sigue a donde vayamos a través del tiempo y de los diferentes contextos.
FUENTE: Amacing
¿POR QUÉ NO SOMOS YA MÁS INTELIGENTES?
Los seres humanos nos esforzamos en mejorar nuestra memoria, inteligencia y atención de múltiples maneras, desde tomar una taza de café que nos despeje la mente hasta consumir medicamentos psicoestimulantes. Pero quizás, aunque parezca contradictorio, ser más inteligentes no nos convenga como especie. Un nuevo artículo, advierte de que hay límites en cómo obtener la inteligencia y de que cualquier aumento en la capacidad de pensar puede traer algún problema añadido.
Los autores analizan por qué los humanos tenemos un determinado nivel de inteligencia y no más.
La evolución va acompañada de ventajas y desventajas. Por ejemplo, explican, parece que sería bueno medir dos metros y medio de altura, pero la mayoría de los corazones no serían capaces de hacer llegar la sangre tan alto. Por eso la mayoría de las personas no superan el 1,80. Así como hay ventajas y desventajas evolutivas de los rasgos físicos, también hay ventajas y desventajas en la inteligencia. Se cree que el tamaño del cerebro del bebé está limitado, entre otros factores, por el tamaño de la pelvis de la madre. Cerebros más grandes podrían implicar más muertes en el parto, y la pelvis no se puede cambiar sustancialmente sin cambiar también la forma en la que ponerse de pie y caminar.
FUENTE: ABC
Los autores analizan por qué los humanos tenemos un determinado nivel de inteligencia y no más.
La evolución va acompañada de ventajas y desventajas. Por ejemplo, explican, parece que sería bueno medir dos metros y medio de altura, pero la mayoría de los corazones no serían capaces de hacer llegar la sangre tan alto. Por eso la mayoría de las personas no superan el 1,80. Así como hay ventajas y desventajas evolutivas de los rasgos físicos, también hay ventajas y desventajas en la inteligencia. Se cree que el tamaño del cerebro del bebé está limitado, entre otros factores, por el tamaño de la pelvis de la madre. Cerebros más grandes podrían implicar más muertes en el parto, y la pelvis no se puede cambiar sustancialmente sin cambiar también la forma en la que ponerse de pie y caminar.
FUENTE: ABC
EL BUEN OLFATO, CLAVE EN LA EVOLUCIÓN DE LOS HUMANOS
El olfato nos hizo más humanos, o al menos favoreció en nuestra especie procesos cognitivos como la percepción o la intuición, según revela un análisis de decenas de cráneos de humanos actuales, ancestros y otros primates liderado por un equipo de investigación del Consejo Superior de Investigaciones Científicas (CSIC).
En concreto, en el análisis se compararon 80 cráneos de 'Homo sapiens', 30 de chimpancés y otros 14 de otras especies de homínidos, como los neandertales, 'Homo ergaster', 'Homo erectus' y ' Midpleistocene Homo'.
Los investigadores se centraron en la base del cráneo, que estudiaron en tres dimensiones, y concluyeron que los bulbos olfativos, donde está la estructura que recibe la información del olfato, son un 12% mayor en nuestra especie que en el resto de las especies estudiadas.
Estos bulbos olfativos se sitúan muy cerca de los lóbulos temporales, que también son más grandes en los 'sapiens' y que se relacionan con el lenguaje, la memoria y algunas funciones sociales. "
FUENTE: El Mundo
En concreto, en el análisis se compararon 80 cráneos de 'Homo sapiens', 30 de chimpancés y otros 14 de otras especies de homínidos, como los neandertales, 'Homo ergaster', 'Homo erectus' y ' Midpleistocene Homo'.
Los investigadores se centraron en la base del cráneo, que estudiaron en tres dimensiones, y concluyeron que los bulbos olfativos, donde está la estructura que recibe la información del olfato, son un 12% mayor en nuestra especie que en el resto de las especies estudiadas.
Estos bulbos olfativos se sitúan muy cerca de los lóbulos temporales, que también son más grandes en los 'sapiens' y que se relacionan con el lenguaje, la memoria y algunas funciones sociales. "
FUENTE: El Mundo
lunes, 12 de diciembre de 2011
UN PASO HACIA LA PÍLDORA DE LA MEMORIA
Científicos de Houston descubren que la capacidad de recordar se multiplica si se inhibe determinada molécula.
Recordar el cumpleaños de tu padre o el nombre de una persona que te acaban de presentar, retener el camino de vuelta al hotel en una ciudad nueva, conservar intactos los recuerdos de la infancia de tus hijos o lo que estudiaste en el colegio. ¿Por qué hay personas cuya memoria es prodigiosa y otros que no pueden confiar en ella ni para el más ínfimo detalle? Un equipo de científicos del Baylor College of Medicine (BCM) de Houston (Texas) parece haber encontrado una molécula en cuya ausencia la memoria de los mamíferos se multiplica.
La molécula en cuestión es la PKR. Pero el equipo liderado por el doctor Mauro Costa-Matiolli, profesor de neurociencia en BCM, observó que la actividad de esta molécula aparecía modificada cuando un paciente presentaba algún tipo de desorden cognitivo, por lo que comenzaron a estudiar su función en el cerebro.
El resultado fue asombroso. «Descubrimos que cuando inhibimos genéticamente la molécula PKR, aumentamos la excitabilidad de las células del cerebro y potenciamos el aprendizaje y la memoria», explica el doctor.
Durante el estudio, el equipo del BCM utilizó dos tipos de ratones. Unos con PKR en el cerebro y otros en los que esta molécula había sido inhibida. Lo que observaron fue que los ratones sin PKR tenían una especie de «súper memoria» comparados con el otro grupo de roedores. Una de las pruebas que realizaron fue comprobar la memoria espacial de los ratones para encontrar una plataforma siguiendo indicadores visuales. Los ratones normales tuvieron que repetir varias veces el ejercicio para recordar el emplazamiento de la plataforma, mientras que los ratones sin PKR aprendieron la ruta tras una única prueba.
La verdadera revolución de este estudio, es que prueba que el proceso inhibidor de PKR que se realizó en los roedores se puede reproducir en los humanos. Para hacerlo universal haría falta desarrollar la «pastilla crece-memoria», un medicamento que incluiría la pequeña molécula encargada de bloquear la molécula PKR.
Costa-Mattolli es consciente de que el desarrollo de una píldora así puede tardar años y que encontrará diversos obstáculos para su aprobación en la Administración de Alimentos y Medicamentos de Estados Unidos. A pesar de ello, el mejorar la actividad cerebral de millones de personas es una meta apremiante.
FUENTE: ABC
Recordar el cumpleaños de tu padre o el nombre de una persona que te acaban de presentar, retener el camino de vuelta al hotel en una ciudad nueva, conservar intactos los recuerdos de la infancia de tus hijos o lo que estudiaste en el colegio. ¿Por qué hay personas cuya memoria es prodigiosa y otros que no pueden confiar en ella ni para el más ínfimo detalle? Un equipo de científicos del Baylor College of Medicine (BCM) de Houston (Texas) parece haber encontrado una molécula en cuya ausencia la memoria de los mamíferos se multiplica.
La molécula en cuestión es la PKR. Pero el equipo liderado por el doctor Mauro Costa-Matiolli, profesor de neurociencia en BCM, observó que la actividad de esta molécula aparecía modificada cuando un paciente presentaba algún tipo de desorden cognitivo, por lo que comenzaron a estudiar su función en el cerebro.
El resultado fue asombroso. «Descubrimos que cuando inhibimos genéticamente la molécula PKR, aumentamos la excitabilidad de las células del cerebro y potenciamos el aprendizaje y la memoria», explica el doctor.
Durante el estudio, el equipo del BCM utilizó dos tipos de ratones. Unos con PKR en el cerebro y otros en los que esta molécula había sido inhibida. Lo que observaron fue que los ratones sin PKR tenían una especie de «súper memoria» comparados con el otro grupo de roedores. Una de las pruebas que realizaron fue comprobar la memoria espacial de los ratones para encontrar una plataforma siguiendo indicadores visuales. Los ratones normales tuvieron que repetir varias veces el ejercicio para recordar el emplazamiento de la plataforma, mientras que los ratones sin PKR aprendieron la ruta tras una única prueba.
La verdadera revolución de este estudio, es que prueba que el proceso inhibidor de PKR que se realizó en los roedores se puede reproducir en los humanos. Para hacerlo universal haría falta desarrollar la «pastilla crece-memoria», un medicamento que incluiría la pequeña molécula encargada de bloquear la molécula PKR.
Costa-Mattolli es consciente de que el desarrollo de una píldora así puede tardar años y que encontrará diversos obstáculos para su aprobación en la Administración de Alimentos y Medicamentos de Estados Unidos. A pesar de ello, el mejorar la actividad cerebral de millones de personas es una meta apremiante.
FUENTE: ABC
ATRAVESAR PAREDES, UNA PREDICCIÓN DE LOS FÍSICOS
Científicos creen que, en el futuro, conseguirán que objetos visibles al ojo humano atraviesen muros de la misma forma que lo hacen las partículas subatómicas.
Es uno de los grandes mitos de la ciencia ficción, poder atravesar muros como un fantasma, claro que si alguna vez has intentado el experimento, sabrás con la seguridad que da un buen golpetazo que... no es posible. Sin embargo, las partículas subatómicas pueden realizar esta increíble hazaña a través de un extraño proceso llamado efecto túnel cuántico. Ahora, un equipo de físicos dice que podría ser posible observar ese fenómeno de tunelización con un objeto artificial de mayor tamaño, según publica Science Now. Obviamente, la propuesta se enfrenta a grandes desafíos.
De tener éxito, el experimento sería un impresionante avance para llevar la mecánica cuántica, que rige el comportamiento de moléculas o átomos, al mundo de los grandes objetos, aquellos que son visibles al ojo humano y que se comportan de forma diferente, de acuerdo a las leyes de la mecánica clásica. En 2010, los físicos dieron un paso clave en esta dirección dirigiendo un diminuto objeto hacia estados de movimiento que pueden describirse mediante la mecánica cuántica. El tunelado sería un logro aún mayor.
¿Cómo funciona este efecto túnel cuántico? Imagina que un electrón, por ejemplo, es una canica situada en uno de dos valles separados por una pequeña colina, que representa los efectos de un campo eléctrico. Para cruzar la colina de un valle al otro, la canica tiene que rodar con suficiente energía. Si tiene muy poca energía, en teoría, nunca podrá alcanzar la cima de la colina y cruzarla.
Sin embargo, partículas diminutas como los electrones pueden cruzarla incluso si no tienen energía para escalar la colina. La física cuántica describe estas partículas como ondas extendidas de probabilidad, y resulta que hay una probabilidad de que una de ellas se “tunelice” a través de la colina y, como si se tratara de magia, se materialice repentinamente en el otro valle. Científicos e ingenieros han demostrado ampliamente el efecto túnel cuántico en semiconductores.
Aunque para cualquier persona no experta en física puede parecer algo asombroso, hasta aquí todo es normal. Pero por supuesto nadie ha visto nunca un objeto macroscópico atravesar de un obstáculo. Sin embargo, Mika Sillanpää y sus colegas de la Universidad Aalto en Finlandia creen que podría ser posible utilizando un minúsculo aparato que recuerda a un trampolín. Los investigadores crearían el trampolín enano a partir de grafeno. Suspenderían la membrana sobre una placa de metal. Cuando los aplicasen un voltaje eléctrico, la membrana tendría dos posiciones estables: una en la que se inclina ligeramente en el medio, y otra en la se que curva lo suficiente para entrar en contacto con la placa de debajo.
FUENTE: ABC
Es uno de los grandes mitos de la ciencia ficción, poder atravesar muros como un fantasma, claro que si alguna vez has intentado el experimento, sabrás con la seguridad que da un buen golpetazo que... no es posible. Sin embargo, las partículas subatómicas pueden realizar esta increíble hazaña a través de un extraño proceso llamado efecto túnel cuántico. Ahora, un equipo de físicos dice que podría ser posible observar ese fenómeno de tunelización con un objeto artificial de mayor tamaño, según publica Science Now. Obviamente, la propuesta se enfrenta a grandes desafíos.
De tener éxito, el experimento sería un impresionante avance para llevar la mecánica cuántica, que rige el comportamiento de moléculas o átomos, al mundo de los grandes objetos, aquellos que son visibles al ojo humano y que se comportan de forma diferente, de acuerdo a las leyes de la mecánica clásica. En 2010, los físicos dieron un paso clave en esta dirección dirigiendo un diminuto objeto hacia estados de movimiento que pueden describirse mediante la mecánica cuántica. El tunelado sería un logro aún mayor.
¿Cómo funciona este efecto túnel cuántico? Imagina que un electrón, por ejemplo, es una canica situada en uno de dos valles separados por una pequeña colina, que representa los efectos de un campo eléctrico. Para cruzar la colina de un valle al otro, la canica tiene que rodar con suficiente energía. Si tiene muy poca energía, en teoría, nunca podrá alcanzar la cima de la colina y cruzarla.
Sin embargo, partículas diminutas como los electrones pueden cruzarla incluso si no tienen energía para escalar la colina. La física cuántica describe estas partículas como ondas extendidas de probabilidad, y resulta que hay una probabilidad de que una de ellas se “tunelice” a través de la colina y, como si se tratara de magia, se materialice repentinamente en el otro valle. Científicos e ingenieros han demostrado ampliamente el efecto túnel cuántico en semiconductores.
Aunque para cualquier persona no experta en física puede parecer algo asombroso, hasta aquí todo es normal. Pero por supuesto nadie ha visto nunca un objeto macroscópico atravesar de un obstáculo. Sin embargo, Mika Sillanpää y sus colegas de la Universidad Aalto en Finlandia creen que podría ser posible utilizando un minúsculo aparato que recuerda a un trampolín. Los investigadores crearían el trampolín enano a partir de grafeno. Suspenderían la membrana sobre una placa de metal. Cuando los aplicasen un voltaje eléctrico, la membrana tendría dos posiciones estables: una en la que se inclina ligeramente en el medio, y otra en la se que curva lo suficiente para entrar en contacto con la placa de debajo.
FUENTE: ABC
miércoles, 30 de noviembre de 2011
Fusión de estrellas en la 'explosión de Navidad'
Cuando se miran las estrellas es probable que algunas de ellas hace tiempo que estén muertas, aunque la luz que emitieron sigue viajando por el Cosmos. Ahora, los últimos hallazgos astronómicos están revelando nuevas formas en las que se producen estas muertes, como la que tuvo lugar el pasado 24 de diciembre, justo el día de Navidad, a 5.500 años luz de la Tierra.
Ese día tuvo lugar un estallido de rayos gamma que dejó perplejos a los astrónomos. Muchos investigadores recibieron al mismo tiempo los datos recogidos por el satélite 'Swift' de la NASA y comprobaron que esta explosión, bautizada oficialmente como GRB101225A y apodada "la explosión de Navidad", era de más duración de lo que se había visto hasta entonces y después se produjo un resplandor de origen térmico que no cuadrada con los modelos previos.
Casi un año después, un equipo internacional, liderado por Christina Thöne y Antonio de Ugarte Postigo, ambos del Instituto de Astrofísica de Andalucía (IAA-CSIC), publica en 'Nature' una interpretación de lo sucedido: la 'explosión de Navidad' fue la fusión de dos estrellas, después de un periodo en el que ambas compartieron la misma atmósfera estelar.
Thöne, en un comunicado, recuerda que todos los estallidos similares de rayos gamma van seguidos de un resplandor producido por los electrones en movimiento dentro de un campo magnético. Los estallidos largos (de dos o más segundos de duración) se deben al colapso de una estrella muy masiva, mientras que los cortos (de menos de dos segundos) los produce la fusión de dos objetos compactos, como estrellas de neutrones.
Fuente: El Mundo
Ese día tuvo lugar un estallido de rayos gamma que dejó perplejos a los astrónomos. Muchos investigadores recibieron al mismo tiempo los datos recogidos por el satélite 'Swift' de la NASA y comprobaron que esta explosión, bautizada oficialmente como GRB101225A y apodada "la explosión de Navidad", era de más duración de lo que se había visto hasta entonces y después se produjo un resplandor de origen térmico que no cuadrada con los modelos previos.
Casi un año después, un equipo internacional, liderado por Christina Thöne y Antonio de Ugarte Postigo, ambos del Instituto de Astrofísica de Andalucía (IAA-CSIC), publica en 'Nature' una interpretación de lo sucedido: la 'explosión de Navidad' fue la fusión de dos estrellas, después de un periodo en el que ambas compartieron la misma atmósfera estelar.
Thöne, en un comunicado, recuerda que todos los estallidos similares de rayos gamma van seguidos de un resplandor producido por los electrones en movimiento dentro de un campo magnético. Los estallidos largos (de dos o más segundos de duración) se deben al colapso de una estrella muy masiva, mientras que los cortos (de menos de dos segundos) los produce la fusión de dos objetos compactos, como estrellas de neutrones.
Fuente: El Mundo
martes, 15 de noviembre de 2011
LOS PLANETAS NO NECESITAN LA LUNA PARA SER HABITABLES, SEGÚN LA NASA
Un estudio de la NASA ha descubierto que hay planetas que no necesitan satélites tan grandes como la Luna para sustentar vida en su interior. Con este hallazgo son "numerosos" los planetas que regresan a la lista de 'posibles habitables' de la NASA.
En 1993, el científico del Observatorio de París Jacques Laskar demostró que la Luna ayuda a estabilizar la inclinación del eje de rotación de la Tierra contrarrestando la influencia que ejerce Júpiter sobre el planeta. Así, si no existiera el satélite la inclinación de la Tierra vagaría caóticamente entre 0 y 85 grados, una situación que provocaría grandes cambios en el clima y, por tanto, un ambiente hostil de cara a la prosperidad de vida compleja, como puede ser el hombre.
Este estudio fue tomado por algunos científicos como la afirmación de que una vida compleja es "muy rara" en el universo debido a que su formación depende de numerosos factores, entre ellos la presencia de un satélite tan grande como el de la Tierra.
Sin embargo, un estudio actual sugiere que existen planetas sin luna que han sido despedidos "injustamente" de entre los que tienen posibilidad de ser habitables. La NASA ha indicado que "podría haber muchos planetas en los que se podría desarrollar vida compleja ahí fuera".
A través de una simulación por ordenador, el autor principal de este estudio, Jack Lissauer, ha recreado la evolución de una Tierra con la misma edad que la actual pero sin Luna. De este modo ha descubierto que la teoría de Laskar no era del todo cierta y sin satélite la inclinación del planeta "variaría sólo entre los 10 y 50 grados". "Además, se ha comprobado que ha habido periodos de hasta 500 años en los que la inclinación era estable, manteniéndose entre los 17 y los 32 grados", ha apuntado.
De este modo, los expertos han señalado que no hacen falta "grandes lunas para que exista una inclinación estable" en un planeta y añaden que "incluso grandes satélites pueden ser perjudiciales en función de la disposición de planetas en el sistema". "Cada sistema va a ser diferente, por lo que no se puede aplicar la teoría del satélite en otros sistemas solares, puede que haya más planetas habitables por el universo".
FUENTE: La Razón
CONCLUSIÓN: No es necesario que un planeta tenga luna para que se de vida en el, cada planeta es diferente y tiene caracteristicas distintas por lo que, algunos pueden estar habitados sin la necesidad de tener un satelite, y otros que tengan un satelite pueden estar sin habitar, depende de muchos factores.
En 1993, el científico del Observatorio de París Jacques Laskar demostró que la Luna ayuda a estabilizar la inclinación del eje de rotación de la Tierra contrarrestando la influencia que ejerce Júpiter sobre el planeta. Así, si no existiera el satélite la inclinación de la Tierra vagaría caóticamente entre 0 y 85 grados, una situación que provocaría grandes cambios en el clima y, por tanto, un ambiente hostil de cara a la prosperidad de vida compleja, como puede ser el hombre.
Este estudio fue tomado por algunos científicos como la afirmación de que una vida compleja es "muy rara" en el universo debido a que su formación depende de numerosos factores, entre ellos la presencia de un satélite tan grande como el de la Tierra.
Sin embargo, un estudio actual sugiere que existen planetas sin luna que han sido despedidos "injustamente" de entre los que tienen posibilidad de ser habitables. La NASA ha indicado que "podría haber muchos planetas en los que se podría desarrollar vida compleja ahí fuera".
A través de una simulación por ordenador, el autor principal de este estudio, Jack Lissauer, ha recreado la evolución de una Tierra con la misma edad que la actual pero sin Luna. De este modo ha descubierto que la teoría de Laskar no era del todo cierta y sin satélite la inclinación del planeta "variaría sólo entre los 10 y 50 grados". "Además, se ha comprobado que ha habido periodos de hasta 500 años en los que la inclinación era estable, manteniéndose entre los 17 y los 32 grados", ha apuntado.
De este modo, los expertos han señalado que no hacen falta "grandes lunas para que exista una inclinación estable" en un planeta y añaden que "incluso grandes satélites pueden ser perjudiciales en función de la disposición de planetas en el sistema". "Cada sistema va a ser diferente, por lo que no se puede aplicar la teoría del satélite en otros sistemas solares, puede que haya más planetas habitables por el universo".
FUENTE: La Razón
CONCLUSIÓN: No es necesario que un planeta tenga luna para que se de vida en el, cada planeta es diferente y tiene caracteristicas distintas por lo que, algunos pueden estar habitados sin la necesidad de tener un satelite, y otros que tengan un satelite pueden estar sin habitar, depende de muchos factores.
LA NASA DESMONTA LOS BULOS SOBRE LA SUPERTORMENTA SOLAR DE 2012
Falta poco para 2012, que se ha convertido, por mediación de los amantes de la pseudociencia y de internet, en el año de todas las desgracias. Una de ellas es la posibilidad de que una gigantesca tormenta solar devaste la Tierra. Los científicos han advertido en numerosas ocasiones de la necesidad de protegernos de las eyecciones de partículas del Sol, que pueden, si son fuertes y apuntan directamente a nuestro planeta, provocar serios problemas en nuestras redes de energía y comunicaciones. La propia NASA elaboró hace años un informe en el que se ponía en el peor de los casos y que suponía una catástrofe mundial. Sin embargo, ante la expectación que ha levantado este fenómeno, la agencia espacial ha querido poner las cosas en su sitio y llamar a la calma, desmontando una serie de mentiras extendidas popularmente y que circulan por la Red. Para empezar, el Sol alcanzará su máxima actividad a finales de 2013 o a principios de 1014, no en 2012 y ni siquiera entonces tendrá la suficiente energía para enviar un latigazo de fuego desde 93 millones de millas que pueda destruir la Tierra.
La agencia reconoce la necesidad legítima de proteger la Tierra de las formas más intensas del clima espacial -grandes descargas de energía electromagnética y partículas que a veces pueden llegar desde el Sol-, pero también recuerda que el ciclo solar (once años de actividad, once de traquilidad) se ha producido durante milenios sin provocar daños excesivamente graves.
Actualmente, nos encontramos inmersos en un ciclo de gran actividad. El calor explosivo de una llamarada solar no puede llegar a la Tierra, pero sí pueden hacerlo las partículas energéticas y la radiación electromagnética. Las llamaradas solares pueden alterar temporalmente la atmósfera exterior, provocando interrupciones en la transmisión de la señal de, por ejemplo, un satélite GPS, haciendo que equivoque sus parámetros muchos metros. Otro fenómeno producido por el Sol podría ser aún más perjudicial. Conocida como una eyección de masa coronal, estas explosiones solares impulsa partículas y fluctuaciones electromagnéticas en la atmósfera de la Tierra, lo que podría hacer estallar los transformadores en las redes eléctricas. Las partículas también pueden chocar con la electrónica a bordo de un importante satélite e interrumpir sus sistemas.
FUENTE: ABC
CONCLUSIÓN: El mundo no se acaba en 2012
La agencia reconoce la necesidad legítima de proteger la Tierra de las formas más intensas del clima espacial -grandes descargas de energía electromagnética y partículas que a veces pueden llegar desde el Sol-, pero también recuerda que el ciclo solar (once años de actividad, once de traquilidad) se ha producido durante milenios sin provocar daños excesivamente graves.
Actualmente, nos encontramos inmersos en un ciclo de gran actividad. El calor explosivo de una llamarada solar no puede llegar a la Tierra, pero sí pueden hacerlo las partículas energéticas y la radiación electromagnética. Las llamaradas solares pueden alterar temporalmente la atmósfera exterior, provocando interrupciones en la transmisión de la señal de, por ejemplo, un satélite GPS, haciendo que equivoque sus parámetros muchos metros. Otro fenómeno producido por el Sol podría ser aún más perjudicial. Conocida como una eyección de masa coronal, estas explosiones solares impulsa partículas y fluctuaciones electromagnéticas en la atmósfera de la Tierra, lo que podría hacer estallar los transformadores en las redes eléctricas. Las partículas también pueden chocar con la electrónica a bordo de un importante satélite e interrumpir sus sistemas.
FUENTE: ABC
CONCLUSIÓN: El mundo no se acaba en 2012
domingo, 13 de noviembre de 2011
UN PLANETA GIGANTE EXPULSADO DEL PRIMITIVO SISTEMA SOLAR
Un equipo de astrónomos acaba de publicar un trabajo que añade la existencia de un quinto planeta gigante al primitivo Sistema Solar. Este astro axplicaría uno de los misterios de nuestro sistema, que se refiere a la formación de las órbitas de los planetas.
Por lo que se conoce, cuando se formó el Sistema Solar, hace unos 4.500 millones de años, hubo un gran inestabilidad en las órbitas de los grandes planetas, hasta el punto que tendrían que haber acabado colisionando con la Tierra primigenia. Su conclusión es que si no ocurrió, se debe a que existía este misterioso cuerpo celeste.
La investigación,se basa en simulaciones informáticas. Según David Nesvorny, del Southwest Research Institute, sus datos proceden del estudio de los muchos objetos pequeños que hay más allá de Neptuno, en el llamado 'Cinturón de Kuiper', y también del registro de cráteres que hay en la Luna.
De su ánalisis ya se había concluido que cuando el Sistema Solar tenía sólo unos 600 millones de años, había una gran inestabilidad en las órbitas de los planetas gigantes, de los que ahora hay cuatro: Júpiter, Saturno, Neptuno y Urano. Debido a ello, infinidad de cuerpos pequeños se dispersaron (algunos de conforman el Cinturón de Kuiper), pero otros se acercaron hacia el Sol, afectando a la Tierra y la Luna.
Y lo mismo pasó con los grandes. Júpiter, por ejemplo, se habría movido hacia dentro del Sistema lentamente. El problema es que ese movimiento habría afectado a las órbitas de los planetas rocosos como la Tierra, que habría colisionado con sus vecinos, Marte o Venus.
Los astrónomos, presentaron una alternativa que evitaba esta opción: propusieron que la órbita de Júpiter cambió con rapidez cuando se dispersó, alejandose de Urano o de Neptuno, durante ese periodo de inestabilidad. Este 'salto' de Júpiter habría sido menos dañino para el resto de los planetas pero, ¿qué lo causó?
Nesvorny realizó millones de simulaciones informáticas para encontrar la respuesta. Si efectivamente Júpiter saltó dispersando a sus dos vecinos gigantes, uno de los dos tendría que haber sido expulsado del Sistema Solar, algo que tampoco ocurrió. "Había algo claramente incorrecto", afirma el investigador.
La única alternativa que se le ocurrió era que había habido un quinto planeta gigante en nuestro entorno cósmico. Y Nesvorny acertó: comprobó que, con esa simulación, todo volvía a su lugar. Ese astro debía haber sido expulsado del Sistema Solar en sus inicios. "Es una explicación que parece bastante concebible debido al descubrimiento reciente de una gran cantidad de planetas que flotan libremente en el espacio ineterestelar, sin orbitar ninguna estrella, lo que indica que estas eyecciones de planetas podían ser comunes", afirma Nesvorny.
FUENTE: El Mundo
CONCLUSIÓN: Existe un quinto planeta en nuestro Sistema Solar, que fue expulsado de él poco después de que se formara. Su órbita, es la actual de Júpiter.
Por lo que se conoce, cuando se formó el Sistema Solar, hace unos 4.500 millones de años, hubo un gran inestabilidad en las órbitas de los grandes planetas, hasta el punto que tendrían que haber acabado colisionando con la Tierra primigenia. Su conclusión es que si no ocurrió, se debe a que existía este misterioso cuerpo celeste.
La investigación,se basa en simulaciones informáticas. Según David Nesvorny, del Southwest Research Institute, sus datos proceden del estudio de los muchos objetos pequeños que hay más allá de Neptuno, en el llamado 'Cinturón de Kuiper', y también del registro de cráteres que hay en la Luna.
De su ánalisis ya se había concluido que cuando el Sistema Solar tenía sólo unos 600 millones de años, había una gran inestabilidad en las órbitas de los planetas gigantes, de los que ahora hay cuatro: Júpiter, Saturno, Neptuno y Urano. Debido a ello, infinidad de cuerpos pequeños se dispersaron (algunos de conforman el Cinturón de Kuiper), pero otros se acercaron hacia el Sol, afectando a la Tierra y la Luna.
Y lo mismo pasó con los grandes. Júpiter, por ejemplo, se habría movido hacia dentro del Sistema lentamente. El problema es que ese movimiento habría afectado a las órbitas de los planetas rocosos como la Tierra, que habría colisionado con sus vecinos, Marte o Venus.
Los astrónomos, presentaron una alternativa que evitaba esta opción: propusieron que la órbita de Júpiter cambió con rapidez cuando se dispersó, alejandose de Urano o de Neptuno, durante ese periodo de inestabilidad. Este 'salto' de Júpiter habría sido menos dañino para el resto de los planetas pero, ¿qué lo causó?
Nesvorny realizó millones de simulaciones informáticas para encontrar la respuesta. Si efectivamente Júpiter saltó dispersando a sus dos vecinos gigantes, uno de los dos tendría que haber sido expulsado del Sistema Solar, algo que tampoco ocurrió. "Había algo claramente incorrecto", afirma el investigador.
La única alternativa que se le ocurrió era que había habido un quinto planeta gigante en nuestro entorno cósmico. Y Nesvorny acertó: comprobó que, con esa simulación, todo volvía a su lugar. Ese astro debía haber sido expulsado del Sistema Solar en sus inicios. "Es una explicación que parece bastante concebible debido al descubrimiento reciente de una gran cantidad de planetas que flotan libremente en el espacio ineterestelar, sin orbitar ninguna estrella, lo que indica que estas eyecciones de planetas podían ser comunes", afirma Nesvorny.
FUENTE: El Mundo
CONCLUSIÓN: Existe un quinto planeta en nuestro Sistema Solar, que fue expulsado de él poco después de que se formara. Su órbita, es la actual de Júpiter.
viernes, 11 de noviembre de 2011
RUSIA VE PROBABLE LA CAÍDA DE LA SONDA ESPACIAL QUE VIAJABA A UNA LUNA EN MARTE
Las posibilidades de recuperar la estación interplanetaria automática Fobos-Grunt son mínimas, por lo que ésta probablemente caerá sobre la Tierra, según los expertos rusos, y una de las regiones posibles es el sur de Europa.
Desde que fue lanzada el martes pasado, con destino a una luna de Marte los especialistas rusos no han sido capaces de restablecer el contacto con el aparato y se saldrá de su órbita en los primeros días de diciembre.
También la Agencia Espacial Europea (ESA) ha intentado contactar con la nave desde sus estaciones en las islas Canarias, Australia y la Guayana francesa, pero tampoco ha dado resultado.
Según las fuentes rusas, en concreto, el aparato podría caer sobre la Tierra a partir del 3 de diciembre, que es la fecha límite aproximada para la operación de salvamento de la estación.
La Fobos-Grunt, que debía haber llegado a Marte a finales de 2012 puede caer los territorios de Estados Unidos, China, África, Australia, el sur de Europa o Japón.
EE. UU. y China disponen de misiles capaces de abatir un aparato como la Fobos-Grunt, que tiene 13,5 toneladas de masa, en caso de que se dirija contra su territorio.
En Colonia la sonda no provocará perjuicios y pasará desapercibida, y el material radiactivo no modifica la situación.
Fuente : El Mundo
CONCLUSIÓN: La estación interplanetaria Fobos-Grunt, lanzada por la NASA para llevar una misión en Marte, si no se consigue mantener el contacto con ella, lo cual es muy improvable, caerá a la Tierra sobre el 3 de diciembre.
Desde que fue lanzada el martes pasado, con destino a una luna de Marte los especialistas rusos no han sido capaces de restablecer el contacto con el aparato y se saldrá de su órbita en los primeros días de diciembre.
También la Agencia Espacial Europea (ESA) ha intentado contactar con la nave desde sus estaciones en las islas Canarias, Australia y la Guayana francesa, pero tampoco ha dado resultado.
Según las fuentes rusas, en concreto, el aparato podría caer sobre la Tierra a partir del 3 de diciembre, que es la fecha límite aproximada para la operación de salvamento de la estación.
La Fobos-Grunt, que debía haber llegado a Marte a finales de 2012 puede caer los territorios de Estados Unidos, China, África, Australia, el sur de Europa o Japón.
EE. UU. y China disponen de misiles capaces de abatir un aparato como la Fobos-Grunt, que tiene 13,5 toneladas de masa, en caso de que se dirija contra su territorio.
En Colonia la sonda no provocará perjuicios y pasará desapercibida, y el material radiactivo no modifica la situación.
Fuente : El Mundo
CONCLUSIÓN: La estación interplanetaria Fobos-Grunt, lanzada por la NASA para llevar una misión en Marte, si no se consigue mantener el contacto con ella, lo cual es muy improvable, caerá a la Tierra sobre el 3 de diciembre.
jueves, 10 de noviembre de 2011
DESCUBREN RESTOS DE LA MATERIA PRIMA ORIGINAL DEL UNIVERSO
Astrónomos de la Universidad de California en Santa Cruz han encontrado, por primera vez, restos de la materia prima original del Universo en nubes de gas que datan de la noche de los tiempos. Estas nubes contienen remanentes absolutamente intactos del gas «limpio» que apareció en los primeros minutos después del Big Bang y que nunca llegó a formar parte de las estrellas. El hallazgo,coincide con las predicciones teóricas sobre los orígenes de los elementos en el Cosmos.
Solo los elementos más ligeros, principalmente hidrógeno y helio, se crearon en el Big Bang. A continuación, tuvieron que pasar varios cientos de millones de años para que grupos de este gas primordial se condensaran para formar las primeras estrellas, momento en el que los elementos más pesados se forjaron. Hasta ahora, los astrónomos han detectado siempre «metales» (término para referirse a todos los elementos más pesados que el hidrógeno y el helio) en cualquier lugar que buscaran en el Universo.
«Por más que habíamos tratado de encontrar material limpio en el Universo, no habíamos conseguido nada hasta ahora. Esta es la primera vez que hemos observado gas prístino no contaminado por los elementos más pesados de las estrellas», afirma J. Xavier Prochaska, profesor de astronomía y astrofísica en la Universidad de California en Santa Cruz.
«La falta de metales nos dice que este gas está intacto», dice Michele Fumagalli, principal autora de la investigación, también de la UC Santa Cruz. «Es muy emocionante, porque es la primera evidencia que coincide plenamente con la composición del gas primordial predicho por la teoría del Big Bang», añade. Porque las estrellas fusionan átomos para hacer sus elementos más pesados, estos gases nunca se han visto involucrados en la creación de una estrella en los 2.000 millones de años que pasaron desde la gran explosión hata su descubrimiento. En otras palabras, esos restos no han cambiado desde el origen de los tiempos.
Los investigadores descubrieron las dos nubes de gas prístino a través del análisis de la luz de quásares distantes, utilizando el espectrómetro del telescopio Keck I en Hawai. Cada elemento tiene una huella digital única que se muestra como líneas oscuras en el espectro. Y en el espectro de estas nubes de gas, los investigadores observaron solo hidrógeno y su isótopo pesado deuterio.
FUENTE: ABC
CONCLUSIÓN: Se encuentran por primera vez unos gases formados justo después de la explosión del Big Bang, en dos nubes de gas, utilizando un espectómetro.
Solo los elementos más ligeros, principalmente hidrógeno y helio, se crearon en el Big Bang. A continuación, tuvieron que pasar varios cientos de millones de años para que grupos de este gas primordial se condensaran para formar las primeras estrellas, momento en el que los elementos más pesados se forjaron. Hasta ahora, los astrónomos han detectado siempre «metales» (término para referirse a todos los elementos más pesados que el hidrógeno y el helio) en cualquier lugar que buscaran en el Universo.
«Por más que habíamos tratado de encontrar material limpio en el Universo, no habíamos conseguido nada hasta ahora. Esta es la primera vez que hemos observado gas prístino no contaminado por los elementos más pesados de las estrellas», afirma J. Xavier Prochaska, profesor de astronomía y astrofísica en la Universidad de California en Santa Cruz.
«La falta de metales nos dice que este gas está intacto», dice Michele Fumagalli, principal autora de la investigación, también de la UC Santa Cruz. «Es muy emocionante, porque es la primera evidencia que coincide plenamente con la composición del gas primordial predicho por la teoría del Big Bang», añade. Porque las estrellas fusionan átomos para hacer sus elementos más pesados, estos gases nunca se han visto involucrados en la creación de una estrella en los 2.000 millones de años que pasaron desde la gran explosión hata su descubrimiento. En otras palabras, esos restos no han cambiado desde el origen de los tiempos.
Los investigadores descubrieron las dos nubes de gas prístino a través del análisis de la luz de quásares distantes, utilizando el espectrómetro del telescopio Keck I en Hawai. Cada elemento tiene una huella digital única que se muestra como líneas oscuras en el espectro. Y en el espectro de estas nubes de gas, los investigadores observaron solo hidrógeno y su isótopo pesado deuterio.
FUENTE: ABC
CONCLUSIÓN: Se encuentran por primera vez unos gases formados justo después de la explosión del Big Bang, en dos nubes de gas, utilizando un espectómetro.
EL HUBBLE DESCUBRE UNA POBLACIÓN DE GALAXIAS CON UNA "FRENÉTICA" PRODUCCIÓN DE ESTRELLAS
En las imágenes, que se han podido captar gracias a la visión de infrarrojos de Hubble, pueden verse unas galaxias cien veces menos masivas, en promedio, que la Vía Láctea, pero de las que nacen estrellas a un ritmo "frenético", según ha explicado la NASA, que ha calculado que "si siguen así multiplicarían por dos su contenido estelar en 10 millones de años".
La agencia espacial estadounidense ha destacado que esta superpoblación de estrellas ha sido, probablemente, la razón por la que Hubble ha encontrado las galaxias. Los astrónomos han señalado que la radiación de estrellas jóvenes y calientes ha causado que el gas que rodea las galaxias las convirtiera en un letrero de neón brillante.
El autor principal del documento, Arjen van der Well, ha explicado que hasta hace poco los astrónomos sólo podían realizar estudios en pequeños pedazos de cielo para detectar galaxias. Sin embargo, en este caso los expertos "no estaban buscando específicamente estas galaxias si no que fueron sus colores inusuales" los que provocaron su descubrimiento.
Por su parte, Harry Ferguson del 'Space Telescope Science Institute' ha apuntado que "los estudios sugieren que la formación de estrellas es un proceso relativamente lento que se extiende a lo largo de miles de millones de años y este hallazgo obliga a los expertos a re-examinar las teorías que había acerca de la evolución de una galaxia enana".
En este sentido, los científicos han explicado que las simulaciones por ordenador muestran que la formación de estrellas en galaxias pequeñas pueden ser episódicas. El gas se enfría y se colapsa para formar estrellas, éstas recalientan el gas que sale expulsado, como en las explosiones de las suepernovas. Después de algún tiempo, el gas se enfría y se contrae de nuevo, produciendo un nuevo estallido de estrellas en formación, continuando el ciclo.
FUENTE: La razón
CONCLUSIÓN: Han encontrado unas galaxias en las que se están creando estrellas a un ritmo frenético. Esto hace a los astrónomos revisar sus teorías, ya que pensaban que las estrellas se formaban por procesos muy lentos que duraban millones de años.
La agencia espacial estadounidense ha destacado que esta superpoblación de estrellas ha sido, probablemente, la razón por la que Hubble ha encontrado las galaxias. Los astrónomos han señalado que la radiación de estrellas jóvenes y calientes ha causado que el gas que rodea las galaxias las convirtiera en un letrero de neón brillante.
El autor principal del documento, Arjen van der Well, ha explicado que hasta hace poco los astrónomos sólo podían realizar estudios en pequeños pedazos de cielo para detectar galaxias. Sin embargo, en este caso los expertos "no estaban buscando específicamente estas galaxias si no que fueron sus colores inusuales" los que provocaron su descubrimiento.
Por su parte, Harry Ferguson del 'Space Telescope Science Institute' ha apuntado que "los estudios sugieren que la formación de estrellas es un proceso relativamente lento que se extiende a lo largo de miles de millones de años y este hallazgo obliga a los expertos a re-examinar las teorías que había acerca de la evolución de una galaxia enana".
En este sentido, los científicos han explicado que las simulaciones por ordenador muestran que la formación de estrellas en galaxias pequeñas pueden ser episódicas. El gas se enfría y se colapsa para formar estrellas, éstas recalientan el gas que sale expulsado, como en las explosiones de las suepernovas. Después de algún tiempo, el gas se enfría y se contrae de nuevo, produciendo un nuevo estallido de estrellas en formación, continuando el ciclo.
FUENTE: La razón
CONCLUSIÓN: Han encontrado unas galaxias en las que se están creando estrellas a un ritmo frenético. Esto hace a los astrónomos revisar sus teorías, ya que pensaban que las estrellas se formaban por procesos muy lentos que duraban millones de años.
miércoles, 9 de noviembre de 2011
UN FALLO IMPIDE QUE LA ESTACIÓN RUSA FOBOS-GRUNT ENFILE RUMBO A MARTE
Un fallo impidió hoy que la estación rusa Fobos-Grunt tomara rumbo a Marte y los especialistas tienen sólo tres días para intentar recuperar el aparato, que quedó en órbita terrestre.
"El propulsor no funcionó. No hubo ni primer ni segundo encendido. Esto significa que el aparato no pudo orientarse por las estrellas", dijo hoy el director de la agencia espacial rusa. El primer impulso debía situar la Fobos-Grunt en una órbita elíptica transitoria y el segundo, proyectarla en dirección a Marte.
Después de ser lanzada la estación interplanetaria automática, con 13,5 toneladas de masa, quedó en órbita de apoyo en torno a la Tierra. "No diré que el lanzamiento ha sido un fracaso. Es una situación imprevista, en la que hay que trabajar.", dijo el director de Roscosmos. Agregó que los especialistas de tierra tienen 72 horas para cargar un nuevo programa de vuelo en el ordenador central de la Fobos-Grunt.
Agregó que la estación conserva todo su combustible, lo que permite volver a programar el vuelo de la estación interplanetaria, que tiene como objetivo posarse en Fobos, una de las dos lunas marcianas, y traer de regreso a la Tierra muestras de su suelo.
El director de Roscomos dijo que los especialistas de tierra tuvieron grandes dificultades para establecer los parámetros de la órbita de la Fobos-Grunt y retomar la comunicación con el aparato.
Nada más conocerse el fallo, fuentes del sector espacial ruso indicaron que éste pudo haber producido por un desperfecto mecánico en el sistema de orientación de la estación o por un problema en sus sistemas informáticos. Horas después, otra fuente dijo en condiciones de anonimato a Interfax que la Fobos-Grunt quedó en la órbita terrestre debido al funcionamiento defectuoso del sistema de mando.
Mucho más pesimista que la jefatura de Roscosmos, la fuente indicó que las posibilidad de recuperar la Fobos-Grunt son mínimas. Entretanto, otro experto advirtió de que la órbita de apoyo en la que encuentra la estación es bastante baja, por lo que si no se logra reprogramar su vuelo, existe el riego de que caiga a la Tierra.
El lanzamiento de la Fobos-Grunt debía marcar el inicio de una misión de 34 meses que incluía el vuelo al Fobos, una de las dos lunas de Marte, el descenso en su superficie y, finalmente, el retorno a la Tierra de una cápsula con 200 gramos de muestras del suelo del satélite marciano.
El proyecto, con un coste de 5.000 millones de rublos, de llegar a buen término, permitirá el estudio de la materia inicial del Sistema Solar y ayudará a explicar el origen de Fobos y Deimos, la segunda luna marciana, así como de los demás satélites naturales en el sistema solar.
El lanzamiento de la Fobos-Grunt estaba programado inicialmente para 2009, pero fue retrasado dos años debido a la necesidad de poner a punto el aparato.
Fuente: La Razón
"El propulsor no funcionó. No hubo ni primer ni segundo encendido. Esto significa que el aparato no pudo orientarse por las estrellas", dijo hoy el director de la agencia espacial rusa. El primer impulso debía situar la Fobos-Grunt en una órbita elíptica transitoria y el segundo, proyectarla en dirección a Marte.
Después de ser lanzada la estación interplanetaria automática, con 13,5 toneladas de masa, quedó en órbita de apoyo en torno a la Tierra. "No diré que el lanzamiento ha sido un fracaso. Es una situación imprevista, en la que hay que trabajar.", dijo el director de Roscosmos. Agregó que los especialistas de tierra tienen 72 horas para cargar un nuevo programa de vuelo en el ordenador central de la Fobos-Grunt.
Agregó que la estación conserva todo su combustible, lo que permite volver a programar el vuelo de la estación interplanetaria, que tiene como objetivo posarse en Fobos, una de las dos lunas marcianas, y traer de regreso a la Tierra muestras de su suelo.
El director de Roscomos dijo que los especialistas de tierra tuvieron grandes dificultades para establecer los parámetros de la órbita de la Fobos-Grunt y retomar la comunicación con el aparato.
Nada más conocerse el fallo, fuentes del sector espacial ruso indicaron que éste pudo haber producido por un desperfecto mecánico en el sistema de orientación de la estación o por un problema en sus sistemas informáticos. Horas después, otra fuente dijo en condiciones de anonimato a Interfax que la Fobos-Grunt quedó en la órbita terrestre debido al funcionamiento defectuoso del sistema de mando.
Mucho más pesimista que la jefatura de Roscosmos, la fuente indicó que las posibilidad de recuperar la Fobos-Grunt son mínimas. Entretanto, otro experto advirtió de que la órbita de apoyo en la que encuentra la estación es bastante baja, por lo que si no se logra reprogramar su vuelo, existe el riego de que caiga a la Tierra.
El lanzamiento de la Fobos-Grunt debía marcar el inicio de una misión de 34 meses que incluía el vuelo al Fobos, una de las dos lunas de Marte, el descenso en su superficie y, finalmente, el retorno a la Tierra de una cápsula con 200 gramos de muestras del suelo del satélite marciano.
El proyecto, con un coste de 5.000 millones de rublos, de llegar a buen término, permitirá el estudio de la materia inicial del Sistema Solar y ayudará a explicar el origen de Fobos y Deimos, la segunda luna marciana, así como de los demás satélites naturales en el sistema solar.
El lanzamiento de la Fobos-Grunt estaba programado inicialmente para 2009, pero fue retrasado dos años debido a la necesidad de poner a punto el aparato.
Fuente: La Razón
RUSIA LANZA UNA MISIÓN PARA RECOGER MUESTRAS DE UNA LUNA DE MARTE
El lanzamiento, este martes, de la estación interplanetaria automática rusa 'Fobos-Grunt' marca el inicio de un periplo de 34 meses que concluirá con el retorno a la Tierra de una cápsula con una carga de un valor incalculable: 200 gramos de muestras de suelo de Fobos, una de las dos lunas de Marte.
La Fobos-Grunt despegó a las 21.16 (hora peninsular española) desde el cosmódromo de Baikonur (Kazajistán) con ayuda de un cohete Zenit-2SB. Alcanzará la órbita marciana dentro de poco menos de un año.
La estación, que incluye un módulo de retorno, se quedará sobre la superficie de la luna marciana, adonde nunca antes ha llegado ninguna nave espacial.
La agencia espacial rusa, Roscosmos, y la Agencia Espacial Europea han firmado un acuerdo para emplear los centros europeos de seguimiento con el fin de guiar a la Fobos-Grunt.
La Fobos-Grunt llevará también a la órbita marciana un minisatélite científico chino Yinghuo-1, que sondeará la atmósfera del planeta rojo, así como contenedores con microorganismos y larvas de insectos que regresarán a la Tierra junto con la muestras del suelo de Fobos en agosto de 2014.
Ese material biológico servirá para estudiar la influencia de la radiación cósmica en los organismo vivos.
Los científicos rusos han destacado que el estudio del suelo de Fobos permitirá obtener nueva información sobre los orígenes de nuestro sistema solar.
El proyecto permitirá el estudio de la materia inicial del Sistema Solar y ayudará a explicar el origen de Fobos y Deimos, la segunda luna marciana, así como de los demás satélites naturales en el sistema solar.
Según el científico, se trata de entender hasta qué punto la materia de Fobos se corresponde con la idea que existe sobre la composición de Marte y si el satélite se formó naturalmente o se trata de un asteroide capturado por el campo gravitatorio del planeta rojo.
La segunda pregunta que ayudará a responder el proyecto es si hay materia orgánica en Fobos y, en caso de la que la haya, de qué tipo es.
FUENTE:El Mundo
CONCLUSIÓN: Se ha mandado a Fobos, una de las dos lunas de Marte, una estación estacionaria rusa, la Fobos-Grunt, con el fin de traer en agosto de 2014 muestras del suelo, que permitirán saber a los científicos más sobre el origen del Sistema Solar.
La Fobos-Grunt despegó a las 21.16 (hora peninsular española) desde el cosmódromo de Baikonur (Kazajistán) con ayuda de un cohete Zenit-2SB. Alcanzará la órbita marciana dentro de poco menos de un año.
La estación, que incluye un módulo de retorno, se quedará sobre la superficie de la luna marciana, adonde nunca antes ha llegado ninguna nave espacial.
La agencia espacial rusa, Roscosmos, y la Agencia Espacial Europea han firmado un acuerdo para emplear los centros europeos de seguimiento con el fin de guiar a la Fobos-Grunt.
La Fobos-Grunt llevará también a la órbita marciana un minisatélite científico chino Yinghuo-1, que sondeará la atmósfera del planeta rojo, así como contenedores con microorganismos y larvas de insectos que regresarán a la Tierra junto con la muestras del suelo de Fobos en agosto de 2014.
Ese material biológico servirá para estudiar la influencia de la radiación cósmica en los organismo vivos.
Los científicos rusos han destacado que el estudio del suelo de Fobos permitirá obtener nueva información sobre los orígenes de nuestro sistema solar.
El proyecto permitirá el estudio de la materia inicial del Sistema Solar y ayudará a explicar el origen de Fobos y Deimos, la segunda luna marciana, así como de los demás satélites naturales en el sistema solar.
Según el científico, se trata de entender hasta qué punto la materia de Fobos se corresponde con la idea que existe sobre la composición de Marte y si el satélite se formó naturalmente o se trata de un asteroide capturado por el campo gravitatorio del planeta rojo.
La segunda pregunta que ayudará a responder el proyecto es si hay materia orgánica en Fobos y, en caso de la que la haya, de qué tipo es.
FUENTE:El Mundo
CONCLUSIÓN: Se ha mandado a Fobos, una de las dos lunas de Marte, una estación estacionaria rusa, la Fobos-Grunt, con el fin de traer en agosto de 2014 muestras del suelo, que permitirán saber a los científicos más sobre el origen del Sistema Solar.
domingo, 6 de noviembre de 2011
LA NEBULOSA "COMECOCOS" ENSEÑA LOS DIENTES
Para los telescopios de luz visible, esta nube de formación estelar parece moverse masticando a través del cosmos, ganándose el apodo de nebulosa 'Pacman' (Comecocos). Cuando se ve en el telescopio de luz infrarroja WISE de la NASA, esta nebulosa tiene una nueva apariencia.
En lugar de su típica boca en forma triangular muestra un nuevo aspecto que refleja lo que aparentan ser afilados dientes. 'Pacman' luce en la parte superior de la imagen, dando un mordisco en la dirección de la esquina superior izquierda.
Los dientes son en realidad los pilares donde se forman nuevas estrellas. Estas estructuras se crearon cuando la radiación y los vientos procedentes de estrellas masivas en un grupo central expulsaron gas y polvo, dejando sólo los pilares formados con material más denso. Los puntos rojos esparcidos por toda la foto se cree que son las estrellas más jóvenes, todavía en formación.
La nebulosa 'Pacman', se encuentra a 9.200 años luz de distancia en la constelación de Casiopea.
Fuente: antena3
CONCLUSIÓN: Se ha descubierto una nebulosa, Pacman, que parece tener unos "dientes", pero en realidad son pilares donde se forman nuevas estrellas.
En lugar de su típica boca en forma triangular muestra un nuevo aspecto que refleja lo que aparentan ser afilados dientes. 'Pacman' luce en la parte superior de la imagen, dando un mordisco en la dirección de la esquina superior izquierda.
Los dientes son en realidad los pilares donde se forman nuevas estrellas. Estas estructuras se crearon cuando la radiación y los vientos procedentes de estrellas masivas en un grupo central expulsaron gas y polvo, dejando sólo los pilares formados con material más denso. Los puntos rojos esparcidos por toda la foto se cree que son las estrellas más jóvenes, todavía en formación.
La nebulosa 'Pacman', se encuentra a 9.200 años luz de distancia en la constelación de Casiopea.
Fuente: antena3
CONCLUSIÓN: Se ha descubierto una nebulosa, Pacman, que parece tener unos "dientes", pero en realidad son pilares donde se forman nuevas estrellas.
sábado, 5 de noviembre de 2011
UN ASTEROIDE DEL TAMAÑO DE UN PORTAAVIONES SE ACERCA A LA TIERRA
La NASA sigue de cerca al asteroide 2005 YU55 que se aproxima a la Tierra y se espera que pase el próximo 8 de noviembre a una distancia inferior a la de la órbita de la Luna, aunque según ha informado la agencia espacial no hay peligro de colisión.
El asteroide tiene 400 metros de diámetro, equivalente a la longitud de un portaaviones, y se calcula que pasará a una distancia mínima de 324.000 kilómetros, algo menos de la distancia de la Luna, que está a unos 384.000 kilómetros de la Tierra.
Los científicos ya han advertido de que la influencia gravitatoria del asteroide no tendrá ningún efecto detectable en la Tierra, como mareas o movimientos en las placas tectónicas.
Si bien este asteroide suele llevar una trayectoria que le hace aproximarse periódicamente a la Tierra, así como a Venus y Marte, el encuentro de este año será el más cercano de los últimos 200 años.
Durante el seguimiento, los científicos utilizarán las antenas de Goldstone y Arecibo para hacer rebotar ondas de radio en el asteroide y con los ecos de las ondas conocer detalles de la superficie, forma, dimensiones, y otras de sus propiedades.
Las observaciones que hizo el radar de Arecibo del asteroide en 2010 muestran que su forma es casi esférica y gira lentamente, con un período de rotación de aproximadamente 18 horas.
La NASA detecta y rastrea habitualmente los asteroides y cometas que pasan cerca de la Tierra usando telescopios terrestres y espaciales con su programa de "Observación de Objetos Cercanos a la Tierra", que ha apodado como "Spaceguard", para detectar si alguno podría ser potencialmente peligroso para el planeta.
FUENTE: La razón
El asteroide tiene 400 metros de diámetro, equivalente a la longitud de un portaaviones, y se calcula que pasará a una distancia mínima de 324.000 kilómetros, algo menos de la distancia de la Luna, que está a unos 384.000 kilómetros de la Tierra.
Los científicos ya han advertido de que la influencia gravitatoria del asteroide no tendrá ningún efecto detectable en la Tierra, como mareas o movimientos en las placas tectónicas.
Si bien este asteroide suele llevar una trayectoria que le hace aproximarse periódicamente a la Tierra, así como a Venus y Marte, el encuentro de este año será el más cercano de los últimos 200 años.
Durante el seguimiento, los científicos utilizarán las antenas de Goldstone y Arecibo para hacer rebotar ondas de radio en el asteroide y con los ecos de las ondas conocer detalles de la superficie, forma, dimensiones, y otras de sus propiedades.
Las observaciones que hizo el radar de Arecibo del asteroide en 2010 muestran que su forma es casi esférica y gira lentamente, con un período de rotación de aproximadamente 18 horas.
La NASA detecta y rastrea habitualmente los asteroides y cometas que pasan cerca de la Tierra usando telescopios terrestres y espaciales con su programa de "Observación de Objetos Cercanos a la Tierra", que ha apodado como "Spaceguard", para detectar si alguno podría ser potencialmente peligroso para el planeta.
FUENTE: La razón
jueves, 3 de noviembre de 2011
ASPIRINA CONTRA EL CÁNCER
Desde hace años los científicos vienen dando vueltas a la idea de que un poco de aspirina, tomada todos los días durante mucho tiempo, disminuye el riesgo de padecer un cáncer. Un estudio supone un espaldarazo a esta hipótesis, al menos en el caso concreto del cáncer de colon hereditario.
El estudio se centró en un tipo concreto de cáncer de colon familiar, llamado Síndrome de Lynch, en el que los enfermos tienen una alta predisposición a desarrollar tumores malignos en su intestino. Los investigadores estudiaron más de ochocientos enfermos, dividiéndolos en dos grupos: unos recibieron 600 miligramos diarios de aspirina (una dosis relativamente baja) y otros recibieron un placebo, es decir, una sustancia que no tiene ninguna acción. Cuatro años después, la frecuencia de tumores en los enfermos que habían recibido aspirina fue aproximadamente la mitad que en los pacientes que habían recibido el placebo.
Parece que la asociación entre aspirina y cáncer se confirma, al menos en este grupo de enfermos que tienen un riesgo alto de sufrir cáncer de colon. En cambio, el beneficio no está tan claro en personas que no tienen ese riesgo, porque la aspirina tampoco está exenta de problemas.
Fuente:a100ciacierta
El estudio se centró en un tipo concreto de cáncer de colon familiar, llamado Síndrome de Lynch, en el que los enfermos tienen una alta predisposición a desarrollar tumores malignos en su intestino. Los investigadores estudiaron más de ochocientos enfermos, dividiéndolos en dos grupos: unos recibieron 600 miligramos diarios de aspirina (una dosis relativamente baja) y otros recibieron un placebo, es decir, una sustancia que no tiene ninguna acción. Cuatro años después, la frecuencia de tumores en los enfermos que habían recibido aspirina fue aproximadamente la mitad que en los pacientes que habían recibido el placebo.
Parece que la asociación entre aspirina y cáncer se confirma, al menos en este grupo de enfermos que tienen un riesgo alto de sufrir cáncer de colon. En cambio, el beneficio no está tan claro en personas que no tienen ese riesgo, porque la aspirina tampoco está exenta de problemas.
Fuente:a100ciacierta
PLANETAS Y ASTEROIDES TAMIZAN EL EFECTO DE LOS AGUJEROS NEGROS
Las formas cubiertas de polvo que parecen rosquillas y que oscurecen casi la mitad de los agujeros negros supermasivos podrían ser el resultado de choques a alta velocidad entre planetas y asteroides, según una nueva teoría de un equipo internacional de astrónomos.
Dicen que los agujeros negros supermasivos residen en la parte central de la mayoría de las galaxias. Las observaciones indican que alrededor del 50% de ellos están ocultos a la vista por nubes de polvo misterioso, cuyo origen no se conoce completamente. La nueva teoría se inspira en nuestro propio Sistema Solar, donde se sabe que el denominado polvo zodiacal se origina a partir de las colisiones entre los cuerpos sólidos, tales como asteroides y cometas. Los científicos proponen que las regiones centrales de galaxias contienen no sólo los agujeros negros y estrellas, sino también planetas y asteroides.
Las colisiones entre estos objetos rocosos que ocurren a una velocidad colosal, constantemente rompen y fragmentan los objetos, hasta que finalmente terminan en forma de polvo microscópico. El profesor Nayakshin señala que este duro ambiente hace estériles a los planetas alrededor de un agujero negro supermasivo, incluso antes de ser destruidos. "Es una pena para toda la posible vida en esos planetas", dice, "pero por otro lado el polvo que se genera de esta manera impide que radiaciones nocivas lleguen al resto de la galaxia anfitriona. Esto a su vez puede hacer que sea más fácil para que la vida prospere en otros lugares del resto de la región central de la galaxia".
A su juicio, la comprensión del origen del polvo cerca de los agujeros negros es importante en nuestros modelos para saber cómo estos monstruos crecen y cómo exactamente afectan a sus galaxias anfitrionas. "Tenemos la sospecha de que el agujero negro supermasivo de nuestra galaxia, la Vía Láctea, expulsa la mayor parte del gas que de otro modo se convertiría en más estrellas y planetas", continúa, "Entender el origen del polvo en las regiones interiores de las galaxias nos lleva un paso más cerca de resolver el misterio de los agujeros negros supermasivos".
FUENTE: El economista
Dicen que los agujeros negros supermasivos residen en la parte central de la mayoría de las galaxias. Las observaciones indican que alrededor del 50% de ellos están ocultos a la vista por nubes de polvo misterioso, cuyo origen no se conoce completamente. La nueva teoría se inspira en nuestro propio Sistema Solar, donde se sabe que el denominado polvo zodiacal se origina a partir de las colisiones entre los cuerpos sólidos, tales como asteroides y cometas. Los científicos proponen que las regiones centrales de galaxias contienen no sólo los agujeros negros y estrellas, sino también planetas y asteroides.
Las colisiones entre estos objetos rocosos que ocurren a una velocidad colosal, constantemente rompen y fragmentan los objetos, hasta que finalmente terminan en forma de polvo microscópico. El profesor Nayakshin señala que este duro ambiente hace estériles a los planetas alrededor de un agujero negro supermasivo, incluso antes de ser destruidos. "Es una pena para toda la posible vida en esos planetas", dice, "pero por otro lado el polvo que se genera de esta manera impide que radiaciones nocivas lleguen al resto de la galaxia anfitriona. Esto a su vez puede hacer que sea más fácil para que la vida prospere en otros lugares del resto de la región central de la galaxia".
A su juicio, la comprensión del origen del polvo cerca de los agujeros negros es importante en nuestros modelos para saber cómo estos monstruos crecen y cómo exactamente afectan a sus galaxias anfitrionas. "Tenemos la sospecha de que el agujero negro supermasivo de nuestra galaxia, la Vía Láctea, expulsa la mayor parte del gas que de otro modo se convertiría en más estrellas y planetas", continúa, "Entender el origen del polvo en las regiones interiores de las galaxias nos lleva un paso más cerca de resolver el misterio de los agujeros negros supermasivos".
FUENTE: El economista
martes, 1 de noviembre de 2011
UN NUEVO EXPERIMENTO CON NEUTRINOS PUEDE EXPLICAR EL MISTERIO DE LA MATERIA
Los neutrinos revolucionaron el mundo de la física hace unas semanas cuando unos investigadores aseguraron que estas partículas son más veloces que la luz. Todavía está por demostrar -no todos los científicos están de acuerdo-, pero los neutrinos pueden dar nuevas sorpresas. El Instituto de Física Corpuscular (IFIC) y la Universidad de Valencia (UV) celebrarán desde este martes y hasta el 5 de noviembre una reunión de la colaboración internacional NEXT, un proyecto para construir un detector que compruebe, por primera vez, la existencia de un raro proceso que se daría en los neutrinos, llamado "doble desintegración beta sin neutrinos". De confirmarse esta hipótesis, propuesta por el misterioso físico italiano Ettore Majorana, el neutrino sería su propia antipartícula, lo cual ofrecería una explicación a por qué el Universo está hecho de materia y no de antimateria.
Este apoyo ha proporcionado los fondos necesarios para el I+D+i y el desarrollo de los prototipos, entre ellos NEXT-1, un demostrador a escala que está funcionando en estos momentos en Valencia. NEXT empleará una cámara llena de 100 kilos de gas xenón enriquecido para crear las condiciones propicias para detectar este raro fenómeno natural denominado "doble desintegración beta sin neutrinos". Fue propuesto por Ettore Majorana, un físico italiano con una vida peculiar. Integrante del Grupo de Roma junto a Enrico Fermi o Pontecorvo, en los años treinta del siglo pasado dejó Italia para trabajar con sendos Nobel como Heisenberg o Bohr. Además, fue el primero en proponer la existencia del neutrón, aunque rechazó su trabajo por "banal" dejando que Chadwick se llevara el Nobel por ello. Tras su regreso a Italia, desapareció sin dejar rastro en 1938.
Su propia antipartícula
Según Gómez Cadenas, "si detecta la llamada desintegración doble beta sin neutrinos, NEXT demostraría que el neutrino es su propia antipartícula, lo cual tendría profundas consecuencias en física y cosmología". Para el coordinador del experimento, en ese caso los neutrinos podrían ser la clave para explicar la asimetría entre materia y antimateria. En teoría, en el Big Bang tuvo que crearse la misma cantidad de materia que de antimateria, idéntica a la primera pero con carga eléctrica opuesta. Sin embargo, el Universo que vemos está compuesto por materia y no por antimateria, que no se sabe dónde ha ido a parar.
Se prevé que el experimento funcione durante 10 años. NEXT cuenta con el apoyo del Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN). En la reunión científica de Valencia participa David Nygren, director del Departamento de Física del Laboratorio Nacional Lawrence de Berkeley (EE.UU.), institución que cuenta con 11 Premios Nobel en Física. Nygren es uno de los físicos más importantes en el desarrollo de detectores de partículas por inventar a finales de los setenta el TPC (Time Projection Chamber), un tipo de detector muy utilizado en aceleradores de física de partículas como LHC.
FUENTE: ABC
Este apoyo ha proporcionado los fondos necesarios para el I+D+i y el desarrollo de los prototipos, entre ellos NEXT-1, un demostrador a escala que está funcionando en estos momentos en Valencia. NEXT empleará una cámara llena de 100 kilos de gas xenón enriquecido para crear las condiciones propicias para detectar este raro fenómeno natural denominado "doble desintegración beta sin neutrinos". Fue propuesto por Ettore Majorana, un físico italiano con una vida peculiar. Integrante del Grupo de Roma junto a Enrico Fermi o Pontecorvo, en los años treinta del siglo pasado dejó Italia para trabajar con sendos Nobel como Heisenberg o Bohr. Además, fue el primero en proponer la existencia del neutrón, aunque rechazó su trabajo por "banal" dejando que Chadwick se llevara el Nobel por ello. Tras su regreso a Italia, desapareció sin dejar rastro en 1938.
Su propia antipartícula
Según Gómez Cadenas, "si detecta la llamada desintegración doble beta sin neutrinos, NEXT demostraría que el neutrino es su propia antipartícula, lo cual tendría profundas consecuencias en física y cosmología". Para el coordinador del experimento, en ese caso los neutrinos podrían ser la clave para explicar la asimetría entre materia y antimateria. En teoría, en el Big Bang tuvo que crearse la misma cantidad de materia que de antimateria, idéntica a la primera pero con carga eléctrica opuesta. Sin embargo, el Universo que vemos está compuesto por materia y no por antimateria, que no se sabe dónde ha ido a parar.
Se prevé que el experimento funcione durante 10 años. NEXT cuenta con el apoyo del Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN). En la reunión científica de Valencia participa David Nygren, director del Departamento de Física del Laboratorio Nacional Lawrence de Berkeley (EE.UU.), institución que cuenta con 11 Premios Nobel en Física. Nygren es uno de los físicos más importantes en el desarrollo de detectores de partículas por inventar a finales de los setenta el TPC (Time Projection Chamber), un tipo de detector muy utilizado en aceleradores de física de partículas como LHC.
FUENTE: ABC
lunes, 31 de octubre de 2011
EL ASTEROIDE LUTETIA OFRECE NUEVAS CLAVES PARA ENTENDER EL SISTEMA SOLAR
La superficie del asteroide Lutetia está plagada de cráteres, que atestiguan las múltiples colisiones con otros objetos que ha sufrido durante sus aproximadamente 3.600 millones de años de vida. Hasta 350 cráteres han contado los astrónomos gracias a las imágenes de alta resolución captadas por la sonda 'Rosetta'.
La nave de la Agencia Espacial Europea (ESA) visitó el asteroide Lutetia el pasado año.
Los primeros resultados de su análisis, publicados esta semana en la revista 'Science', sugieren que este cuerpo ofrecerá a los astrónomos importantes pistas para entender el origen de nuestro Sistema Solar.
Los astrónomos creen que se trata de un objeto planetesimal, es decir, uno de los primeros bloques o 'ladrillos' con los que se formaron los planetas. A diferencia de los otros asteroides visitados por naves espaciales, Lutetia se originó probablemente durante las primeras etapas de formación del sistema planetario. Así lo sugiere su compleja geología, su alta densidad y su historial de colisiones, que reflejan sus numerosos cráteres.
Una de las características más llamativas de Lutetia es su alta densidad.
El instrumento OSIRIS ha permitido calcular sus dimensiones: 121 kilómetros de longitud, 101 km. de altura y 75 km. de ancho.
Más de 350 cráteres han sido localizados. Sus diámetros oscilan entre los 600 metros y los 55 kilómetros.
Fuente: El Mundo
La nave de la Agencia Espacial Europea (ESA) visitó el asteroide Lutetia el pasado año.
Los primeros resultados de su análisis, publicados esta semana en la revista 'Science', sugieren que este cuerpo ofrecerá a los astrónomos importantes pistas para entender el origen de nuestro Sistema Solar.
Los astrónomos creen que se trata de un objeto planetesimal, es decir, uno de los primeros bloques o 'ladrillos' con los que se formaron los planetas. A diferencia de los otros asteroides visitados por naves espaciales, Lutetia se originó probablemente durante las primeras etapas de formación del sistema planetario. Así lo sugiere su compleja geología, su alta densidad y su historial de colisiones, que reflejan sus numerosos cráteres.
Una de las características más llamativas de Lutetia es su alta densidad.
El instrumento OSIRIS ha permitido calcular sus dimensiones: 121 kilómetros de longitud, 101 km. de altura y 75 km. de ancho.
Más de 350 cráteres han sido localizados. Sus diámetros oscilan entre los 600 metros y los 55 kilómetros.
Fuente: El Mundo
domingo, 30 de octubre de 2011
LA UNIVERSIDAD DE ALCALÁ ESTUDIARÁ LOS SUELOS CONGELADOS EN UNA MISIÓN A MARTE
Un grupo de científicos de la Universidad de Alcalá de Henares (UAH) participará en una de las investigaciones de la misión Mars ScienceLaboratory (MSL) de la NASA, que despegará rumbo a Marte el próximo 25 de noviembre, mediante el estudio sobre la posible existencia de suelos congelados bajo la superficie.
La tecnología espacial española estará presente en esta misión a través de la estación medioambiental REMS, uno de los diez instrumentos que llevará el vehículo espacial 'Curiosity', que ha sido diseñada y construida, entre otros, por el Centro de Astrobiología -CAB- (centro mixto del CSIC y del INTA).
La estación REMS medirá, entre otros, la temperatura del suelo, del aire, la presión, la humedad y la radiación ultravioleta, y el equipo alcalaíno tratará de establecer la posible existencia de suelos congelados bajo los muchos kilómetros que recorrerá el vehículo 'Curiosity' a lo largo de los próximos años.
La labor de los investigadores del Departamento de Física de la UAH consistirá en analizar los datos que, a partir de 2012, REMS envíe desde Marte, para deducir las condiciones térmicas del subsuelo cerca de la superficie, como vienen haciendo desde hace años en el estudio de los suelos en la Antártida.
La UAH tendrá presencia institucional en el momento del lanzamiento, ya que ha sido invitada por la NASA a acudir a la base estadounidense de Cabo Cañaveral el 25 de noviembre próximo.
FUENTE: La razón
La tecnología espacial española estará presente en esta misión a través de la estación medioambiental REMS, uno de los diez instrumentos que llevará el vehículo espacial 'Curiosity', que ha sido diseñada y construida, entre otros, por el Centro de Astrobiología -CAB- (centro mixto del CSIC y del INTA).
La estación REMS medirá, entre otros, la temperatura del suelo, del aire, la presión, la humedad y la radiación ultravioleta, y el equipo alcalaíno tratará de establecer la posible existencia de suelos congelados bajo los muchos kilómetros que recorrerá el vehículo 'Curiosity' a lo largo de los próximos años.
La labor de los investigadores del Departamento de Física de la UAH consistirá en analizar los datos que, a partir de 2012, REMS envíe desde Marte, para deducir las condiciones térmicas del subsuelo cerca de la superficie, como vienen haciendo desde hace años en el estudio de los suelos en la Antártida.
La UAH tendrá presencia institucional en el momento del lanzamiento, ya que ha sido invitada por la NASA a acudir a la base estadounidense de Cabo Cañaveral el 25 de noviembre próximo.
FUENTE: La razón
sábado, 29 de octubre de 2011
Hasta dentro de un año no sabremos si los neutrinos viajan más rápido que la luz
El astrofísico teórico de la NASA David Spergel, ha señalado que, hasta dentro de "aproximadamente un año" no se podrá saber si el experimento que supuestamente demostró que los neutrinos pueden viajar a mayor velocidad que la luz (presentado el pasado mes de septiembre por científicos del laboratorio italiano de Gran Sasso) es correcto. En este sentido, ha indicado que tiene "razones para dudar" sobre este hallazgo y que "seguramente se haya producido un error en la medición".
Spergel ha explicado que en el año 1987 se presenció la explosión de una supernova que, tras desintegrarse se convierte en fotones y neutrinos. La NASA observó y estudió este acontecimiento midiendo la llegada de las partículas que, según ha explicado, "llegaron al mismo tiempo". "Si los neutrinos viajaran a la velocidad que la nueva teoría asegura, habrían llegado tres años antes que los fotones y no lo hicieron", ha apuntado.
Sin embargo, el astrofísico ha indicado que el laboratorio italiano "hizo bien" en publicarlo "porque si se encuentra alguna anomalía y no se encuentra error, se debe anunciar". A su juicio, "ahora el trabajo lo tienen otros laboratorios y expertos que quieran intentar corroborar esta teoría o demostrar que hay un error". Así, ha explicado que en Japón se está llevando el mismo experimento que en Gran Sasso y "en un año se sabrá si es cierto o no".
FUENTE: el Mundo
Spergel ha explicado que en el año 1987 se presenció la explosión de una supernova que, tras desintegrarse se convierte en fotones y neutrinos. La NASA observó y estudió este acontecimiento midiendo la llegada de las partículas que, según ha explicado, "llegaron al mismo tiempo". "Si los neutrinos viajaran a la velocidad que la nueva teoría asegura, habrían llegado tres años antes que los fotones y no lo hicieron", ha apuntado.
Sin embargo, el astrofísico ha indicado que el laboratorio italiano "hizo bien" en publicarlo "porque si se encuentra alguna anomalía y no se encuentra error, se debe anunciar". A su juicio, "ahora el trabajo lo tienen otros laboratorios y expertos que quieran intentar corroborar esta teoría o demostrar que hay un error". Así, ha explicado que en Japón se está llevando el mismo experimento que en Gran Sasso y "en un año se sabrá si es cierto o no".
FUENTE: el Mundo
jueves, 27 de octubre de 2011
COMO NACE UNA ISLA: LOS VOLCANES SUBMARINOS CREAN ISLOTES FUGACES
El planeta Tierra se mantiene vivo, cada segundo algo cambia en él, y a veces fenómenos más o menos violentos como los volcánicos o sísmicos dan lugar a nuevas porciones de terreno. Lo que esperan que suceda junto a la isla de El Hierro ha ocurrido en otras ocasiones.
Aquí influye, como explica José Luis Barreda, vicepresidente del Colegio Oficial de Geólogos, «una serie de factores importantes como el tipo de magma que sale del volcán y el agua del mar u océano en que se ubique». Ya que depende de ello para sufrir más o menos erosión y permanecer «viva» durante más tiempo. Pero, ¿qué marca la diferencia entre una isla o islote además de su supervivencia? Como apunta Barreda, «lo importante son las dimensiones, pero no se ha estipulado una medida estándar. Depende del consenso entre los expertos. Es algo relativo».
Pero no todas las islas que emergen o lo han hecho ya proceden de una erupción volcánica marina.
Si bien es cierto que el fondo marino contiene numerosos montes creados a partir de crisis volcánicas, que pueden expulsar magma y asomarse a la superficie, «Un ejemplo son las mismas Canarias, con una evolución de millones de años. Pero, ¿cuántas islas de este tipo no progresaron? Desconocemos la mayoría», declara vicepresidente del Colegio Oficial de Geólogos.
Y, por otro lado, en los bordes de las placas tectónicas es habitual encontrarse con agrupaciones de arrecifes formados por la superposición de unas y otras, «un ejemplo de ello son las Islas Baleares, pero nos encontramos ante procesos mucho más largos», explica Joan Martí, vulcanólogo de Instituto de Ciencias de la Tierra «Jaume Almera», del Centro Superior de Investigaciones Científicas (CSIC). Este fenómeno se puede observar en la zona de las placas de subducción –cuando una se mete debajo de otra–. «Así, esto se observa en todo el arco del Pacífico, que empieza en los Andes, sigue en la parte norte del Estado de Washington, Alaska y las islas Alutianas, baja por la zona de Siberia, llega hasta Japón, hasta bajar a las Islas Filipinas y acaba en Nueva Zelanda. En estas zonas donde se está dando mayoritariamente el vulcanismo», como apunta Barreda.
En general, se pueden diferenciar varios tipos de islas según su origen de formación: continentales, que formadas junto a un continente próximo –como Australia o Gran Bretaña–; volcánicas –Canarias, Hawai, Pascua–; coralinas, formadas en mares tropicales por el crecimiento de los corales hasta la superficie –Maldivas o archipiélago de Chagos–; sedimentarias, –Marajó en la desembocadura del Ebro–; y, por último, las fluviales, alteraciones en los ríos, –Isla del Bananal en Brasil–.
Un caso curioso es Islandia. Esta ínsula nació de la separación de las placas tectónicas y se formó gracias a la acumulación de material magmático que emergía de la grieta entre ambas. Aún en la actualidad está fisura está viva y se va rellenando de forma progresiva, así «la isla crece entre cinco y nueve centímetros al año», apunta Barreda. Junto a ella la recién nacida Sursta, de una explosión volcánica marina en 1963 –que duró hasta 1967–, y que parece sufrir el efecto contrario.
Esta isla, que llegó a tener unos dos kilómetros cuadrados, hoy día tiene un 50 por ciento menos de terreno desde que nació, «de hecho está casi totalmente desaparecida», subraya Martí. Este islote es una fuente de estudio para los científicos, que pese a su erosión anual, han visto cómo la isla ha sido poblada y colonizada por una fauna y flora particular. Como los frailecillos del Atlántico, las gaviotas, entre otras especies de aves migratorias que utilizan la isla de descanso en su camino, también se observan algunas especies de focas. Entre la flora, en sus inicios destacaban los musgos y los líquenes, aunque en la actualidad los científicos han contado más de 30 especies vegetales.
Sin embargo, no todas las islas sobreviven, como expone Mike García,«la formación de éstas es un fenómeno raro porque no es fácil que se consoliden». Un ejemplo de islote fugaz se halla en una pequeña ínsula que surgió en el siglo XIX al suroeste de Sicilia (Italia), de un kilómetro de diámetro, cuya vida alcanzó apenas los cinco meses.
FUENTE: La razón
Aquí influye, como explica José Luis Barreda, vicepresidente del Colegio Oficial de Geólogos, «una serie de factores importantes como el tipo de magma que sale del volcán y el agua del mar u océano en que se ubique». Ya que depende de ello para sufrir más o menos erosión y permanecer «viva» durante más tiempo. Pero, ¿qué marca la diferencia entre una isla o islote además de su supervivencia? Como apunta Barreda, «lo importante son las dimensiones, pero no se ha estipulado una medida estándar. Depende del consenso entre los expertos. Es algo relativo».
Pero no todas las islas que emergen o lo han hecho ya proceden de una erupción volcánica marina.
Si bien es cierto que el fondo marino contiene numerosos montes creados a partir de crisis volcánicas, que pueden expulsar magma y asomarse a la superficie, «Un ejemplo son las mismas Canarias, con una evolución de millones de años. Pero, ¿cuántas islas de este tipo no progresaron? Desconocemos la mayoría», declara vicepresidente del Colegio Oficial de Geólogos.
Y, por otro lado, en los bordes de las placas tectónicas es habitual encontrarse con agrupaciones de arrecifes formados por la superposición de unas y otras, «un ejemplo de ello son las Islas Baleares, pero nos encontramos ante procesos mucho más largos», explica Joan Martí, vulcanólogo de Instituto de Ciencias de la Tierra «Jaume Almera», del Centro Superior de Investigaciones Científicas (CSIC). Este fenómeno se puede observar en la zona de las placas de subducción –cuando una se mete debajo de otra–. «Así, esto se observa en todo el arco del Pacífico, que empieza en los Andes, sigue en la parte norte del Estado de Washington, Alaska y las islas Alutianas, baja por la zona de Siberia, llega hasta Japón, hasta bajar a las Islas Filipinas y acaba en Nueva Zelanda. En estas zonas donde se está dando mayoritariamente el vulcanismo», como apunta Barreda.
En general, se pueden diferenciar varios tipos de islas según su origen de formación: continentales, que formadas junto a un continente próximo –como Australia o Gran Bretaña–; volcánicas –Canarias, Hawai, Pascua–; coralinas, formadas en mares tropicales por el crecimiento de los corales hasta la superficie –Maldivas o archipiélago de Chagos–; sedimentarias, –Marajó en la desembocadura del Ebro–; y, por último, las fluviales, alteraciones en los ríos, –Isla del Bananal en Brasil–.
Un caso curioso es Islandia. Esta ínsula nació de la separación de las placas tectónicas y se formó gracias a la acumulación de material magmático que emergía de la grieta entre ambas. Aún en la actualidad está fisura está viva y se va rellenando de forma progresiva, así «la isla crece entre cinco y nueve centímetros al año», apunta Barreda. Junto a ella la recién nacida Sursta, de una explosión volcánica marina en 1963 –que duró hasta 1967–, y que parece sufrir el efecto contrario.
Esta isla, que llegó a tener unos dos kilómetros cuadrados, hoy día tiene un 50 por ciento menos de terreno desde que nació, «de hecho está casi totalmente desaparecida», subraya Martí. Este islote es una fuente de estudio para los científicos, que pese a su erosión anual, han visto cómo la isla ha sido poblada y colonizada por una fauna y flora particular. Como los frailecillos del Atlántico, las gaviotas, entre otras especies de aves migratorias que utilizan la isla de descanso en su camino, también se observan algunas especies de focas. Entre la flora, en sus inicios destacaban los musgos y los líquenes, aunque en la actualidad los científicos han contado más de 30 especies vegetales.
Sin embargo, no todas las islas sobreviven, como expone Mike García,«la formación de éstas es un fenómeno raro porque no es fácil que se consoliden». Un ejemplo de islote fugaz se halla en una pequeña ínsula que surgió en el siglo XIX al suroeste de Sicilia (Italia), de un kilómetro de diámetro, cuya vida alcanzó apenas los cinco meses.
FUENTE: La razón
miércoles, 26 de octubre de 2011
LA NASA RECREA LA IMAGEN DE LA PRIMERA SUPERNOVA
La NASA ha combinado datos de cuatro telescopios espaciales diferentes para crear una vista en onda multilongitudinal de la supernova conocida como RCW 86, la más antigua que consta en los registros de astronomía.
Los astrónomos chinos fueron testigos del evento que se produjo en el año 185, cuando descubrieron una estrella muy luminosa que permaneció en el cielo durante ocho meses.
Las imágenes de rayos X del observatorio XMM-Newton de la Agencia Espacial Europea y del Observatorio de rayos-X de la NASA Chandra se combinan para formar los colores azul y verde en la imagen, que muestran que el gas interestelar se ha calentado a millones de grados por la onda expansiva de la supernova.
Los datos infrarrojos del Telescopio Espacial Spitzer de NASA y de la sonda WISE, que se ven en amarillo y rojo, revelan el polvo que irradia a una temperatura a varios cientos de grados bajo cero, cálido en comparación con el polvo cósmico habitual en la Vía Láctea, indicó la agencia espacial.
Mediante el estudio de los rayos X y los datos infrarrojos, los astrónomos han sido capaces de determinar que la causa de aquella misteriosa explosión en el cielo fue una supernova de tipo Ia, una estrella que ha completa su ciclo de vida y muere.
La supernova RCW 86 está aproximadamente a 8.000 años luz de distancia. Tiene unos 85 años luz de diámetro, que ocupa una región del cielo en la constelación austral de Circinus que, según indica la NASA como referencia, es ligeramente más grande que la luna.
FUENTE: La razón
martes, 25 de octubre de 2011
LOS NEUTRINOS Y EL PRESIDENTE
El físico Frank Press fue consejero científico del presidente de Estados Unidos Jimmy Carter. Una mañana, cuando estaba en su despacho, recibió una llamada de Carter que había leído en el periódico el siguiente titular:
"Llegan del Sol menos neutrinos de los esperados"
El presidente preocupado le pregunto : "¿Podemos hacer algo?". Press lo tranquilizo explicándole que lo que ocurría era simplemente que la teoría del Big-Bang, que explicaba la formación del universo, predecía que el Sol tenía que emitir más neutrinos de los que eran detectados en la Tierra.
FUENTE: La ciencia es divertida
"Llegan del Sol menos neutrinos de los esperados"
El presidente preocupado le pregunto : "¿Podemos hacer algo?". Press lo tranquilizo explicándole que lo que ocurría era simplemente que la teoría del Big-Bang, que explicaba la formación del universo, predecía que el Sol tenía que emitir más neutrinos de los que eran detectados en la Tierra.
FUENTE: La ciencia es divertida
lunes, 24 de octubre de 2011
LA MATERIA OSCURA, CADA VEZ MÁS MISTERIOSA
Una nueva investigación pone patas arriba lo que la ciencia cree saber sobre esta extraña sustancia que mantiene ordenado el universo.
Un nuevo estudio recién publicado en arxiv.org y que verá la luz próximamente en The Astrophysical Journal acaba de añadir, si cabe, otra dosis de misterio al misterio de la materia oscura. "Después de haber terminado nuestro trabajo -ha afirmado Matt Walker, investigador del Centro Harvard Smithsonian para la Astrofísica y autor principal de la investigación- sabemos aún menos sobre la materia oscura de lo que sabíamos antes de empezar".
Igual que sucede en todas las galaxias, nuestra Vía Láctea alberga una extraña sustancia que los científicos, a falta de una descripción mejor, llaman "materia oscura". La materia oscura es invisible, incluso para nuestros instrumentos más sofisticados, pero revela su presencia gracias a la atracción gravitatoria que ejerce sobre la materia "ordinaria", la que sí podemos ver y de la que todos, personas, planetas y estrellas, estamos hechos. Se ha calculado que la materia ordinaria apenas si da cuenta del 4% de la masa total del Universo, mientras que la materia oscura supone cerca de un 23%.
Lo que sí que sabemos es que si no fuera por la materia oscura, las estrellas de nuestra galaxia se dispersarían sin remedio, volando en todas direcciones en lugar de girar ordenadamente alrededor de una zona central. Es decir, que sin materia oscura no habría galaxia, ya que la cantidad de materia ordinaria que contiene no basta para mantenerla unida y en orden.
No cabe duda de que la materia oscura constituye un gran misterio. Uno, además, que se ha hecho aún más profundo e insondable después del estudio liderado por Matt Walker.
El modelo cosmológico estandar describe un universo dominado por completo por la materia oscura y por la energía oscura. Y la mayor parte de los astrónomos tiene asumido que la materia oscura debe estar constituida por una clase de partículas "exóticas" y frías de las que nada sabemos, excepto que se van aglomerando gracias a la fuerza de la gravedad. Con el paso del tiempo, esos cúmulos de partículas han ido creciendo lo suficiente como para atraer a la materia ordinaria y dar forma a las galaxias que hoy podemos observar en el cielo.
Para simular este proceso, los cosmólogos utilizan los ordenadores más poderosos que existen. Y todas esas simulaciones muestran que la materia oscura debería formar apretados "paquetes" en el centro mismo de las galaxias. Sin embargo, y aquí viene el desconcierto, las últimas mediciones realizadas por Walker y sus colaboradores en dos galaxias enanas muestran que la materia oscura está uniformemente distribuida en ellas. Lo que sugiere que el modelo cosmológico podría estar equivocado.
Walker analizó la distribución de la materia oscura en dos pequeños vecinos galácticos de la Vía Láctea, Fornax y Sculptor. Estas galaxias apenas si contienen entre uno y diez millones de estrellas, muy pocas en comparación de los casi 400.000 millones de nuestra propia galaxia. Los investigadores midieron la localización, la velocidad y la composición química de unas 2.500 estrellas en esas dos galaxias.
Los científicos encontraron que la materia oscura está uniformemente distribuida en las dos galaxias a lo largo de regiones relativamente amplias, del orden de varios cientos de años luz de diámetro. Lo cual contradice frontalmente la predicción de que la densidad de la materia oscura debería incrementarse a medida que nos acercamos al centro de estas galaxias.
Para tratar de aclarar el misterio, los dos investigadores se disponen a estudiar más galaxias enanas para ver si en todas sucede lo mismo. Si así fuera, sin embargo, el misterio de la materia oscura no habría hecho más que complicarse aún más.
FUENTE: ABC
Un nuevo estudio recién publicado en arxiv.org y que verá la luz próximamente en The Astrophysical Journal acaba de añadir, si cabe, otra dosis de misterio al misterio de la materia oscura. "Después de haber terminado nuestro trabajo -ha afirmado Matt Walker, investigador del Centro Harvard Smithsonian para la Astrofísica y autor principal de la investigación- sabemos aún menos sobre la materia oscura de lo que sabíamos antes de empezar".
Igual que sucede en todas las galaxias, nuestra Vía Láctea alberga una extraña sustancia que los científicos, a falta de una descripción mejor, llaman "materia oscura". La materia oscura es invisible, incluso para nuestros instrumentos más sofisticados, pero revela su presencia gracias a la atracción gravitatoria que ejerce sobre la materia "ordinaria", la que sí podemos ver y de la que todos, personas, planetas y estrellas, estamos hechos. Se ha calculado que la materia ordinaria apenas si da cuenta del 4% de la masa total del Universo, mientras que la materia oscura supone cerca de un 23%.
Lo que sí que sabemos es que si no fuera por la materia oscura, las estrellas de nuestra galaxia se dispersarían sin remedio, volando en todas direcciones en lugar de girar ordenadamente alrededor de una zona central. Es decir, que sin materia oscura no habría galaxia, ya que la cantidad de materia ordinaria que contiene no basta para mantenerla unida y en orden.
No cabe duda de que la materia oscura constituye un gran misterio. Uno, además, que se ha hecho aún más profundo e insondable después del estudio liderado por Matt Walker.
El modelo cosmológico estandar describe un universo dominado por completo por la materia oscura y por la energía oscura. Y la mayor parte de los astrónomos tiene asumido que la materia oscura debe estar constituida por una clase de partículas "exóticas" y frías de las que nada sabemos, excepto que se van aglomerando gracias a la fuerza de la gravedad. Con el paso del tiempo, esos cúmulos de partículas han ido creciendo lo suficiente como para atraer a la materia ordinaria y dar forma a las galaxias que hoy podemos observar en el cielo.
Para simular este proceso, los cosmólogos utilizan los ordenadores más poderosos que existen. Y todas esas simulaciones muestran que la materia oscura debería formar apretados "paquetes" en el centro mismo de las galaxias. Sin embargo, y aquí viene el desconcierto, las últimas mediciones realizadas por Walker y sus colaboradores en dos galaxias enanas muestran que la materia oscura está uniformemente distribuida en ellas. Lo que sugiere que el modelo cosmológico podría estar equivocado.
Walker analizó la distribución de la materia oscura en dos pequeños vecinos galácticos de la Vía Láctea, Fornax y Sculptor. Estas galaxias apenas si contienen entre uno y diez millones de estrellas, muy pocas en comparación de los casi 400.000 millones de nuestra propia galaxia. Los investigadores midieron la localización, la velocidad y la composición química de unas 2.500 estrellas en esas dos galaxias.
Los científicos encontraron que la materia oscura está uniformemente distribuida en las dos galaxias a lo largo de regiones relativamente amplias, del orden de varios cientos de años luz de diámetro. Lo cual contradice frontalmente la predicción de que la densidad de la materia oscura debería incrementarse a medida que nos acercamos al centro de estas galaxias.
Para tratar de aclarar el misterio, los dos investigadores se disponen a estudiar más galaxias enanas para ver si en todas sucede lo mismo. Si así fuera, sin embargo, el misterio de la materia oscura no habría hecho más que complicarse aún más.
FUENTE: ABC
ENCUENTRAN OCÉANOS DE AGUA EN UN DISCO DE FORMACIÓN PLANETARIA
Los resultados sugieren que este disco, que está a punto de convertirse en un sistema solar, contiene grandes cantidades de agua, lo que sugiere que el agua que cubre en gran parte planetas como la Tierra podría ser un elemento común en el universo. Herschel es una misión de la Agencia Espacial Europea, con importantes contribuciones de la NASA.
Los científicos ya encontraron vapor de agua caliente en discos de formación planetaria cerca de una estrella central. La evidencia de grandes cantidades de agua extendida hacia discos más lejanos y fríos donde se forman los cometas no había sido obtenida hasta ahora. A más agua disponible en los discos donde se forman los cometas de hiel, mayor es la probabilidad de que una gran cantidad de este elemento llegue a alcanzar nuevos planetas a través de impactos.
«Nuestras observaciones de este vapor frío indican que el agua existe en proporción suficiente en el disco como para llenar miles de océanos de la Tierra», dijo el astrónomo Michiel Hogerheijde del Observatorio Leiden en los Países Bajos. Hogerheijde es el autor principal de un artículo que describe los hallazgos en la revista Science.
La estrella de este disco saturado de agua, llamado TW Hydrae, tiene 10 millones de años y está situada a unos 175 años luz de distancia de la Tierra, en la constelación de Hidra. Se cree que la fría neblina acuosa detectada por Hogerheijde y su equipo procede de granos de polvo cubiertos de hielo cerca de la superficie del disco. La luz ultravioleta de la estrella hace que algunas moléculas de agua se liberen de este hielo, creando una fina capa de gas que se traduce en la firma de la luz detectada por el instrumento heterodino de Herschel para el infrarrojo lejano, o HI-FI.
TW Hydrae es una estrella enana naranja, algo más pequeña y fría que nuestro sol
de color amarillo y blanco. El gigantesco disco de material que rodea a la estrella tiene un tamaño de cerca de 200 veces la distancia entre la Tierra y el sol. Durante los próximos millones de años, los astrónomos creen que la materia dentro del disco chocará entre sí y se convertirá en planetas, asteroides y otros cuerpos cósmicos. Las partículas de polvo y hielo se agruparán en cometas.
A medida que el nuevo sistema solar evoluciona, es probable que los cometas de hielo, con gran parte del depósito de agua que contienen, acaben impactando contra los mundos recién creados dando lugar a los océanos. Los astrónomos creen que TW Hydrae y su disco de hielo puede ser representativo de muchos otros sistemas estelares jóvenes.
FUENTE: La razón
A medida que el nuevo sistema solar evoluciona, es probable que los cometas de hielo, con gran parte del depósito de agua que contienen, acaben impactando contra los mundos recién creados dando lugar a los océanos. Los astrónomos creen que TW Hydrae y su disco de hielo puede ser representativo de muchos otros sistemas estelares jóvenes.
FUENTE: La razón
domingo, 23 de octubre de 2011
EINSTEIN AL RESCATE DE EINSTEIN EN EL CASO DE LOS NEUTRINOS
Einstein al rescate de Einstein podía haber sido el título del artículo del físico teórico Carlo Contaldi acerca del ya famoso experimento en el que, aparentemente, los neutrinos sobrepasan la máxima velocidad admitida en el universo, la de la luz. No se ha tenido en cuenta en dicho experimento, argumenta este científico del Imperial College de Londres, el efecto de la gravedad (diferente en la salida y en la meta de la carreta de 730 kilómetros de los neutrinos), según la Relatividad General de Einstein, sobre los relojes con los que se midió dicha velocidad.
Desde que, hace un par de semanas, los científicos del detector Opera, en Italia, anunciaran esos sorprendentes resultados que, si fueran verdad, tirarían por tierra un pilar de la Relatividad Especial de Einstein (la velocidad insuperable de la luz), físicos de todo el mundo se han puesto a la tarea de rebuscar por todas las esquinas de ese trabajo para encontrar la grieta que casi todos están convencidos que tiene que tener, aunque todavía no la han encontrado. Más de 20 artículos se han propuesto ya públicamente al respecto, incluido uno de Andy Cohen y el Premio Nobel Sheldon Glashow.
Contaldi explica que los físicos de Opera, en sus cálculos, no tuvieron en cuenta las pequeñas diferencias en la fuerza de la gravedad en los dos lugares (de origen y de destino de los neutrinos en ese experimento) que harían que los relojes hicieran tictac a ritmo ligeramente diferente, obedeciendo a la Relatividad General tan verificada experimentalmente, explica la revista Nature. La idea es que los relojes no estarían sincronizados con la precisión requerida.
Como la atracción gravitatoria en Ginebra (el origen de los neutrinos) es ligeramente más fuerte a la de Gran Sasso (la meta, en los Apeninos), el primer reloj iría algo más despacio que el segundo, por lo que el tiempo empleado por los neutrinos en recorrer los 730 kilómetros sería, en realidad, ligeramente superior a lo que los datos de Opera indican, lo suficiente, sugiere Contaldi, para dejar en suspenso la presunta velocidad superlumínica de las partículas que se ha anunciado. Otros físicos apuntan que el efecto sería insignificante.
En el experimento se han lanzado haces de paquetes de neutrinos desde el complejo de aceleradores del Laboratorio Europeo de Física de Partículas (CERN, junto a Ginebra) hacia el laboratorio de Gran Sasso. Los neutrinos apenas interaccionan con la materia, por lo que atraviesan la roca del subsuelo limpiamente a lo largo de los 730 kilómetros de distancia entre el origen y el destino, sin necesidad de un túnel entre el CERN y Opera, como dijo la ministra italiana de Instrucción, Universidad e Investigación, Mariastella Gelmini, al presentarse los datos de Opera. Gelmini incluso se congratuló por la contribución italiana de 45 millones de euros para la construcción de ese túnel inexistente, provocando la hilaridad en medio mundo. Tampoco se han lanzado haces de neutrinos y de fotones paralelamente, como alguien ha dicho, para ver cual llega antes. Es obvio que los fotones de luz no pueden atravesar la tierra como los neutrinos sin un túnel como el de Gelmini.
Los científicos de Opera lo que han hecho es medir el tiempo que tardan los neutrinos en recorrer la distancia entre el punto de partida en el CERN y el detector en Italia recurriendo a relojes atómicos sincronizados y sistemas avanzados de GPS, teniendo incluso en cuenta movimientos geológicos, y compararlo con el tiempo que tardaría la luz en recorrer esa misma distancia de 731 kilómetros a su velocidad constante de 300.000 kilómetros por segundo en el vacío. Según sus resultados, los neutrinos tardan 60 nanosegundos menos de lo que tardaría la luz.
Dario Autiero, coordinador de Opera, responde en Nature que el argumento de Contaldi se debe a que no se ha entendido del todo cómo se ha hecho la sincronización de los relojes en el experimento. Por ello, anuncia que el equipo va a revisar el artículo en el que han presentado los resultados para aportar más detalles y pormenores del trabajo.
Contaldi ha calculado que si se ha pasado por alto el sutil efecto de la gravedad sobre los relojes, los resultados de la medida de la velocidad de los neutrinos pueden variar en decenas de nanosegundos, lo que podría dejar los resultados de Opera en el rango de la normalidad, es decir, con los neutrinos respetando el límite universal de velocidad.
FUENTE: El Pais
Desde que, hace un par de semanas, los científicos del detector Opera, en Italia, anunciaran esos sorprendentes resultados que, si fueran verdad, tirarían por tierra un pilar de la Relatividad Especial de Einstein (la velocidad insuperable de la luz), físicos de todo el mundo se han puesto a la tarea de rebuscar por todas las esquinas de ese trabajo para encontrar la grieta que casi todos están convencidos que tiene que tener, aunque todavía no la han encontrado. Más de 20 artículos se han propuesto ya públicamente al respecto, incluido uno de Andy Cohen y el Premio Nobel Sheldon Glashow.
Contaldi explica que los físicos de Opera, en sus cálculos, no tuvieron en cuenta las pequeñas diferencias en la fuerza de la gravedad en los dos lugares (de origen y de destino de los neutrinos en ese experimento) que harían que los relojes hicieran tictac a ritmo ligeramente diferente, obedeciendo a la Relatividad General tan verificada experimentalmente, explica la revista Nature. La idea es que los relojes no estarían sincronizados con la precisión requerida.
Como la atracción gravitatoria en Ginebra (el origen de los neutrinos) es ligeramente más fuerte a la de Gran Sasso (la meta, en los Apeninos), el primer reloj iría algo más despacio que el segundo, por lo que el tiempo empleado por los neutrinos en recorrer los 730 kilómetros sería, en realidad, ligeramente superior a lo que los datos de Opera indican, lo suficiente, sugiere Contaldi, para dejar en suspenso la presunta velocidad superlumínica de las partículas que se ha anunciado. Otros físicos apuntan que el efecto sería insignificante.
En el experimento se han lanzado haces de paquetes de neutrinos desde el complejo de aceleradores del Laboratorio Europeo de Física de Partículas (CERN, junto a Ginebra) hacia el laboratorio de Gran Sasso. Los neutrinos apenas interaccionan con la materia, por lo que atraviesan la roca del subsuelo limpiamente a lo largo de los 730 kilómetros de distancia entre el origen y el destino, sin necesidad de un túnel entre el CERN y Opera, como dijo la ministra italiana de Instrucción, Universidad e Investigación, Mariastella Gelmini, al presentarse los datos de Opera. Gelmini incluso se congratuló por la contribución italiana de 45 millones de euros para la construcción de ese túnel inexistente, provocando la hilaridad en medio mundo. Tampoco se han lanzado haces de neutrinos y de fotones paralelamente, como alguien ha dicho, para ver cual llega antes. Es obvio que los fotones de luz no pueden atravesar la tierra como los neutrinos sin un túnel como el de Gelmini.
Los científicos de Opera lo que han hecho es medir el tiempo que tardan los neutrinos en recorrer la distancia entre el punto de partida en el CERN y el detector en Italia recurriendo a relojes atómicos sincronizados y sistemas avanzados de GPS, teniendo incluso en cuenta movimientos geológicos, y compararlo con el tiempo que tardaría la luz en recorrer esa misma distancia de 731 kilómetros a su velocidad constante de 300.000 kilómetros por segundo en el vacío. Según sus resultados, los neutrinos tardan 60 nanosegundos menos de lo que tardaría la luz.
Dario Autiero, coordinador de Opera, responde en Nature que el argumento de Contaldi se debe a que no se ha entendido del todo cómo se ha hecho la sincronización de los relojes en el experimento. Por ello, anuncia que el equipo va a revisar el artículo en el que han presentado los resultados para aportar más detalles y pormenores del trabajo.
Contaldi ha calculado que si se ha pasado por alto el sutil efecto de la gravedad sobre los relojes, los resultados de la medida de la velocidad de los neutrinos pueden variar en decenas de nanosegundos, lo que podría dejar los resultados de Opera en el rango de la normalidad, es decir, con los neutrinos respetando el límite universal de velocidad.
FUENTE: El Pais
viernes, 21 de octubre de 2011
BLANCANIEVES, NUEVO PLANETA ENANO
Hace unas semanas, una misión de NASA mostraba la existencia de un planeta en torno a dos soles. Ahora un nuevo cuerpo transneptuniano en nuestro Sistema Solar se convierte en "Blancanieves".
En el Instituto Tecnológico de California (Caltech), el equipo de Mike Brown es famoso por haber descubierto los más grandes cuerpos del cinturón de Kuiper, una región de nuestro Sistema Solar más allá de la órbita de Neptuno, donde orbitan planetas enanos como Plutón, Haumea, Makemake, Eris... En 2007 descubrieron uno nuevo, al que se la ha asignado el nombre de Blancanieves. Lo cierto es que la mitad de su superficie está cubierta por hielo de agua, posiblemente surgida a través de volcanes en una época temprana de ese mundo. No solo eso, informan, porque tiene una capa de metano, el resto de una atmósfera que se ha ido escapando debido a que la gravedad no es capaz de mantener una envoltura gaseosa más densa.
Blancanieves tiene aproximadamente la mitad de tamaño de Plutón, no es de los más grandes de esta familia de objetos que están en una región del Sistema Solar rica en cuerpos que, además, mantienen composición y otras características menos alteradas a lo largo de estos 4.500 millones de años desde su formación, lo que los hace diferentes de los planetas del interior de nuestro sistema, donde se han producido más cambios, debido principalmente a la energía que llega del Sol.
Por cierto, que realmente deberíamos tener en cuenta que muchos de estos cuerpos ya podrían haber sido considerados, justamente, como otras Blancanieves. No deja de ser entonces casi un chiste obligado que sean los planetas enanos los que tienen más nieve (blanca) de todo el Sistema Solar.
FUENTE: El Mundo
Suscribirse a:
Entradas (Atom)