miércoles, 25 de marzo de 2009

Bacterias con Brujula

Un equipo de científicos ha demostrado que unos diminutos cristales encontrados en el interior de algunas bacterias las dotan de una brújula para ayudarlas a navegar por los sedimentos en busca de la mejor comida.

Este estudio podía proveer pistas frescas que ayuden a explicar el biomagnetismo, un fenómeno por el que algunas aves, insectos y formas de vida marina navegan usando el campo magnético que rodea a la Tierra.El estudio se concentra en las bacterias magnetotácticas, las cuales contienen cadenas de cristales magnéticos, llamados magnetosomas.

Existen en lugares de todo el planeta, viviendo en sedimentos de lagos y lagunas, y en las regiones costeras de los océanos.Desde el descubrimiento de las bacterias magnetotácticas en la década de 1970, y hasta ahora, no había estado claro para qué servían exactamente los magnetosomas. Los resultados de investigaciones previas indicaron que algunas cadenas de magnetosomas no serían útiles para la navegación porque los tamaños de sus cristales no poseían las cualidades magnéticas correctas.

Sin embargo, unos investigadores del Imperial College de Londres y la Universidad de Edimburgo han demostrado ahora que los métodos anteriores de modelado eran inexactos. Los nuevos cálculos prueban que todos los magnetosomas conocidos poseen las cualidades magnéticas correctas que se requieren para facilitar la navegación.Los magnetosomas se alinean unos con otros para formar una cadena dentro de las bacterias y operar como una brújula.

Los investigadores todavía no están seguros de cómo, pero esta brújula interactúa con el campo magnético de la Tierra, ayudando a las bacterias a navegar por los sedimentos hacia las mejores áreas de alimentación.Lo descubierto en el estudio pone de manifiesto un ejemplo perfecto del poder de la evolución, demostrando que gracias a ella un organismo relativamente simple puede desarrollar una capacidad de navegación muy optimizada.

Los Fósiles de Dinosaurios Encajan Bien en el Arbol Genealógico Evolutivo

Un reciente estudio hecho por investigadores de la Universidad de Bath y del Museo de Historia Natural de Londres ha permitido constatar que el conocimiento científico sobre la evolución de los dinosaurios es notablemente completo.
Los biólogos evolutivos emplean dos formas de estudiar la evolución de los vegetales y los animales prehistóricos: Primeramente usan las técnicas de datación radiactiva para colocar los fósiles en una sucesión cronológica según la edad de las rocas en que son encontrados (la estratigrafía).
Y en segundo lugar, observan y clasifican las características de los restos fosilizados según su grado de similitud o "parentesco" (su morfología).Matthew Wills, del Departamento de Biología y Bioquímica de la Universidad de Bath, trabajó con Paul Barrett del Museo de Historia Natural, y Julia Heathcote, del Birkbeck College (Londres), para analizar los datos estadísticos de los fósiles de los cuatro grupos principales de dinosaurios y ver cuán estrechamente encajaban en su árbol de parentesco evolutivo.

Los investigadores comprobaron que el registro fósil para los dinosaurios estudiados, desde los gigantescos saurópodos hasta los carnívoros bípedos como el T. rex, encaja muy bien con el árbol evolutivo, significando ello que la visión actual que se tiene de la evolución de estas criaturas es muy exacta.Hay dos líneas independientes de evidencia en la historia de la vida: el orden cronológico de los fósiles en las rocas, y los árboles de parentesco evolutivo.
Cuando ambas líneas cuentan la misma historia, la explicación más probable es que ambas están reflejando la verdad. Cuando discrepan, es que se ha cometido algún error importante.La conclusión principal de este estudio es que el consenso para los dinosaurios es notablemente bueno, lo que significa que se puede confiar tanto en el conocimiento existente sobre su evolución, como en el carácter razonablemente completo de su registro fósil. "En otras palabras, nuestro conocimiento de los dinosaurios es muy, muy bueno", resume Wills.

Observación Detallada de una Fase Crucial de la Reparación de ADN Humano

Una fase clave en el proceso de reparación del ADN humano dañado ha sido observada y grabada visualmente por un grupo de investigadores en la Universidad de California en Davis. Las grabaciones aportan nueva información sobre el papel ejercido en este proceso complicado y crítico por una proteína conocida como Rad51, la cual está vinculada al cáncer de mama.
Este logro llega una década después de que Stephen Kowalczykowski, profesor de microbiología e investigador principal del estudio, y Ron Baskin, profesor emérito de biología molecular y celular, empezaran a desarrollar los métodos para etiquetar moléculas con marcadores fluorescentes, con el fin de poder luego observarlas en funcionamiento mediante técnicas avanzadas. En 2006, los investigadores grabaron una parte del proceso de reparación de ADN bacteriano, un sistema considerablemente menos complicado que su homólogo humano.
El ADN humano está bajo la continua agresión de agentes dañinos, como son la luz ultravioleta del Sol, el humo de tabaco y miríadas de sustancias químicas, tanto naturales como producidas por el hombre. Dado que estos daños pueden resultar en cáncer, muerte celular y mutaciones, una legión de proteínas y enzimas es movilizada para entrar en acción siempre que aparecen tales daños.La Rad51 tiene un papel principal en la acción. Siempre a la llamada de la célula, las moléculas de la proteína se ensamblan en un filamento a lo largo de un segmento dañado o roto de ADN, donde ayudan a estirar las hebras enrolladas y a alinearlas con los segmentos correspondientes sobre la segunda copia del cromosoma de la célula, que sirve de plantilla para la reconstrucción.
Como esta proteína es regulada por un gen (BRCA2) relacionado con el riesgo de desarrollar cáncer de mama, también se cree que desempeña un papel relevante en la supresión de esa enfermedad.Con la capacidad de observar el ensamblaje de filamentos individuales de Rad51 en tiempo real, el grupo de Kowalczykowski ha hecho varios descubrimientos. Entre estos figura el de que, a diferencia de sus homólogos bacterianos, los filamentos de Rad51 no crecen indefinidamente. Esto indica que hay un mecanismo, aún no descubierto, que regula esa actividad en la proteína.
La capacidad de los vegetales terrestres para crecer hacia arriba, alzándose en el aire, sin otro apoyo para ello que sus propios tejidos leñosos afianzados en la materia sólida, ha sido considerada siempre como una de las características distintivas que las separan de sus primas, las plantas acuáticas, las cuales se apoyan en el agua para sostenerse.
Ahora, la lignina, uno de los compuestos naturales vitales para esta capacidad de alzarse del suelo a través del aire que poseen las plantas terrestres (y que se consideraba exclusiva de ellas) ha sido encontrada en un alga marina por un equipo de investigadores entre quienes figuran especialistas de la Universidad de la Columbia Británica, Canadá, y de la Universidad de Stanford, EE.UU.La lignina, un componente principal de la madera, es como un pegamento que ayuda a fortificar las paredes celulares, y es esencial para el transporte del agua en muchas plantas.En el nuevo estudio, el autor principal Patrick Martone y sus colegas identificaron y localizaron lignina en las paredes celulares de un alga roja.

Todas las plantas terrestres evolucionaron de las algas verdes, y los científicos siempre habían creído que la lignina había evolucionado después de que las plantas comenzaron a colonizar tierra firme, como un mecanismo de adaptación para estabilizar el crecimiento vertical y para asegurar el transporte de agua desde las raíces.
Como probablemente las algas verdes y rojas divergieron hace más de mil millones de años, el descubrimiento de lignina en un alga roja sugiere que la maquinaria básica para producir lignina pudo haber existido mucho antes de que las algas colonizaran la tierra.Alternativamente, las algas y las plantas terrestres pudieron haber evolucionado de manera independiente hacia la incorporación del mismo compuesto, después de haberse separado, aunque esto parece menos probable.
"Las rutas metabólicas, las enzimas y los genes que participan en la síntesis de la lignina son muy complicados, de manera que desarrollar todo esto de manera independiente sería algo realmente increíble", recalca Mark Denny, uno de los autores del estudio.
Las manzanas norteamericanas han impulsado cambios genéticos en las moscas de la fruta y en las avispas parásitas. Un equipo de investigadores ha dado a conocer que está surgiendo una nueva especie de mosca de la fruta, y también que, como consecuencia de ello, lo está haciendo una nueva especie de avispa.
Jeff Feder, biólogo de la Universidad de Notre Dame, y sus colegas, creen que la introducción de manzanas en América hace casi 400 años puede haber cambiado, a la larga, el comportamiento de una mosca de la fruta, resultando ello en su modificación y en la modificación subsiguiente de una avispa parasitaria que se alimenta de ella.El resultado es una reacción en cadena en la biodiversidad, donde la modificación de una especie induce la modificación secuencial de una segunda especie dependiente.

Es una clara demostración de cómo la especialización inicial de un organismo abre una oportunidad para que otras especies del mismo ecosistema se especialicen.La biodiversidad, en esencia, sirve como fuente de nueva biodiversidad.Casi 250 años después de la introducción de las manzanas en América del Norte, las moscas Rhagoletis pomonella seguían encontrándose sobre los pequeños y rojos frutos de los espinos para aparearse y poner huevos.
Entonces, a mediados del siglo XIX, en vez de seguir esa costumbre, algunas de estas moscas comenzaron a aparearse y a poner huevos sobre manzanas.Según Feder, las moscas atraídas por las manzanas han pasado a diferenciarse genéticamente de las moscas que siguieron apareándose sobre los frutos de los espinos, y lo mismo ha sucedido con las avispas que parasitan a las moscas.

Viaja rapido para vivir mas

Viajar es como el elixir de la eterna juventud. El tiempo subjetivo parece pasar más lento y las experiencias que acumulamos equivalen a varias vidas de sendentarismo y monotonía.
A nivel científico, viajar también tiene implicaciones temporales, aunque sean más pequeñas, casi imperceptibles. Gracias a Einstein, hoy sabemos que el tiempo es relativo. Y esta idea se ve muy bien ilustrada por una célebre historia.

Imaginad a un hombre que le dice a su esposa que va a pasear el perro. La esposa se queda en casa. El hombre pasea al perro y el perro brinca y mueve la cola de alegría. Al volver a casa, algo les ha pasado a los tres.

Tras el paseo con el perro, resulta que el hombre ha envejecido menos que la mujer, el perro ha envejecido menos que el hombre… y la cola del perro ha envejecido menos que el propio perro, pues no dejaba de agitarse.

Con la velocidad a la que se movía cada cuerpo, la diferencia, por supuesto, no es susceptible de medición. Pero en esencia el tiempo no ha transcurrido de la misma manera para la esposa, el hombre, el perro y su cola.

Si de verdad queréis notar los efectos relativistas en vuestras carnes, entonces quizá deberíais hacer un viaje más largo por el espacio exterior. Al regresar, para vosotros habrán pasado unos meses y para el resto de la humanidad, años, quizá siglos. Todos vuestros parientes y amigos habrán muerto y vosotros aún gozaréis de una lozanía envidiable. Este hecho se ve forzado al máximo en una célebre novela de ciencia ficción, La guerra interminable, de Joe Haldeman.
Pero si queréis vivir realmente una eternidad, entonces deberéis coger vuestro cohete espacial y dirigiros a las proximidades de un agujero negro, un objeto astral de una densidad inimaginable (toda la masa de la Tierra concentrada en un cubo de un centímetro de lado).

La masa de un agujero es tan elevada que el espaciotiempo está extremadamente curvado en su cercanía. Si finalmente el agujero nos succionara, la caída sería finita, por supuesto. Pero para un observador situado lo bastante lejos como para que el agujero negro no curve su espacio, la caída, según constata él, dura un tiempo infinito.

Por fin, pues, el ansiado elixir de la eternidad. Aunque la eternidad de uno corresponda a unos pocos minutos del otro.

La Luna

Denominada Selene, de ahí su gentilicio selenita, y Artemisa por los griegos, y Luna por los romanos, es el único satélite natural de la Tierra y es el segundo objeto más brillante del cielo tras el Sol. Como consecuencia de su atracción gravitacional sobre la Tierra, es la causa principal de que se produzcan las mareas, que participan en las corrientes marinas, ya que el agua es un fluido y puede cambiar de forma más fácilmente.

Las primeras civilizaciones medían el tiempo contando las fases de la Luna. De hecho, en castellano el primer día de la semana «lunes» tiene su raíz en el «día de la Luna» (lunedí). Asimismo, la palabra inglesa para mes, month, proviene de moonth, una forma sajona primitiva para designar la Luna. Esto se puede ver también con Monday, que viene de moon day. En el idioma turco, la palabra Ay (mes) también significa luna. El origen de esta coincidencia es el hecho de que el musulmán es un calendario lunar.

El hecho que desde la Tierra sólo se vea una de sus caras se debe a que gira alrededor de la Tierra y sobre su eje en el mismo tiempo: 27 días, 7 horas y 43 minutos, debido al gradiente gravitatorio. A medida que gira alrededor de la Tierra, una vez al mes aproximadamente, el ángulo entre el Sol, la Luna y la Tierra cambia, por lo que la luz del Sol le llega desde posiciones diferentes, que se repiten en cada vuelta, percibiéndolo como las cuatro fases lunares, de una semana de duración. Cuando ilumina toda la cara que vemos se llama luna llena. Cuando no la vemos es la luna nueva. Entre estas dos fases sólo se ve un trozo de la Luna, un cuarto, creciente o menguante.

Los eclipses solares y lunares se deben a una "extraordinaria" casualidad. El Sol es 400 veces más grande pero también está 400 veces más lejos de modo que ambos tienen aproximadamente el mismo tamaño angular. La Luna en un eclipse lunar pude contener hasta tres veces su diámetro dentro del cono de sombra causado por la Tierra. Por el contrario en un eclipse solar la Luna apenas tapa al Sol (eclipse total) y en determinadas parte de su órbita, cuando está más distante no llega a ocultarlo del todo, dejando una franja anular (eclipse anular). La complejidad del movimiento lunar dificulta el cálculo de los eclipses y se tiene que tener presente en la periodicidad en que estos se producen (Periodo Saros).

La gravedad lunar es un sexto de la gravedad terrestre; un hombre que pese unos 82 kilogramos en la Tierra, pesará sólo 14 kilogramos en la Luna. Ello ha provocado que la Luna tenga una atmósfera casi insignificante, debido a su pequeña magnitud, incapaz de retener moléculas de gas en su superficie.

La ausencia de aire, y en consecuencia de vientos, impide que se erosione la superficie y que transporte tierra y arena, alisando y cubriendo sus irregularidades. Debido a la ausencia de aire no se transmite el sonido. La falta de atmósfera también significa que la superficie de la Luna no tenga ninguna protección con respecto al bombardeo esporádico de cometas y asteroides. Además, una vez que se producen los impactos de éstos, los cráteres que resultan prácticamente no se degradan a través del tiempo por la falta de erosión.

Asteroides, Cometas y Meteoritos

Los asteroides son rocas más pequeñas, constituidos por el material que sobró durante la formación del sistema solar, que giran, la mayoría en el cinturón de asteroides entre Marte y Júpiter, con una densidad de éstos de 18.000 elementos.En 1995, los astrónomos planetarios creyeron que había más de 2.000 asteroides de, al menos, 1 km. de diámetro, capaces de colisionar con la Tierra. Pero desde entonces, solamente una fracción de estos grandes objetos ha sido encontrada cerca de la Tierra (169). El asteroide 2004 MN4, denominado Apophis, con un diámetro de 420 m, sobrevolará la Tierra el 13 de Abril de 2029 a sólo 30.000 km. sobre el suelo. Para comparar, los satélites geoestacionarios orbitan a 36.000 km. También en 2004, un asteroide pasó a solo 43.000 km. de la Tierra.

Los cometas son cuerpos de formas irregulares, frágiles y pequeños, compuestos por una mezcla de granos no volátiles y gases congelados, es decir, similares a "bolas de nieve sucia", compuestos de agua, dióxido de carbono (hielo seco), amoníaco, metano (gas natural), hierro, magnesio y silicatos. Sus núcleos pueden llegar a diámetros que superar los 100 km.
Los cometas provienen de la Nube de Oort, situada entre 12.000 y 150.000 UA (1 UA = 150 millones de km, distancia media de la Tierra al Sol) y el Cinturón de Kuiper entre 30 UA y 12.000 UA. En estas alejadas localizaciones, los núcleos de los cometas se encuentran congelados, por lo que sólo pueden ser detectados por el reflejo se la luz del Sol. Conforme el cometa se acerca al Sol, por su órbita de gran excentricidad, desarrollan una atmósfera constituida por hidrógeno, como consecuencia de procesos químicos ocasionados por la absorción de luz ultravioleta (UV), que envuelve al núcleo, llamada coma. Cuando la Tierra cruza la órbita de un cometa, los restos de éste se incineran al penetrar en la atmósfera ocasionando una "lluvia de estrellas".

Los meteoritos son pequeños asteroides, aproximadamente del tamaño de un canto rodado o de menor tamaño, que, generalmente, son el resultado de la colisión de dos o más asteroides, que en su viaje por el Sistema Solar han sido captados por la fuerza gravitatoria de la Tierra, por lo que la mayoría se encienden y se desintegran cuando entran en la atmósfera.

Los meteoritos,meteoroides o vulgarmente conocidos como estrellas fugaces entran en la atmósfera a una velocidad media que oscila entre 10 y 70 km/s. Los pequeños y medianos se frenan rápidamente hasta unos cientos de km/hora debido a la fricción, y cuando caen a tierra (si llegan) lo hacen con poca fuerza. Solamente los grandes conservan la velocidad suficiente para dejar un cráter. El más conocido es el que provocó la extinción de los dinosaurios de la Tierra hace 65 millones de años, que poseía un diámetro de 10 km. Un meteorito es también, según Portsch, la célebre piedra negra de la Kaaba en la Meca…

Planetas del Sistema Solar

Los planetas se distinguen entre planetas clásicos y planetas enanos. Todos ellos giran alrededor del astro rey al ser atraídos por éste, debido a la enorme fuerza gravitatoria que provoca el Sol.
Los planetas clásicos pueden clasificarse según su forma en: planetas terrestres y planetas jovianos. Los primeros son pequeños, de superficie rocosa y sólida, densidad alta y entre ellos están Mercurio, Venus, la Tierra y Marte. Los planetas jovianos poseen grandes diámetros, esencialmente gaseosos (hidrógeno y helio), densidad baja y son Júpiter, Saturno, Urano y Neptuno.

Los planetas enanos son cuerpos celestes que cuentan con las mismas propiedades que sus hermanos mayores, aunque presentan algunas peculiaridades. No son satélites de ningún otro planeta y no han conseguido barrer de sus proximidades otros elementos interplanetarios. Los planetas enanos, hasta el momento, son Plutón, considerado hasta ahora como planeta clásico, 2003 UB313, Ceres, Caronte. Posiblemente, otros objetos del Cinturón de Asteroides y del Cinturón de Kuiper, que se descubran próximamente serán incluidos dentro de esta categoría.

Al observar el firmamento, dentro del mar de oscuridad compuesta por materia y energía oscura, los puntos luminosos intermitentes son estrellas, cuerpos que generan su propia luz. Dicho centelleo es debido a la enorme distancia que debe recorrer su luz hasta llegar a nosotros, interrumpida en su camino, y que hace modificar el haz de luz. Por el contrario, los planetas, al encontrarse relativamente cerca, tan sólo reflejan la luz del Sol, por ello no presentan dicho centelleo, aunque en algunos casos si pueda darse, según sean las condiciones metereológicas.

Sistema Solar


El Sistema Solar es un conjunto de planetas, satélites, asteroides y cometas que giran alrededor de una estrella central, denominada Sol. El Sol se formó, al igual que los demás componentes, hace unos 4.600 millones de años, cuando una inmensa nube de gas y polvo se contrajo a causa de la fuerza de la gravedad y comenzó a girar a gran velocidad, probablemente, debido a la explosión de una supernova cercana.
El Sistema Solar es un sistema estelar que se encuentra dentro de la galaxia denominada Vía Láctea, que tiene 13.000 millones de años de antigüedad, está compuesta por 100.000 millones de estrellas y poseé un diámetro de 100.000 años luz (un año luz equivale a la distancia que recorre la luz en un año, una grandísima distancia si se tiene en cuenta que la luz viaja a una velocidad de 300.000 km/s). La estrella más cercana es Alfa Centauro, que se encuentra a 4’3 años luz.
Todas las estrellas que componen la Vía láctea están rotando alrededor del núcleo, que se cree que puede contar en su interior con un agujero negro. Las observaciones astronómicas referidas a galaxias distantes muestran que la velocidad de rotación del Sol alrededor de la galaxia es de unos 250 km/s, empleando aproximadamente 250 millones de años en realizar una revolución completa.
El tamaño del Sistema Solar se define como aquél en el que la fuerza de atracción del Sol se iguala a la fuerza de atracción de las estrellas más próximas a nosotros. Las dimensiones del sistema Solar serían entonces del orden de 3’26 años luz.

El Universo


En 1929, el astrónomo Edwin Hubble descubrió galaxias más allá de la Vía Láctea que se alejaban de nosotros, como si el universo se dilatara constantemente…

Origen del UniversoEn los años veinte del pasado siglo, el astrónomo americano Edwin Hubble relacionó el corrimiento hacia el rojo de la luz que proviene de las estrellas con que el Universo se expandía, a un ritmo que es proporcional a la distancia entre éstas y una constante universal. Este corrimiento tiene su explicación en el efecto Doppler, que indica que las galaxias se alejan entre ellas, y por tanto de nosotros.
La forma en que oímos el sonido que emite una ambulancia al acercarse (más agudo) y al alejarse (más grave) se explica por el mismo efecto. Este hecho implicaba el origen del universo en un instante inicial, siendo la teoría del Big Bang la más aceptada. Esta expansión se veía corroborada por la teoría de la relatividad general de Albert Einstein que predecía que el espacio-tiempo tenía que estar aumentando su volumen, aunque en un principio, él mismo no lo creyese, al coincidir con el modelo estático del universo preexistente.

La constante de proporcionalidad de Hubble fue medida por primera vez por el físico del que recibió su nombre, sin embargo el valor que dio no se correspondía con la realidad, debido principalmente a limitaciones instrumentales, por lo que después de numerosos intentos por mejorar dicho valor, se lanzó el Telescopio Espacial Hubble para conseguirlo, al situarse en el espacio, fuera de la atmósfera. En 2001 se publicó el valor 72±8 km/s/Mpc, según el cual se deducía que la edad del Universo debía ser de unos diez mil millones de años, insuficiente de acuerdo con las estrellas más antiguas que se habían encontrado, con una edad de unos catorce mil millones de años. Ello se debe a que existe un factor que impulsa la expansión del universo que se ha denominado energía oscura.

Teoría del Big BangEn 1948, el físico ruso nacionalizado estadounidense, George Gamow, predijo la existencia de un fenómeno más tarde bautizado como radiación de fondo de microondas cósmicas (CMB), restos de radiación producidos por el nacimiento del universo. Con ello planteó la teoría del Big Bang, que sostiene que el universo comenzó a existir bruscamente, hace unos 15.000 millones de años, en una gigantesca explosión siendo la expansión que actualmente observemos un vestigio de la explosión primordial. Técnicamente, dicha teoría se trata de una colección de soluciones de las ecuaciones de la relatividad general, llamados modelos de Friedmann - Robertson - Walker. En aquel instante, la materia estaba concentrada en un estado de densidad y temperatura infinitas, perdiendo el universo, desde entonces, densidad y temperatura.

Fue precisamente un ardiente defensor del modelo estacionario de universo, el astrofísico inglés Frío Hoyle quién, en 1950, caricaturizó el segundo modelo con la expresión Big Bang. Una expresión que ha prosperado para designar el mejor modelo actual sobre el origen y evolución del universo.

Modelo inflacionario de universoLa teoría del Big Bang mantiene una serie de dificultades que aún no han sido resueltas debido a la homogeneidad e isotropía del universo, como la semejanza en masa y energía de zonas del universo separadas por una distancia mayor a la que tardaría la luz en alcanzarlo y que se enfrentaría al concepto de causalidad física típico de la teoría de la relatividad.

La teoría del Big Bang predecía el origen del universo en un instante inicial.
El físico Alan H. Guth, a principios de los años 80, introdujo la hipótesis del universo inflacionario, una hipótesis que explica cómo fue el universo en los instantes inmediatamente posteriores a la explosión, según teorías de gravedad cuántica aplicadas en los agujeros negros.
Entre los mayores problemas no resueltos de la física se encuentra el estudio del instante 10-33 segundo inicial del universo…

La hipótesis inflacionista defiende que en los primeros instantes se produjo un rapidísimo crecimiento del universo; el ritmo de crecimiento posterior habría sido mucho más lento. La hipótesis distingue entre universo real y universo observable, siendo el observable, el nuestro, mucho más pequeño que el universo real.

Esta teoría se basa en observaciones rigurosas y es matemáticamente correcta desde un instante después de la explosión, pero no tiene una explicación para el momento cero del origen del Universo,llamado singularidad…

Descubriendo el Universo

Los astrónomos han podido descubrir gracias a las explosiones de las supernovas que la expansión del universo no ha sido constante desde que se produjo la gran explosión del Big Bang, acelerando cuando tenía la mitad de su edad actual. El Hubble ofreció la primera evidencia observacional de que la gravedad comenzó a frenar la expansión del Universo después de la Gran Explosión, y que solo después, la fuerza repulsiva causada por la energía oscura ganó terreno sobre el dominio de la gravedad.

Los astrónomos saben que el Universo se está expandiendo debido al "corrimiento al rojo" que se observa en la luz proveniente de las galaxias lejanas. Debido al efecto Doppler, las ondas de luz se comprimen cuando una fuente de luz se mueve hacia nosotros y se expanden cuando la fuente se aleja. Lo mismo sucede con las ondas de sonido; por eso el sonido de la sirena de un auto de policía se debilita conforme el auto te adelanta. La frecuencia de la luz, sin embargo, es equivalente a un cierto color y no a un tono musical. Las frecuencias más altas se ven azules y las frecuencias más bajas se ven rojas. Por eso, el "corrimiento al rojo" en la luz de las galaxias que nos rodean, significa que las galaxias se están alejando de nosotros. Y, ¿cómo pueden estar todas las galaxias alejándose de nosotros? Sólo si el Universo en sí mismo se está expandiendo, como se demuestra en el globo en la figura de abajo.

Supernovas

A estas explosiones estelares se las conoce como Supernovas dando lugar a destellos de luz que pueden durar desde varias semanas a varios meses y tan intensos como 50.000 millones de veces la del Sol, originadas por la explosión de una estrella de 150 masas solares. Si la estrella más cercana al Sol, Próxima Centauri, a cuatro años luz de distancia, explotara como supernova, su brillo sería comparable al del Sol. Incluso a mil años luz de distancia, una supernova brillaría más que la Luna llena. En muchos casos, la luz tardó más en llegar hasta nosotros que la estrella en vivir.
El porqué de su nombre se debe a que aparecían donde antes no se observaba nada, de ahí que se las llamase “Estella Nova” (1572). El prefijo super se introdujo para diferenciarlas de otro fenómeno de características similares, pero menos luminoso, las novas. La primera referencia que se tiene de una supernova fue en el año 185 China y posiblemente en Roma. Hoy se calcula que cada galaxia produce, en promedio, una supernova cada seis siglos.
Las Supernovas se clasifican de acuerdo a las líneas de absorción de diferentes elementos químicos que aparecen en sus espectros. Si el espectro de una supernova no contiene una línea de hidrógeno es clasificada como tipo I, de lo contrario se la clasifica como tipo II. Dentro del primer grupo, se encuentran las que carecen de helio (Ia) que son con diferencia las más potentes de todas pudiendo emitir un brillo varias veces superior al de la galaxia que las acoge.

Vida estelar

En este preciso momento el Sol transforma cada segundo 620 millones de toneladas de hidrógeno en 616 millones de toneladas de helio, transformando las cuatro toneladas de materia restantes en la energía que da lugar a la luz del Sol. El hidrógeno, el elemento más ligero de la naturaleza, es el combustible de las estrellas, siendo el helio su deshecho. La estrella vive la mayor parte de su existencia de esta forma. Sin embargo, con el tiempo, el hidrógeno se agota y la estrella debe utilizar otro combustible o dejar de brillar. Estrellas como el Sol, o mas grandes, logran generar en su centro temperaturas suficientes para utilizar el helio como combustible, generando carbono y oxígeno como deshecho.

Cuanto mayor es el tamaño de la estrella, mayor es la temperatura que se puede alcanzar en su interior, por lo que es mayor el número de transformaciones que puede hacer con su masa. A medida que se producen más reacciones nucleares, menos eficientes son los combustibles, por lo que extienden cada vez menos la vida del planeta. El hierro es el último elemento que se obtiene, por lo que implica el colapso de la estrella, contrayéndose a velocidades de hasta 70.000 kilómetros por segundo.
El núcleo de la estrella se vuelve tan denso que logra frenar abruptamente el colapso produciéndose un rebote que hace el núcleo de la estrella empuja el gas que está fuera de la zona central a velocidades superiores a 30.000 kilómetros por segundo. Al ser existir unas condiciones tan extremas, se producen nuevas reacciones nucleares que originan nuevos elementos más pesados que el hierro, como: el cobre, el níquel, el oro y los demás metales que existen en el Universo
Cuando las estrellas masivas ya no pueden fusionar más su agotado núcleo se contraen repentinamente debido a la presión de degeneración de los electrones, y generar, en el proceso, una fuerte emisión de energía. También existe otro proceso más violento aún, capaz de generar destellos incluso mucho más intensos. Suceden cuando una enana blanca compañera de otra estrella, aún activa, agrega suficiente masa de ésta como para superar el límite de Chandrasekhar y proceder a la fusión instantánea de todo su núcleo, lo cual genera una explosión termonuclear que expulsa casi todo, sino todo, el material que la formaba.
Los quásares o cuásares son fuentes de energía electromagnética. Hasta la fecha se conocen más de 100.000 quásares, y se cree que son núcleos activos de galaxias jóvenes. La luz producida por los quásares sería equivalente a la de un billón de soles, por ello, aunque se encuentran a grandes distancias pueden ser observados con telescopios pequeños.
Agujero blanco es el término propuesto para definir una entidad física cuya existencia no se ha contrastado aún, con una densidad tal que deforma el espacio pero que, a diferencia del agujero negro, deja escapar materia y energía en lugar de absorberla. En principio se ha supuesto que los agujeros blancos son una especie de “escapatoria" de los agujeros negros, estando ambos tipos de singularidades conectadas, probablemente, por un agujero de gusano.

Agujero de gusano, o puente de Einstein-Rosen, es un hipotético túnel cósmico o atajo a través del espacio-tiempo. El término agujero de gusano fue acuñado como analogía para explicar dicho fenómeno, en el que un gusano que quisiese llegar al otro extremo de una manzana atajaría atravesándola, en vez de rodearla por su superficie.
El hiperespacio es una forma de espacio que tiene cuatro (3 espaciales y una temporal) o más dimensiones. Según la Teoría de Supercuerdas existen 11 dimensiones.

Un blázar es una fuente de energía electromagnética (desde los rayos gamma a las ondas de radio) muy compacta y altamente variable situada en el centro de una galaxia, siendo uno de los fenómenos más violentos del Universo. Los blázares son miembros de un grupo más grande de galaxias activas, denominados Núcleos Activos Galácticos (AGN), donde se incluyen los quásares variables ópticamente violentos, los quásares altamente polarizados y los objetos BL Lacertae.

Un agujero negro supermasivo es un agujero negro con una masa del orden de millones o miles de millones de masas solares cuya densidad media puede ser muy baja, incluso menor que la densidad del agua. Se cree que Sagitario A* es el agujero negro supermasivo central de la Vía Láctea.
Las nebulosas son regiones del medio interestelar constituidas por gases (principalmente hidrógeno y helio) y polvo, donde nacen las estrellas por fenómenos de condensación y agregación de la materia. A su vez, se trata de los restos de estrellas que han muerto, tras increíbles explosiones estelares tan intensos como 50.000 millones de veces la del Sol.

Una lente gravitacional se forma cuando la luz, o cualquier otro tipo de radiación electromagnética, procedente de objetos distantes como quasares se curva alrededor de un objeto masivo (como una galaxia masiva) situado entre el objeto emisor y el receptor. Las lentes gravitacionales pueden utilizarse como en un telescopio, amplificando la radiación recibida, y han sido empleadas para detectar la galaxia más lejana conocida o de planetas extrasolares. También permite calcular la masa del sistema que hace de lente, siendo capaz también de rastrear la materia oscura.

Una galaxia activa es aquella cuya fracción significativa de la radiación electromagnética que emite no es debida a las componentes "normales" de una galaxia (estrellas, polvo y gas interestelar). Según el Modelo Unificado, la energía se genera por materia (gas y polvo) que cae a un agujero negro supermasivo, de entre 106 y 107 masas solares. El material, al caer, forma un disco de acreción que por la fricción se calienta, transformándose en plasma, convirtiendo así hasta un 10% de la masa en energía, a diferencia del 0,7% obtenido en procesos de fusión nuclear.

Curisidades:


Una estrella de neutrones es un remanente estelar dejado por una estrella supergigante después de agotar el combustible nuclear en su núcleo y explosionar como una supernova tipo II, Tipo IB o Tipo IC. Este tipo de estrellas está compuesto de: neutrones; hierro, en su corteza sólida; protones, electrones, piones y kaones, en su interior.

Una enana blanca es un remanente estelar que se genera cuando una estrella de masa menor a 9-10 masas solares ha agotado su combustible nuclear. De hecho, se trata de una etapa de la evolución estelar que atravesará el 97% de las estrellas que conocemos, incluido el Sol. Las enanas blancas son, junto a las enanas rojas, las estrellas más abundantes en el universo.

Las enanas rojas son estrellas de muy baja masa, inferior al 40% de la masa del Sol. Su color rojizo se debe a su relativamente baja temperatura interior, ya que genera energía a un ritmo lento, mediante la fusión nuclear de hidrógeno en helio. Su reducida luminosidad, que en algunos casos apenas alcanza 1/10.000 de la luminosidad solar, hace que la enana roja más grande tenga sólo un 10% de la luminosidad del Sol.

La síntesis de ribosomas artificiales nos acerca aún más hacia un segundo génesis en la Tierra, esta vez de la mano del hombre.

Investigadores de la Universidad de Harvard han conseguido dar un paso más en el objetivo de obtener vida artificial consiguiendo crear ribosomas, que son los lugares donde la información genética es leída y las proteínas creadas a partir de esa información. Se esperan avances en el conocimiento de la Biología fundamental y avances industriales a partir de este hallazgo.



George Church, de la Harvard Medical School, informó recientemente en un simposium sobre la obtención de miles de millones de ribosomas sintéticos funcionales que además fueron capaces de sintetizar luciferasa.Aunque todavía no se ha creado vida artificial y ésta no es la meta fundamental de este grupo de investigadores, Church dijo que este logro es un importante paso adelante en esa dirección.



Los ribosomas son los orgánulos celulares que a partir de la información genética que les llega del ADN (no lee directamente el ADN sino el ARN que porta esa información) construyen la proteína específica de cada gen. Las proteínas son fundamentales a la hora de formar las estructuras celulares, además de desempeñar labores enzimáticas, permitiendo así la síntesis de otras biomoléculas y el control del metabolismo.



Los ribosomas son una de las maquinarias celulares más complejas y no han sufrido muchos cambios desde el momento de su aparición en la evolución biológica.Sin síntesis de proteínas la vida no es posible, por eso este hallazgo representa una pieza clave en la recreación de vida artificial.Estos investigadores extrajeron los ribosomas naturales de la bacteria E coli y los dividieron en sus partes constituyentes. Eliminaron el ARN ribosómico y entonces sintetizaron nuevo ARN a partir de sus constituyentes fundamentales.Según Church a pesar de que el descubrimiento ha creado excitación entre los investigadores que trabajan en Biología Básica, son las posibles aplicaciones industriales las que están empujando este campo.



En la industria de fabricación de proteínas se usan ribosomas naturales que evolucionaron de forma natural durante millones de años en las levaduras con fines biológicos, pero no industriales. La idea es recrear ribosomas sintéticos alterados que encajen mejor con las necesidades de la industria. De esta manera se tendrá un mejor control sobre estos procesos.El avance acaba con un periodo de 40 años en el cual se ha progresado muy poco en la creación de ribosomas artificiales.



El último avance significativo se realizó en 1968 cuando unos investigadores ensamblaron ribosomas, pero en un ambiente químico inusual para la síntesis de proteínas (lo que les hacía inútiles).Estos científicos creían que crear ribosomas artificiales y producir proteínas era probablemente el paso más difícil en la creación de vida sintética. Se sorprendieron muchísimo al descubrir que lo pudieron hacer en sólo un año.



La meta última es la creación de un genoma artificial de unos 150 genes que sea el mínimo capaz de mantener las funciones de mantenimiento y reproducción celulares. Aunque todavía queda un tiempo para esto.En el simposium participaron otros investigadores del ramo como Jack Szostak, también de la Harvard Medical School, que presentó su más reciente investigación en la creación y propagación de células sintéticas, mostrando como formar espontáneamente membranas “celulares” a partir a partir de lípidos (grasas) bajo ciertas condiciones.



Además aportó pistas sobre cómo la información genética básica podría haber sido almacenada originalmente y expresada en forma de moléculas de ARN. Actualmente explora las propiedades de moléculas similares al ARN en busca de variaciones que las haga buenas candidatas para almacenar y replicar información genética sin necesidad de la compleja maquinaria que necesitan el ADN y ARN actuales.Craig Venter, que también participó en la reunión, describió su trabajo en busca de genes alrededor del mundo, mencionando los ambientes extremos en los que son capaces de vivir algunos microorganismos.



Una base de datos, en crecimiento, y que actualmente contiene 50.000 familias de genes, permite a la industria escoger aquellos genes que les puedan ser útiles para su aplicación. Según Venter usando ingeniería genética se podrán crear genomas sintéticos que permitan obtener cosas útiles como combustibles limpios. “Creo que estamos limitados principalmente por nuestra imaginación”, añadió.
En un esfuerzo más de denuncia sobre el desastre ecológico y medioambiental hacia el que nos dirigimos, NeoFronteras hace un resumen de una pequeña parte de la investigación realizada sobre este asunto en las últimas semanas. Esta información se suma a otros resultados ya cubiertos por esta web y por la prensa tradicional. Conviene que se lo imprima si se cansa de leer en la pantalla, pero no lo ignore.
Casi todos los estudios que se mencionan aquí hacen referencia a artículos publicados en revistas con revisores de primera línea, como Nature, Science, PNAS, etc. Aunque en general estas referencias directas no se han anexado, el que esté interesado puede llegar a ellas a través de las noticias y notas de prensa originales a las que sí apuntan los enlaces aportados.

Ya sabemos a qué se debe el cambio climático. Principalmente a las emisiones antropogénicas de gases de efecto invernadero. El principal culpable es el dióxido de carbono que emitimos al quemar combustibles fósiles como el carbón y los derivados del petróleo.Parte del dióxido de carbono que generamos es absorbido por el océano, otra parte va al suelo y otra es fijada por las plantas. El exceso que estos sumideros no pueden absorber simplemente se va acumulando en la atmósfera y con ello se aumenta el efecto invernadero, subiendo las temperaturas a lo largo del globo.

Una mala noticia en cuanto a la vigilancia del aumento del dióxido de carbono fue el fracaso en el lanzamiento de la misión espacial de la NASA Orbiting Carbon Observatory, que fue lanzada con un cohete Taurus XL. Iba a medir los niveles de este gas con una precisión suficiente como para mostrar la distribución geográfica de sus fuentes y sumideros a escala regional, así como su influencia sobre el clima. Mejoraría además la comprensión del ciclo del carbono.Lamentablemente no es la primera misión de vigilancia del cambio climático que falla. La utilización de cohetes baratos y poco fiables parece estar detrás de estos fracasos.

Política informativa

Un grupo de investigadores alemanes se ha molestado en desmontar los argumentos de los negacionistas que dicen no creer en el cambio climático o que éste esté provocado por el ser humano.
Han realizado un estudio estadístico para demostrar que el aumento de la temperatura observada últimamente no se debe a una fluctuación estadística. Según ellos, el hecho de que los 13 años más cálidos desde 1880 se hayan dado recientemente tiene una probabilidad de 1 entre 10.000 de que se deba a un accidente.
Pero no es necesario convencer a los científicos de la realidad del cambio climático. Desde la Universidad de Illinois en Chicago se ha hecho una encuesta online para saber la posición frente al cambio climático de más de 3000 científicos relacionados con ciencias de la Tierra. Esta materia del cambio climático es al parecer opinable por parte de políticos, líderes de opinión, medios de comunicación y empresas.
En el mundo científico no hay tal posición, sino simplemente un acuerdo sobre la realidad del cambio y sus causas.
Según la encuesta el 97% de ellos dijo que el ser humano juega un importante papel en el cambio climático.Entre los que niegan o reducen el impacto humano en este asunto están los geólogos del petróleo por obvias razones (muy interesadas) y los meteorólogos.
Al parecer éstos últimos no han llegado a comprender que el tiempo atmosférico es distinto al clima y piensan a corto plazo. Al estar acostumbrados a unas predicciones meteorológicas fiables a sólo unos pocos días como máximo no creen que se pueda predecir el clima terrestre a largo plazo.Sin embargo, entre los climatólogos el acuerdo es total.

Ya veremos lo que dice el próximo informe del IPCC, pero parece que el de 2007 ha perdido la batalla de llegar al público. Un estudio psicológico apunta a que la mayoría de la gente no entiende lo que hay escrito en él.Además, un informe de la Universidad de Stanford denuncia la mala cobertura que sobre el cambio climático hacen los medios de comunicación tradicionales y en parte los científicos del ramo.Según Stephen Schneider, la ciencia no es política. Un periodista o medio de comunicación no debe de escoger siempre dos puntos de vistas opuestos para compensar opiniones en un tema científico.
Con esa política da la impresión de que hay un desacuerdo en la comunidad científica sobre el cambio climático que realmente no existe.Además se cubre en los informativos mucho más los acontecimientos deportivos u otras cosas sin importancia que los resultados alarmantes sobre el cambio climático. Según Schneider a veces es casi imposible ni conseguir 5 segundos en el telediario de la noche (refiriéndose a EEUU).Añade que los científicos, por su parte, deben de explicarse con metáforas y lenguaje de la calle para que así el mensaje llegue a la gente y respaldar esto con información más profunda en páginas web y otros sistemas para el que que quiera ampliar el tema.

En resumidas cuentas, el debate sobre el cambio climático simplemente no existe en la comunidad científica. El problema se centra en trasmitir la información que se posee al público. Algo que no se ve facilitado por unos medios de comunicación desinteresados o que dan tanto tiempo o menos a toda una comunidad de científicos serios como a seres egoístas en busca de notoriedad o intereses económico. Seguro que si se buscaran se encontrarían a alguien que negara la fuerza de gravedad.

Calentamiento

Pese a todo, más y más estudios apuntan a un calentamiento global generalizado. Hasta ahora se creía que aunque el resto del globo se estaba calentando gran parte de la Antártida se estaba enfriando.
Un nuevo estudio realizado por científicos de la Universidad de Washington muestra que en los último 50 años gran parte de este continente se ha estado calentando a un ritmo comparable al del resto del mundo. Al parecer los cálculos realizados con anterioridad estaban mal hechos y no se beneficiaban de los datos de satélite, que proporcionan una información crucial al respecto, con patrones de distribución espacial muy buenos.
Además los autores hacen notar que la climatología del continente antártico es más complicada de lo que se creía.Sobre el lado opuesto del mundo se ha hecho un amplio estudio que demuestra (según sus autores por primera vez) la omnipresente naturaleza de amplificación climática del Ártico.Allí las temperaturas están aumentando a un ritmo superior a cualquier otro lugar del hemisferio Norte y es de esperar que esta tendencia continúe en el futuro. Como resultado se producirá una mayor fusión de los glaciares, un retroceso de los hielos flotantes y una mayor erosión de las costas según el nivel del mar ascienda.
La retroalimentación del calentamiento global en esta región del globo alarma a los expertos y a algunos les hace sospechar que estamos muy cerca, si no lo hemos sobrepasado ya, algún punto de no retorno.Uno de los científicos del IPCC ya advierte que el cambio climático puede ser mucho más devastador de lo pensado.
El gran problema que se nos puede venir encima es la fusión del permafrost de la tundra y la consiguiente liberación masiva de gases de efecto invernadero.Sobre cuánto tiempo durará el cambio climático inducido por el ser humano, un estudio dice que unos mil años si dejamos de emitir todo el dióxido de carbono que emitimos.
Pero si seguimos emitiendo a este ritmo unos científicos de la Universidad de East Anglia y de la Universidad de Liverpool predicen con un modelo computacional que el calentamiento global provocado podría multiplicarse por 5 a largo plazo una vez se altere lo suficiente el delicado equilibrio entre la atmósfera y los océanos.

Consecuencias físicas

Una consecuencia obvia del aumento de temperatura es la fusión de los hielos y la elevación del nivel del mar.Un estudio muestra, una vez más, la progresiva desaparición de los hielos árticos.
Este estudio forma parte de los muchos realizados para la celebración del año Polar Internacional y se basa en una extensa toma de datos a lo largo de todas las regiones limítrofes con el Ártico.Aquellos que califican las predicciones del Grupo Intergubernamental para el Cambio climático de las Naciones Unidas de catastrofistas deberían de leer el estudio realizado por varias instituciones europeas.
Según el IPCC, a lo largo de este siglo las temperaturas subirán entre 2 y 4 grados centígrados, se derretirán masa de hielo de Groenlandia y la Antártida, y se produciría la consiguiente subida del nivel del mar (en parte debida a la propia dilatación del agua). El modelo del IPCC hacía una predicción de una subida en casi medio metro a finales de siglo para tres grados. Estos otros investigadores pronostican en su lugar más de un metro de subida bajo las mismas condiciones y calculan las regiones europeas que se verán inundadas.Al otro lado del Atlántico la cosa no se presenta mejor.
Ciudades como Nueva York, la costa Este de EEUU y Florida sufrirán graves consecuencias debidas a la subida del nivel mar, incluso asumiendo que éste suba menos de medio metro, sobre todo si hay huracanes. Un estudio de la Universidad de Florida así lo dice.Para los que quieran ver cómo sucederá todo esto pueden ver vídeos sobre predicciones en el aumento del nivel del mar en ciertas áreas.Hay científicos, como unos en la Universidad de Toronto, que van más allá.
Predicen el colapso de la capa de hielo oeste de la Antártica y su posterior fusión. Esto produciría un aumento del nivel del mar a escala mundial de 5 a 7 metros según el lugar. El problema es que esta capa de hielo se asienta sobre roca, pero está por debajo del nivel del mar. El efecto de un evento así sería simple y llanamente un catástrofe incalculable.
Pero la subida de los niveles del mar no es la única consecuencia que ya está sucediendo.
El dióxido de carbono y el exceso de efecto invernadero que genera tienen más consecuencias.Los esfuerzos de reducción de gases fluroclorocarbonados para disminuir la destrucción de la capa de ozono se ven compensados negativamente por el cambio climático. Un estudio de la Universidad de Johns Hopkins así lo señala.Al parecer el cambio climático está produciendo cambios en las corrientes atmosféricas que finalmente derivan en una mayor destrucción del ozono.Según los autores nunca se retornará a los niveles de ozonos previos a 1960 y las consecuencias las pagarán los habitantes de Nueva Zelanda, Australia, Chile y Argentina, que padecerán una mayor incidencia del cáncer de piel.

Ya vimos que parte del CO2 emitido se disuelve en el océano. Pero la capacidad de los océanos de absorber el dióxido de carbono se está reduciendo y alcanzando el punto de saturación, al menos en ciertas partes, según un estudio .
Calculan que en menos de diez años el océano no podrá seguir representando el sumidero de dióxido de carbono que es en la actualidad. Mientras tanto este gas sigue acidificando el agua de los mares.De acuerdo a la declaración hecha en Mónaco el pasado 30 de enero y subscrita por 155 expertos en el tema, es urgente una acción que limite los daños en los ecosistemas marinos debido al aumento de la acidez provocada por las emisiones de dióxido de carbono humanas.A este ritmo los corales desaparecerán, con toda la fauna que depende de ellos, hacia el año 2050.
Esta predicción está basada en la Química elemental y en la biología de estos seres.Casi todas las medidas (poco más o menos que de ciencia ficción) encaminadas a reducir la radiación luminosa que incide sobre la superficie terrestre y así disminuir la temperatura no aliviaría en absolutamente ningún grado este problema.
Pero la acidificación no es el único problema de los océanos. Un estudio de la universidad de Copenaghe denuncia un posible aumento dramático de las áreas oceánicas muertas por carencia de oxígeno. La razón, además de la contaminación del agua por fertilizantes artificiales, se debería al cambio climático, que cambiaría la circulación oceánica y agrandaría todas estas zonas.
La práctica ausencia de oxígeno en esas aguas elimina las especies animales que allí vivían.Se cree que una situación de este tipo derivó en la gran extinción del Pérmico que eliminó hace 250 millones de años al 90% de las especies marinas.

Efecto sobre los seres vivos

Aunque el ser humano parece no querer enterarse del cambio climático los seres que comparten el planeta con él sí lo han hecho.
Un estudio del U.S. Geological Survey pone de relieve que cambios sutiles en el medio ambiente pueden dar lugar a cambios abruptos en la respuesta de los ecosistemas.
Entre las posibles respuestas (algunas de las cuales ya estamos padeciendo) están las plagas de insectos, incendios forestales (recuérdese lo que pasó en Australia hace poco) y retrocesos de bosques, que pueden afectar negativamente tanto a las personas como a las plantas y animales silvestres.
Tratan de averiguar cuál es el umbral de cambio más allá del cual se producen estas respuestas y las medidas que hay que tomar para mitigarlos.En un mundo en calentamiento las actividades humanas, como simplemente el uso del agua, pueden derivar en cambios ecológicos que sean difíciles o imposibles de revertir.

Algunos seres incluso intentan sobrevivir emigrado o simplemente se rinden y ya están despareciendo.Si el cambio climático continúa afectando a la Antártida nuestros hijos enseñaran a nuestros nietos el pingüino emperador de la única posible y misma manera que a nosotros nos enseñaron el pájaro dodo o los dinosaurios: en los libros de texto.
Al menos eso es lo que se desprende de un informe del Woods Hole Oceanographic Institution. Calculan que hay una probabilidad estimada entre un 40% y un 80% de que se produzca un declive drástico de estos pingüinos. Evento que los colocaría al borde de la extinción.No es el único problema de la zona.
Según un estudio basado en datos precisos de satélite el cambio climático en la Península Antártica está afectando no sólo a los pingüinos sino a toda la cadena alimenticia e incluso a la vida microscópica del lugar.

Los árboles de zonas templadas empiezan a notar el cambio climático. Según indica un trabajo de U.S. Geological Survey y de la Universidad de Colorado la muerte de árboles en bosques primarios del oeste de EEUU se ha doblado en años recientes por culpa del calentamiento global y de la sequía asociada a él. Los autores especulan que esta muerte prematura de árboles lleve a cambios ecológicos sustanciales en el Oeste Norteamericano y que se reduzca la capacidad de almacenamiento de dióxido de carbono, tanto en los propios árboles como en el suelo en el que viven.

Los anfibios, que sobrevivieron a la gran extinción masiva del Cretácico que se llevó por delante a los dinosaurios y otros muchos seres, quizás no sobrevivan a nuestra estupidez. Además de que se están viendo afectados por el cambio climático y muchas especies de ranas ya se están extinguiendo, nuestro insaciable apetito está liquidando las restantes.Según un estudio de la Universidad de Adelaida el comercio mundial de ancas de rana está llevando a la extinción a muchas especies.
Su consumo se ha incrementado en los últimos 20 años y puede que ya sean consumidas 1000 millones de ranas en todo el mundo anualmente.En lugar de criarlas en cautividad estas ranas son simplemente recolectadas en sus ambientes naturales, principalmente en Indonesia, y vendidas en el mercado local o exportadas a los mercados asiáticos y europeos.Pero las ranas no son los únicos seres en peligro.
Según expertos de la Universidad de Washington los lagartos tropicales ya empiezan a pasarlo mal. Esto se debe a que el margen de temperaturas en el que pueden vivir es más estrecho que para lagartos de otras latitudes y no siempre pueden emigrar a lugares más fríos.
En concreto el intervalo de temperatura en el cual pueden sobrevivir es en promedio la mitad que el de los lagartos de regiones templadas.Al no ser animales de “sangre caliente” los lagartos no pueden mantener una temperatura interior constante y dependen de la temperatura del medio ambiente para no morirse de frío o calor.

Otros seres intentan evitar desaparecer por culpa del calentamiento global emigrando a zonas más frías. Esto es un ejemplo más del efecto que éste tiene sobre la diversidad.Se puede mencionar al respecto estudios como el de la Universidad de York . En 1965 se envió una expedición al Monte Kinabalu en Borneo para hacer un estudio ecológico y de biodiversidad en la zona.
Lo han repetido 42 años más tarde encontrando que, en promedio, las especies se han movido 67 metros más arriba, supuestamente para compensar el aumento de la temperatura (cada cien metros de subida se produce un descenso de la temperatura de unos 0.65 grados centígrados en promedio) .Por otro lado las aves también notan el aumento de temperaturas.
Un análisis de los datos tomados sobre las aves de EEUU durante 40 años por aficionados, y recopilados por la sociedad Audubon , revela que el 58% de las 305 especies de aves estudiadas han movido su hábitat más hacia el norte. Esta “emigración” afecta a aves de todos los tipos, desde las que viven en el bosque a las que viven en las praderas.

No solamente van a verse afectados los animales salvajes de lugares lejanos. El ser humano puede sufrir pandemias ligadas al cambio climático. Un estudio muestra que los patrones de distribución de la malaria se verán afectados debido al calentamiento global. Un clima más favorable a los mosquitos que transmiten la enfermedad hará que ésta aparezca en lugares en los que se creía erradicada.
Los inviernos fríos acaban con éstos, pero la aparición de inviernos más suaves les permitirá sobrevivir. Prevén que la enfermedad reaparezca en Europa y EEUU.

Y al que no le importe el medio ambiente y sí su propia hombría le convendría leer lo que se dice en un informe de la Universidad de Exeter sobre contaminación. Según se dice en él los problemas de fertilidad de los varones estarían ligados a la contaminación de las aguas.En los ríos del RU estos científicos han encontrado productos químicos bloqueadores de la testosterona que afectan tanto al ser humano como a la fauna salvaje.
Estos compuestos químicos inhiben la función de hormonas como la testosterona, reduciendo la fertilidad de los machos. Esto explicaría la feminización de los peces machos que se produce allí.También han encontrado toda clase de medicamentos, productos farmacéuticos (incluso los usados en quimioterapia contra el cáncer) y pesticidas agrícolas que formarían un cóctel de imprevisibles efectos. No hace falta mencionar que la presencia de esas sustancias de debe a las actividades humanas.

¿Soluciones?

Los únicos sumideros de dióxido de carbono que parece funcionar bien, cuando se les deja, son las selvas tropicales . Al parecer absorben un quinto de todas las emisiones. Las selvas que todavía quedan se tragan 4800 millones de toneladas de este gas cada año. Los autores dicen que los países contaminantes deberían de transferir recursos para que los países en vías de desarrollo conserven sus bosques tropicales.
Pero según unos cálculos la capacidad de absorber dióxido de carbono, incluso manteniendo los actuales bosques tropicales, no es ilimitada. Estos no pueden absorber todo el CO2 que arrojemos a la atmósfera.Por ejemplo, la selva del Amazonas ve comprometida su labor de fijar carbono debido a las sequías como la de 2005 (probablemente provocada por el propio cambio climático).
El impacto de esa sequía significo la presencia de 5000 millones de toneladas más de dióxido de carbono en la atmósfera, las 2000 millones que no se absorbieron y las 3000 millones que se emitieron directamente por culpa de la misma. Lo malo es que el cambio climático producirá más sequías de este tipo en el futuro.
Pero ni siquiera estamos manteniendo las selvas, de hecho cada día las destruimos a un ritmo alarmantemente mayor. Por tanto, la capacidad de absorber dióxido de carbono es reducida por la destrucción sistemática de esta misma selva tropical. Así por ejemplo, el ritmo de destrucción de la selva en Sumatra y Borneo es de un 2% anual (muy alto), principalmente debido a la actividad humana .

Una de las soluciones artificiales que se propone para disminuir el calentamiento global (pero no la acidificación de las aguas) es la de aumentar el albedo de la Tierra. Esto es, aumentar la reflectividad del planeta (incluso con pintorescas medidas como pintar los tejados de blanco).
Un estudio sugiere que si se eligen adecuadamente las variedades de cultivos adecuadas, tanto Europa como Norteamérica podrían reducir su temperatura en un grado centígrado durante la época de crecimiento de las plantas.
Esto sería equivalente a un enfriamiento global de 0,1 grados, un 20% del total del aumento de la temperatura desde la Revolución Industrial.La idea consiste en que, a diferencia de los cultivos tradicionales o el suelo, las hojas de estas plantas reflejen al espacio más luz solar, tanto por sus cualidades ópticas como por su disposición espacial.
Otra idea loca que se propuso es la de introducir algún agente que bloquee la luz solar en la atmósfera. Ahora descubren que esto limitaría el rendimiento de energías alternativas como la solar. Por supuesto esto tampoco solucionaría la acidificación de las aguas.

Pero a título individual podemos hacer algo. Además de ahorrar energía podemos cambiar nuestra dieta.Se puede calcular el impacto de comer carne por el ser humano en términos de emisiones de gases de efecto invernadero. Según un artículo de Scientific American la producción de por ejemplo carne de ternera para hamburguesas produce, kilo por kilo, 13 veces más gases de efecto invernadero (en equivalencia CO2) que la carne de pollo.
Según la FAO la producción mundial de carne representa entre un 14% a un 22% de las emisiones totales anuales de gases de efecto invernadero.Si comparamos la producción de carne de ternera con la producción de espárragos, la primera emite 36 veces más gases de efecto invernadero que la segunda.Para la producción de un kilo de carne de ternera se emite un equivalente de 14,8 kilos de dióxido de carbono frente a los 3,8 del kilo de la carne de cerdo y al 1,1 de la carne de pollo.
Las emisiones se deberían al metano y al dióxido de carbono emitidos por los animales, así como a los combustibles fósiles gastados en cultivos para su alimentación, la producción de piensos y en la manufactura y transporte del producto.En cuanto al transporte parece que está poco claro que cambiar nuestro viejo automóvil por uno moderno que emita menos dióxido de carbono sea siempre una política adecuada.
La fabricación de uno nuevo consume tanta energía y emiten tantos gases de efecto invernadero que puede ser conveniente simplemente mantener en buenas condiciones el motor de nuestro viejo coche. Todo dependerá de lo viejo que sea el auto antiguo, de lo que consuma y de los kilómetros que hagamos con él.

Desarrollan un supercondensador nanoestructurado que es capaz de almacenar 10 veces más carga que los condensadores comerciales.

Tanto si queremos usar un automóvil eléctrico o tener autosuficiencia energética gracias a la energía solar recolectada por los paneles solares, sobre todo en un mundo cada vez más incierto, necesitamos almacenar energía eléctrica. Tanto para un caso u otro se necesitan diferentes requerimientos. Para un auto la velocidad de carga es importante, para una casa no. En ambos la capacidad de almacenar carga al menor coste y volumen es importante, pero el menor peso es importante para el primer caso y no tanto para el segundo. La potencia es importante si queremos que nuestro coche acelere rápidamente al incorporarse a una autopista o al adelantar en una carretera secundaria, pero en el segundo caso la potencia es importarte sólo si queremos usar la plancha o el horno eléctrico.Hay toda una carrera científico-tecnológica para desarrollar nuevos sistema de almacenamiento de electricidad. Ya hemos cubierto en NeoFronteras varias tecnologías de este tipo. Fundamentalmente hay dos sistemas: baterías y condensadores. En las baterías se almacena la carga eléctrica usando un sistema químico. Como inconvenientes se puede decir que son lentas de cargar y que sólo se pueden recargar un número limitado de veces.Un condensador almacena la carga de manera “viva”, sin mediación de sistema químico alguno, haciendo emigran electrones de un conductor a otro que están separados por un aislante. Esto es, la energía se almacena en forma de electricidad estática. Un condensador puede suministrar una potencia alta, al ser capaz de proporcionar energía de manera instantánea, por eso se usan en los flashes fotográficos (y por eso no es una buena idea abrir uno y exponerse a una descarga instantánea del condensador). Además, un condensador se puede cargar y descargar un número ilimitado de veces. Pero al tener una capacidad limitada no puede almacenar mucha carga en él, y ésta se pierde con el tiempo.Y aquí estamos en una disyuntiva. Podemos diseñar un perezoso auto eléctrico a baterías que tarde en cargarse horas y cuyas carísimas baterías tengamos de reemplazar al cabo de un tiempo o uno potente de carga rápida sin mantenimiento que haya que cargar cada pocos kilómetros.En ayuda de la segunda opción acaba de publicarse un artículo con un resultado prometedor en supercondensadores escrito por un grupo de investigadores de University of Maryland . Según aseguran su nuevo sistema de supercondensador es 10 veces más eficiente que los sistemas comerciales.Si se consiguiera un sistema de almacenamiento realmente barato y eficiente sería incluso planteable el almacenamiento de energía de origen renovable como la solar y eólica, que son fuentes de energía bastante intermitentes y cuyo suministro varía de manera imprevisible, algo que ni las baterías actuales ni los condensadores son capaces de hacer hoy en día.Gary Rubloff y Sang Bok Lee han desarrollado un método que mejora el almacenamiento de carga en condensadores gracias al uso de nanotecnología. Consiguen crear millones de nanoestructuras idénticas diseñadas para transportar electrones de manera rápida desde las grandes superficies donde son almacenadas. Usan técnicas de autoensamblado, reacciones autolimitadas y autoalineamiento para conseguirlo. Al final se obtienen millones o miles de millones de nanoestructuras idénticas que reciben, almacenan y liberan carga eléctrica, y por tanto energía.La idea es almacenar energía eléctrica de tal modo que se tenga simultáneamente alta potencia y alta densidad energética para así tener un método de almacenamiento que proporcione potencia y que a la vez se cargue rápidamente.Un condensador almacena carga eléctrica de manera electrostática. El más sencillo condensador que se nos puede ocurrir consiste en dos placas metálicas separadas por un dieléctrico (aislante eléctrico). Para almacenar carga podemos llevar electrones de una placa a la otra de tal modo que haya un exceso de carga positiva (ausencia de electrones) en una placa y un exceso de carga negativa en la otra (exceso de electrones). Si entonces cortocircuitamos las dos placas con un cable los electrones pasan de un lado al otro (generándose una corriente) hasta llegar a una situación de equilibrio en la que ambas placas tienen carga neutra. Pero para conseguir mucha carga se necesita mucha superficie. Por eso el condensador de su flash tiene dos láminas metálicas flexibles separadas por un dieléctrico y enrolladas formando un cilindro compacto.Pero esta manera de conseguir mucha superficie no es la única, o más bien no es suficiente. Se puede imaginar una estructura plegada sobre sí misma a la manera de las circunvalaciones cerebrales. Cuanto más pequeña sea la estructura más área tendremos para un volumen dado, de tal modo que con pliegues a escala nanométrica el área puede llegar a ser inmensa. Esto es justo lo que han hecho estos investigadores. El resultado obtenido almacena 10 veces más carga que los dispositivos comerciales sin sacrificar la alta potencia.Lee y Rubloff están desarrollando ya la tecnología que permita fabricar estos condensadores de manera industrial masivamente a baja costo. Incluso creen que se podría integrar la producción de células solares y condensadores para producirlos a la vez en un sólo dispositivo. Se espera que este sistema experimente un desarrollo similar al de las baterías de litio próximamente.

lunes, 9 de marzo de 2009

La Gran Robustez de las Mandíbulas de los Primeros Humanos

La recomendación que los adultos dan a los niños pequeños de no usar los dientes como herramienta para abrir algo duro, es acertada y sensata. Los cráneos humanos tienen mandíbulas y dientes pequeños que no están bien preparados para morder con fuerza objetos duros. Sin embargo, no sucedía así con nuestros primeros ancestros, como muestra una nueva investigación, la cual revela la espectacular capacidad para romper a mordiscos cáscaras muy duras de frutos secos que poseían nuestros ancestros dos millones y medio de años atrás. Esta capacidad les permitía alterar su dieta para adaptarse a los cambios en las fuentes de alimentos de su entorno.


Mark Spencer y Caitlin Schrein, ambos de la Universidad del Estado de Arizona, son parte del equipo internacional de investigadores que planificó y llevó a cabo el estudio sobre la biomecánica de la alimentación y la ecología dietética de los Australopithecus africanus.

Utilizando modelos informáticos vanguardistas y tecnología de simulación igualmente avanzada (del mismo tipo que la usada por los ingenieros para simular como un automóvil reacciona ante las fuerzas de la colisión), los científicos construyeron un modelo virtual del cráneo del A. africanus y pudieron ver cómo funcionaban las mandíbulas y qué fuerzas eran capaces de ejercer.

Los resultados dejan claro cómo las mandíbulas estaban diseñadas para resistir las pesadas cargas estructurales inherentes a la acción de resquebrajar las cáscaras duras.

Lo comprobado por este nuevo estudio se suma así al conjunto creciente de evidencias y conclusiones que indican que las especializaciones faciales de los primeros humanos son adaptaciones vinculadas a la capacidad de adoptar ciertas dietas específicas.

El agrandamiento de los premolares, el robusto esmalte dental y las evidencias ahora obtenidas de la gran fuerza que ciertas mandíbulas eran capaces de ejercer, hace pensar que el tamaño de los objetos fracturables a mordiscos era mayor que el de los pequeños frutos secos y semillas aceptados exclusivamente hasta ahora por muchos científicos.

Recurrir a frutos secos y semillas duras a modo de alimentos para casos de emergencia fue una estrategia importante para sobrevivir durante un periodo de cambios climáticos y escasez de alimentos de fácil acceso.

La nueva investigación muestra que los primeros ancestros humanos, que todavía no habían aprendido a fabricar herramientas de piedra, resolvían con sus mandíbulas problemas de acceso a alimentos que los humanos de la Edad de Piedra resolverían con herramientas.

miércoles, 4 de marzo de 2009

La vacuna paraliza la vida de dos familias.

Las niñas que recibieron un medicamento contra el papiloma llevan ya un mes hospitalizadas. Los profesionales no logran averiguar la patología que está causando las crisis convulsivas.


Los padres de Carla y de Raquel no quieren hablar. Sus rostros lo dicen todo. En su cara se lee preocupación e incertidumbre. También la constante esperanza de que llegue la solución para sus hijas, las dos niñas que tras vacunarse contra el virus del papiloma humano ingresaron en el Hospital Clínico de Valencia hace un mes.


Desde que las menores ingresaron la vida de sus familias ha cambiado, prácticamente se ha trasladado a la sala de espera o a la habitación del hospital. El deseo y la necesidad de estar cerca de las pequeñas ha llevado a sus padres a dejar de lado su trabajo.

En una sala de espera estaba ayer, cerca del mediodía, Alicia, la madre de Raquel. Su mirada desvelaba la preocupación. "A la una y media saldrán los médicos y nos dirán algo". Sólo pronunció estas palabras. Estaba triste. En ese momento su hija, de 14 años, seguía en la UCI, unidad en la que desde el 4 de febrero ha ingresado en cuatro ocasiones. Mientras, Carla, de 15 años, estaba en planta tras haber superado su tercera estancia en Cuidados Intensivos.

Minutos después junto a Alicia se encontraba Juan, su marido. Él pasa todas las noches en el centro sanitario. Junto a la silla donde estaba sentado había unas mantas dobladas. Se ha calzado cómodas deportivas. La jornada es larga. Se levanta y, con gran amabilidad, insiste en que no quieren hacer declaraciones. No se cansa de señalar que su única preocupación es su hija.

La semejante situación de las niñas ha unido a las dos familias. Tanto es así que acordaron nombrar un portavoz, Vicente Herreras, tío de Raquel. "No han vuelto a tener convulsiones. Carla está en una habitación y Raquel sigue en la UCI evolucionando bien. Probablemente saldrá mañana -por hoy-".

Con estas palabras explicó Herreras el estado en el que ayer se encontraban las niñas. La familia de Carla pasa por lo mismo. "Su padre sí que está yendo a trabajar, pero en todo momento la madre y dos tías han estado junto a ella".

Esa preocupación desembocó el lunes en un llamamiento a la comunidad científica con el fin de que aporten cualquier información que pueda influir en el tratamiento de las pequeñas. Ante esa petición de ayuda, "no ha surgido ninguna respuesta", apuntó Herreras.

A la solicitud de colaboración se sumó el anuncio de estudiar la interposición de una demanda. Respecto a esta opción el portavoz de los padres puntualizó que de momento "hemos buscado el asesoramiento de un abogado, que está recabando información y todavía no puede determinar en quién y en qué grado hay responsabilidad".

El Conseller de Sanidad, Manuel Cervera, mostró su comprensión ante "la preocupación de los padres, que es la misma que la de los profesionales del Clínico que están teniendo un trato exquisito desde el punto de vista asistencial". Cervera insistió en que se sigue "estudiando cuáles pueden ser las causas, pero los profesionales aún no han dicho qué patología está causando las crisis convulsivas".