miércoles, 13 de noviembre de 2024

Estudio de Harvard revela si los adultos deben consumir leche

 De acuerdo con un estudio de Harvard publicado en el New England Journal of Medicine, existe un alto índice de adultos con problemas en los huesos y fracturas de cadera en los países donde hay mayor consumo de leche. La investigación pretende demostrar que el consumo de leche en la etapa adulta no tiene casi no beneficios nutritivos.

Los resultados demostraron que las personas adultas que consumen leche tienen -en general- mayor altura y esto trae como consecuencia una alta probabilidad de lesiones, entre ellas, las fracturas de cadera.

No es un secreto que cada vez más la población adulta presenta síntomas de  intolerancia a la lactosa. Por lo que el mercado internacional ha presentado nuevas alternativas a la leche y sus derivados con productos de origen vegetal, como la leche de soya, avena, almendra, coco, entre otras.

Más allá de estos indicadores, la investigación plantea que el consumo diario de leche en los adultos es un factor que podría perjudicar la salud, al ser un producto con grasas saturadas, sodio y otros elementos que pueden propiciar problemas de hipertensión y circulación.

Si bien no existe una relación directa entre el consumo de leche y estos problemas de salud, los nutricionistas aconsejan moderar la ingesta de este producto en los adultos para mantener una dieta equilibrada.

El estudio de Harvard concluyó que el consumo de leche o lácteos diario y en un promedio de tres raciones al día, resulta excesivo en la dieta de las personas adultas, aportando pocos o casi nulos beneficios.

Si una persona quiere disminuir el consumo de leche y lácteos, se recomienda consumir otros alimentos ricos en calcio y con otros nutrientes como la col rizada, brócoli, sardinas y salmón.

sábado, 26 de octubre de 2024

Nobel a los micro-ARN

Los genes se prenden y se apagan ejecutando la gran obra, leyendo pequeñas señales inscritas en la partitura.

Por: Moisés Wasserman

 

Este año los Nobel en ciencias naturales fueron una colección fascinante de relatos, que darían para un buen rato. Me toca escoger uno, así que me decidí por el de Medicina y Fisiología, que se otorgó en esa frontera difusa entre la biología, la bioquímica y la genética.

Para entender de qué se trata hay que irse a los antecedentes. Hoy es bien sabido que los genes están en el núcleo de las células, codificados por el ADN. Su descripción fue una revolución científica y llevó a lo que llamaron el "dogma de la biología molecular", un esquema de flujo de la información genética.

La información está en el núcleo de las células en una larga secuencia de ADN escrita con cuatro letras; partes de la secuencia se 'transcriben' a ARN, en un lenguaje de cuatro letras también, y se transportan al exterior del núcleo, al citoplasma, donde se 'traducen' en proteínas con un lenguaje de 20 letras. Esas proteínas son las responsables de toda la funcionalidad del ser vivo: lo mueven, transforman materiales y energía, y fabrican productos variados.

Prácticamente todos los hechos de la biosfera cuadran con esa descripción. Por supuesto, como sucede con todos los dogmas, también a este le surgieron preguntas y objeciones. El esquema general es claro, pero los detalles menos, y, como sabemos, el diablo está en los detalles. Durante los setenta y pico años que siguieron, muchos de ellos se aclararon y generaron más interrogantes aún.

Este Nobel lo ganó la simple historia, que es, ella misma, suficientemente maravillosa.

 Una pregunta que surgió temprano fue la de cómo se especializan las células para ejercer funciones tan diferentes unas de otras. Se sabía que todas las células tienen la información completa del organismo en sus núcleos. Si alguien lo dudaba, vino Dolly a comprobarlo (un núcleo de una célula cualquiera dio origen a una oveja completa, indistinguible de otra nacida como suelen nacer las ovejas).

Entonces, si todas las células tienen la misma información, ¿por qué unas se dedican a ser cerebro, otras a hueso y unas más a hígado, ejerciendo funciones tan diferentes y siendo estructuralmente tan distintas y particulares? La respuesta obvia es que debe haber señales que regulan el flujo de información en el embrión, para que algunos genes se expresen y otros no, en cada tipo de célula.

Y acá, por fin, llegamos a la historia del Nobel de este año. Victor Ambros y Gary Ruvkun hacían su posdoctorado en el mismo laboratorio por el año 1980. Ya se sabía que no todo el ADN se transcribe a ARN, como decía el 'dogma', y se conocían secuencias sin ningún sentido, que muchos llegaron a pensar que eran basura. Los hoy premiados encontraron que unas de esas secuencias producían unos ARN muy pequeños, unos micro-ARN sin función clara. Desde entonces se dedicaron a dilucidar qué hacían.

Trabajar en el modelo experimental adecuado es uno de los secretos del éxito, y ellos trabajaron con un gusanito transparente, de menos de un centímetro, con un nombre más largo que él: Caenorhabditis elegans. Tiene apenas 959 células: neuronas, intestino, músculo, piel y algunas más. Este es el cuarto Nobel que se gana ese gusanito.

Esos micro-ARN resultaron con la capacidad de unirse a algunos mensajes e inactivarlos, prendiendo y apagando así funciones diversas. Eso completaba, con otros factores ya descritos, la melodía de la sinfonía de la vida: entran a tocar los violines, luego los reemplazan los vientos, después, una secuencia con oboes y fagots, un silencio y, finalmente, timbales. Así, los genes se prenden y se apagan ejecutando la gran obra, leyendo pequeñas señales inscritas en la partitura.

Seguramente encontrarán pronto cómo usarlos para fabricar algo 'útil' (y así tranquilizar a los que esperan una aplicación). Pero este Nobel lo ganó la simple historia, que es, ella misma, suficientemente maravillosa.

sábado, 12 de octubre de 2024

Premio Nobel de Química 2024

 ¿Qué son las proteínas? Hablemos de la química ganadora del premio Nobel.

 

El Premio Nobel de Química fue otorgado a tres científicos que ayudaron a desentrañar algunos de los secretos más persistentes de las proteínas, los componentes básicos de la vida.

Mientras Demis Hassabis y John Jumper, del laboratorio DeepMind de Google, utilizaban técnicas de inteligencia artificial para predecir la estructura de las proteínas, el bioquímico David Baker logró diseñar otras totalmente nuevas nunca vistas en la naturaleza.

Esta tecnología conducirá a numerosos avances en nuestra vida diaria, desde el descubrimiento de nuevos fármacos hasta enzimas que descomponen contaminantes. Pero, ¿qué hay detrás del premio Nobel?

Las proteínas son moléculas que sirven como fábricas de todo lo que sucede en nuestro cuerpo. El ADN proporciona el modelo para cada célula. Luego, las proteínas utilizan esta información para hacer el trabajo de convertir esa célula en algo específico, como una célula cerebral o muscular.

 


Las proteínas se componen de 20 tipos diferentes de aminoácidos. La secuencia en la que comienzan estos ácidos determina en qué estructura 3D se retorcerán y plegarán, que es muy importante para su función. Comparemos esto con un cable telefónico antiguo; se podría estirar el cable del teléfono y entonces se obtendría una estructura unidimensional, pero después volvería a su forma 3D. Entonces, si los químicos querían dominar las proteínas, necesitaban comprender cómo estas secuencias en 2D se convertían en estas estructuras 3D. La naturaleza nos proporciona decenas de miles de proteínas diferentes, pero a veces queremos que hagan algo que aún no saben cómo hacer. ¿Qué hizo la IA?

 


El trabajo de anteriores premios Nobel ha demostrado que los científicos deberían poder observar secuencias de aminoácidos y predecir la estructura en la que se convertirían. Imagina una secuencia de moléculas, cada una con cargas, lo que las hace que se atraigan o repelan, la estructura en 3D debe tomar en cuenta esto para la configuración espacial de la proteína.

¿Y por qué es importante? Un ejemplo, podría ser una reacción antígeno-anticuerpo, donde el antígeno que es la molécula extraña que nuestro cuerpo reconoce como un intruso. Este antígeno tiene una parte especial, llamada epítope. Este epítope es único en secuencia y conformación tridimensional. Y nuestros anticuerpos reconocen a esa configuración exacta, y si no se encuentra así, la respuesta inmune no se llevaría a cabo. Esto es importante para tratamientos contra enfermedades.

Pero esto no es fácil, como tampoco lo fue para los químicos que lucharon durante 50 años; incluso hubo una competencia bianual llamada "Olimpiadas de las Proteínas" donde muchos no pasaron la prueba de predicción. Pero llegaron Hassabis y Jumper… ellos entrenaron su modelo de inteligencia artificial, AlphaFold en todas las secuencias de aminoácidos conocidas y sus estructuras correspondientes. Cuando se le presenta una secuencia desconocida, AlphaFold la compara con las anteriores, reconstruyendo gradualmente el rompecabezas en tres dimensiones.

Después de que la nueva generación AlphaFold2 aplastara en los Juegos Olímpicos de Proteínas de 2020, los organizadores consideraron que el problema estaba resuelto. Este modelo ha predicho hasta hoy, la estructura de casi la totalidad de los 200 millones de proteínas conocidas en la Tierra.

Y, ¿qué pasa con las nuevas proteínas? El bioquímico estadounidense David Baker empezó en el extremo opuesto del proceso. rimero, diseñó una estructura proteica completamente nueva, nunca vista en la naturaleza. Después, utilizando un programa de computadora llamado Rosetta que había desarrollado, pudo calcular la secuencia de aminoácidos con la que comenzó. Para lograrlo, Rosetta rastreó todas las estructuras proteicas conocidas, buscando fragmentos proteicos cortos similares a la estructura que quería construir. Al final, Rosetta los modificó y propuso una secuencia que podría terminar siendo la nueva estructura. Había creado una nueva proteína.

 ¿Y para qué nos sirve todo esto?

Dominar pequeñas máquinas tan fundamentales e importantes como las proteínas podría tener una gran cantidad de usos potenciales en el futuro. Nos permite comprender mejor cómo funciona la vida, incluido por qué se desarrollan algunas enfermedades, cómo se produce la resistencia a los antibióticos o por qué algunos microbios pueden descomponer el plástico. La producción de proteínas completamente nuevas podría dar lugar a nuevos nanomateriales, medicamentos y vacunas específicos o productos químicos más espetusos con el medio ambiente. Cuando se le pidió a Baker que eligiera su proteína favorita, señaló una que "diseñó durante la pandemia y que protege contra el coronavirus". Además incluyó "me ha entusiasmado mucho la idea de un aerosol nasal con pequeñas proteínas de de diseño que protegerían contra diferentes virus",  dijo en la ceremonia del Nobel a través de un video. Y esto es sólo el comienzo de una era completamente nueva…



 

lunes, 30 de septiembre de 2024

Proteína de origen animal o vegetal: ¿cuál es mejor?

Cuando hablamos de proteínas, nos referimos a un nutriente fundamental en la alimentación humana. No en balde, la palabra proviene del término griego proteios, que quiere decir “primero”, de primera importancia o principal. Sin ellas, no podríamos realizar funciones básicas como construir estructuras, regular procesos químicos como los que desempeñan las hormonas, defendernos de enfermedades y transportar sustancias vitales.

Las proteínas pueden clasificarse según su fuente en animales y vegetales, pero ¿cuál es más beneficiosa de las dos? La respuesta corta es que ambas son adecuadas y recomendables para seguir una dieta saludable y equilibrada, puesto que la mayoría de veces resultan más importantes el resto de componentes del alimento. El problema radica en que doblamos el consumo de comida de origen animal y no llegamos a las cantidades recomendadas de productos ricos en proteína vegetal.

¿En qué se diferencian?

En términos generales, el consumo de proteína para una persona adulta debe ser como mínimo de 0,8 gramos por cada kilogramo de peso corporal al día. Y como puede verse en los ejemplos de esta tabla, hay gran variedad de alimentos ricos en ese nutriente:

De todos modos, hay diferencias. La primera proviene de los componentes básicos de las proteínas, unas moléculas llamadas aminoácidos. Hay veinte distintos y se dividen en esenciales (el cuerpo no los sintetiza y deben ser obtenidos a través de la alimentación) y no esenciales (nuestro organismo puede producirlos).

Pues bien, las proteínas animales contienen todos los aminoácidos esenciales, mientras que la mayor parte de fuentes proteicas vegetales no. Aunque ese déficit puede subsanarse combinando alimentos, como legumbres con cereales: ¿quién no le ha echado arroz a las lentejas?

Además, el consumo de proteína vegetal está asociado con una disminución del riesgo de mortalidad por cualquier causa debido a sus efectos beneficiosos sobre factores de riesgo cardiometabólico, como el perfil lipídico, la presión arterial y la regulación de la glucemia. Al contrario, los mismos estudios apuntan a que la ingesta elevada de proteína animal se asocia a un mayor riesgo de mortalidad, especialmente cuando procede de ciertos alimentos como la carne roja o la procesada.

Esto podría deberse a que, por lo general, los alimentos ricos en proteína de origen vegetal incluyen otros nutrientes beneficiosos para la salud como la fibra o la vitamina E. No ocurre así en el caso de las opciones con mayor contenido de proteína animal, a menudo asociadas a compuestos perjudiciales como el sodio y las grasas saturadas o trans. En cualquier caso, lo importante es que se combinen los dos tipos de proteínas y que la dieta sea lo más variada posible.

Una dieta ecorresponsable

Actualmente existe una escasez de proteínas de buena calidad debido al rápido aumento de la población mundial y a los limitados recursos naturales. Normalmente, la producción de alimentos de origen animal tiene un impacto medioambiental varias veces mayor que la de vegetales.

Por ello, aunque la carne es una excelente fuente de proteína, la promoción de la salud y la educación sobre los beneficios de las proteínas vegetales podría ser una de las estrategias para animar a la población a realizar un cambio hacia una dieta más sostenible.

En este sentido, también hay que tener en cuenta que no tiene el mismo impacto la ganadería intensiva que la extensiva, ya que la segunda, al aprovechar los pastos y pastizales, es mucho más sostenible. Y además debe considerarse que un producto de origen vegetal producido en la otra parte del mundo puede producir una mayor huella de carbono que una porción de carne de vacuno de proximidad, fundamentalmente debido al gasto en combustible que acarrea el transporte.

Aunque los alimentos de origen vegetal tienen un menor impacto en el medio ambiente, esto no quiere decir que sea conveniente excluir la proteína animal de la dieta. Y mucho menos eliminar o reducir drásticamente la ganadería, dadas las consecuencias económicas y sociales que tendría tanto a nivel local como global.

¿Y por cuál me decanto entonces?

En resumen: a pesar de que la proteína de origen animal es más completa, la vegetal es una alternativa totalmente segura. Eso sí, en el caso de decida adoptar una dieta estrictamente vegetariana, asegúrese de combinar las fuentes vegetales para obtener todos los aminoácidos esenciales.

domingo, 15 de septiembre de 2024

Los lípidos permiten una predicción temprana del riesgo de enfermedad cardiovascular y diabetes

Imagine que los médicos pudiesen predecir con décadas de antelación si una persona corre el riesgo de desarrollar diabetes de tipo 2 (DT2) o enfermedad cardiovascular (ECV). Un nuevo estudio sobre el análisis lipidómico podría haber encontrado el modo de lograrlo.

Un estudio, apoyado en parte por el proyecto financiado con fondos europeos PREVENT-2024, ha descubierto que la medición simultánea de docenas de tipos de lípidos en la sangre puede ayudar a predecir el riesgo de DT2 y de ECV décadas antes de su aparición. Al emplear el análisis lipidómico para identificar las personas de alto riesgo con mucha anticipación, los médicos podrán recomendar cambios en la alimentación y el modo de vida mucho antes de que aparezca la enfermedad, lo cual reduciría en última instancia la carga de la enfermedad. En la actualidad, los análisis de sangre para identificar a las personas con riesgo de desarrollar DT2 o ECV dependen en gran medida de las concentraciones de dos lípidos sanguíneos importantes: las lipoproteínas de alta densidad y las lipoproteínas de baja densidad (los dos tipos principales de colesterol). Sin embargo, la sangre contiene muchos más lípidos que podrían ayudar a predecir este riesgo. Por lo tanto, para descubrir si la medición de una gama más amplia de lípidos sanguíneos podría aumentar la exactitud de la predicción del riesgo, un grupo de investigadores de Alemania y Suecia combinó genética, lipidómica y diagnóstico clínico normalizado a fin de analizar datos y muestras sanguíneas de 4 067 participantes en un estudio llamado Malmö Diet and Cancer-Cardiovascular Study. Entre 1991 y 1994, se seleccionó a los participantes —residentes suecos sanos de entre 46 y 68 años— y fueron objeto de seguimiento hasta 2015. Durante el período de seguimiento, el 13,8 % de los participantes manifestó una DT2 y el 22 % desarrolló una arteriopatía coronaria, tuvo un ictus o falleció debido a un episodio cardiovascular agudo.

Puntuaciones sobre el riesgo basadas en 184 lípidos

Mediante la aplicación de un método de aprendizaje automático en las mediciones obtenidas al inicio del estudio cuando los participantes estaban sanos, los investigadores calcularon varias puntuaciones de riesgo lipidómico para la DT2 y las ECV. A continuación, utilizaron dichas puntuaciones para dividir a los participantes en grupos de riesgo. Las puntuaciones se basaban en la cuantificación de las concentraciones de 184 especies o subespecies de lípidos. En comparación con las medias grupales, el riesgo de DT2 en el grupo de mayor riesgo fue del 37 %, es decir un aumento del 168 % del riesgo, mientras que el riesgo de ECV en el grupo de mayor riesgo fue del 40,5 %, un aumento del 84 %. Los grupos de menor riesgo presentaron riesgos significativamente inferiores (una reducción del 77 % y del 53 % para la DT2 y las ECV, respectivamente) en comparación con las tasas medias de casos del 13,8 % y el 22,0 %. Además, la relación entre el riesgo lipidómico y el riesgo genético parecía únicamente marginal, «lo cual indica que las variantes genéticas y lipidómicas podrían constituir factores de riesgo en buena medida independientes para la DT2 y las ECV», según el estudio. Los resultados sugieren que, mediante el análisis lipidómico, es posible identificar a las personas con un riesgo elevado de desarrollar DT2 o ECV años antes de la aparición de la enfermedad. «El riesgo lipidómico, calculado a partir de una única medición espectrométrica que resulta barata y rápida, podría ampliar la evaluación del riesgo tradicional basada en ensayos clínicos», comenta el profesor y doctor Chris Lauber, autor principal del estudio, de Lipotype (Alemania), en una noticia publicada en «Science Daily». Además, cada uno de los lípidos en la sangre puede ser consecuencia de una amplia gama de procesos metabólicos o prestarse a ellos y, por separado, podrían ser importantes marcadores de dichos procesos. Si eso es cierto, según el profesor Lauber «el lipidoma podría proporcionar información mucho más allá del riesgo de diabetes y enfermedad cardiovascular». El profesor Lauber añade: «El refuerzo de la prevención de enfermedades es un trabajo conjunto e internacional con muchos aspectos. Hemos demostrado cómo la lipidómica puede ampliar las herramientas para la identificación temprana de personas con alto riesgo de desarrollar diabetes y enfermedades cardiovasculares». La Universidad de Lund (Suecia) es la entidad anfitriona del proyecto PREVENT-2024 (MOVING FROM BIOMARKERS TO MECHANISM ORIENTED PREVENTION OF CARDIOMETABOLIC DISEASE).


Tomado de: Cordis - Resultados de Investigación de la Unión Europea  

https://cordis.europa.eu/

lunes, 2 de septiembre de 2024

El nuevo «azúcar», más dulce y con menos calorías

 


Científicos dan un paso clave para fabricar a gran escala brazeína, el endulzante 2.000 veces más potentes que la sacarosa

Se llama brazeína y podría convertirse en el próximo edulcorante de éxito. No le faltan cualidades: aporta menos calorías, se puede utilizar en repostería porque es estable por encima de los 80 grados centígrados y su sabor no resulta artificial como otros sustitutos del azúcar. A diferencia de otros edulcorantes, al paladar parece sacarosa o azúcar convencional, pero es 2.000 veces más potente. Eso le permite endulzar con menos cantidad para conseguir el sabor deseado.
La brazeína se extrae de una planta trepadora africana llamada Oubli(«Pentadiplandra brazzeana Baillon»). La pega es que no se puede extraer en cantidades comerciales de su fuente natural. La extracción es muy costosa y poco sostenible. Para convertir este edulcorante tan prometedor en un producto comercialmente rentable se han estudiado varias fórmulas en los laboratorios, como la utilización de bacterias de uso alimentario en un proceso conocido como biofermentación.
Los sistemas utilizados han funcionado, aunque no se ha logrado un resultado tan dulce como la brazeína extraída de su fuente natural. El primer paso para lograrlo acaba de darlo un grupo de investigadores. En la revista«Journal of Agricultural and Food Chemistry» describen una forma para fabricarla a gran escala sirviéndose de una levadura, la «Kluyveromyces lactis». En su estudio cuentan cómo han logrado persuadir a la levadura para superproducir dos proteínas que son esenciales en la obtención de brazeína. De esta manera, fabricaron 2,6 veces más cantidad de un producto que es 2.000 veces más dulce que el azúcar.
Enemigo a batir

El azúcar se ha convertido en uno de los grandes enemigos a batir de las dietas occidentales. Demasiado azúcar daña la salud, destruye los dientes, favorece la acumulación de grasa, daña las arterias y estresa el sistema que regula la presencia de azúcar en sangre. Por eso, la industria alimentaria busca un sustituto saludable que proporcione la misma satisfacción al paladar.

domingo, 18 de agosto de 2024

Un colombiano desafía la teoría científica del Big Bang y su trabajo fue publicado por la Sociedad Real de Astronomía de Canadá, ¿qué propone?

 De día, Mauricio Vélez Domínguez es un galardonado documentalista colombiano que lleva seis nominaciones al premio Emmy y toda una vida con una cámara al hombro siguiendo, desde los pasos de los hipopótamos de Pablo Escobar en el Magdalena medio y la inesperada fauna urbana de Bogotá, hasta la selección Colombia de fútbol en su esfuerzo por clasificar al mundial del 2022.

Pero de noche o en su “tiempo libre” (así lo llama), Vélez Domínguez, cineasta e ingeniero industrial de la Universidad de Harvard, es un astrónomo en potencia. Una pasión que desarrolló desde muy joven cuando vivía en Cali y un tío le regaló su primer telescopio. Fervor que ahora ha traducido en una investigación científica en la que plantea que quizá no hubo Big Bang, que el universo no está en expansión y que el tiempo se está desacelerando.

Su innovador trabajo fue revisado y admitido para publicación por la Sociedad Real de Astronomía de Canadá y es el artículo central de investigación de su revista científica para este mes de agosto.

EL TIEMPO lo entrevistó.

Usted, al menos públicamente, ha dedicado su vida a la producción de documentales. ¿De dónde sale entonces esta versión de un Mauricio Vélez astrónomo buscando respuestas al origen del universo?

Desde que era niño he sentido fascinación por el espacio. Yo crecí en las afueras de Cali y en aquel entonces la noche era asombrosa, llena de estrellas. Recuerdo que un tío me regaló un telescopio y eso fue como si me dieran las llaves del cielo. La primera vez que vi un planeta por el telescopio fue muy impactante, me infundió un sentido de reverencia, de misterio y de asombro por el Universo. Con mi tío conversábamos mucho sobre astronomía. Y una de las cosas de las que hablamos era el Big Bang y de cómo no nos cabía en la cabeza. ¿Cómo así que el universo surgió de la nada? ¿Cómo es posible que el universo entero cupiera en un espacio infinitesimalmente pequeño? ¿Hacia dónde se está expandiendo? ¿Qué había antes de que explotara? ¿Por qué explotó? Sencillamente no lo entendíamos. Desde pequeño siempre pensé que tenía que existir una explicación más fácil de comprender, más abordable, más lógica.

Pero de allí a lo que usted hoy propone, es decir que quizá no hubo Big Bang y que el tiempo se está desacelerando, hay del cielo a la tierra. ¿Cómo llegó hasta allí?

Hace unos seis años decidí tratar de resolver esas preguntas. Al menos para mí. Empecé garabateando cuadernos en mi tiempo libre, leyendo, viendo documentales. No imaginé que ese ejercicio personal terminaría con una teoría publicada en un diario científico. Al año tuve la primera revelación. Resulta que una de las evidencias empíricas más importantes del Big Bang es un fenómeno que conocemos como corrimiento al rojo, o el estiramiento de la luz. El universo es tan vasto, que la luz que emiten los objetos celestes tarda tiempo en llegar a la tierra. La luz de las galaxias más distantes, por ejemplo, tarda más de 13 mil de millones de años en llegar a nuestros telescopios. Es decir, cuando miramos hacia el cielo, estamos mirando hacia el pasado.

Para entender mi teoría, debemos familiarizarnos un poco con la teoría del Big Bang, o modelo Lambda de Materia Oscura Fría (ΛCDM por sus siglas en inglés), como se le denomina hoy al modelo cosmológico estándar. En 1915, Albert Einstein publica la Teoría General de la Relatividad e introduce una nueva comprensión de la gravedad, definiéndola como la curvatura del espacio. Einstein propone una serie de ecuaciones que describen cómo la distribución de la masa y de la energía en el universo afecta la curvatura del espacio-tiempo. Sus ecuaciones sugieren un universo en expansión o en contracción. Pero Einstein creía en un universo estático, y por eso, en 1917 introduce una constante que denominó lambda (Λ) en sus ecuaciones para contrarrestar la acción de la gravedad y alcanzar un universo estático. En 1927, el sacerdote y físico jesuita, Georges Lemaitre, encuentra una solución a las ecuaciones de Einstein y formula la teoría del “átomo primordial”, en la cual describe un universo en expansión. Luego, en 1929, el astrónomo americano Edwin Hubble aporta la evidencia empírica para la teoría de expansión de Lemaitre.

Es importante recordar que la luz blanca está compuesta por los colores del arco iris. En un extremo del arco iris está el rojo, con una longitud de onda más larga que la longitud de la onda del color azul, ubicado en el extremo opuesto del arco iris. Hubble compara la luz emitida por algunas galaxias lejanas con la luz emitida por galaxias más cercanas a la tierra y nota que la luz de las galaxias lejanas se ve más roja -más estirada- que la luz de las galaxias cercanas. Hubble concluye que entre más lejos queda un objeto celeste, más larga es la longitud de la onda de luz que llega a nuestros instrumentos en la tierra. Hubble razona que las galaxias se están alejando de nosotros y que la velocidad a la que se están retirando es proporcional a la distancia a la que se encuentran. Es decir, entre más lejos está un objeto celeste de la tierra, más rápido se aleja de nosotros. Hubble concluye que el alargamiento de la luz, o corrimiento al rojo, se debe a que el espacio entre el objeto emisor de la luz y el observador en la tierra se está estirando, es decir, el universo se está expandiendo, inflándose como un globo.

¿Pero cuál fue la revelación?

La luz de las galaxias más distantes, por ejemplo, tarda más de 13 mil de millones de años en llegar a nuestros telescopios. Es decir, cuando miramos hacia el cielo, estamos mirando hacia el pasado.

La desaceleración del tiempo. Si descartamos que la expansión del universo estira la luz, y asumimos que el universo es estacionario, el fenómeno que puede explicar por qué la frecuencia de la luz disminuye durante su recorrido entre el emisor y el observador, y en consecuencia porqué aumenta la longitud de onda, es un proceso universal de desaceleración del tiempo.

¿Pero cómo explica esa desaceleración del tiempo?

La velocidad de la luz es el resultado de la multiplicación de dos variables: la longitud de onda y la frecuencia de oscilación. Einstein en su Teoría Especial de la Relatividad estableció en 1905 que la velocidad de la luz en el vacío es una constante para cualquier observador, sin importar su estado de movimiento. En consecuencia, si la frecuencia de oscilación disminuye, la longitud de onda necesariamente aumenta para mantener la invariabilidad de la velocidad de la luz. Si el reloj corre más lento, la frecuencia de oscilación se vuelve más lenta, y para compensar la longitud de onda se alarga. Mi teoría sugiere que el tiempo en el pasado fluía mucho más rápido que el tiempo en el presente, y que este proceso universal de desaceleración del tiempo explica el alargamiento de la onda, o corrimiento al rojo de la luz, y apoya la noción de que el universo no está en expansión, sino que es estacionario, como lo creía Einstein.

Pero en términos prácticos, Mauricio, lo que usted plantea desafía 100 años de investigaciones y la misma explicación del origen del universo. Eso son palabras mayores.

Ese era el objetivo que me planteé, encontrar una solución diferente a la expansión del universo. Para comprobar este concepto, desarrollé 3 ecuaciones matemáticas nuevas para la ciencia que demuestran que la desaceleración del tiempo en un universo estacionario es una explicación del corrimiento al rojo tan plausible como lo es la supuesta expansión del espacio en el modelo estándar de la evolución del universo. Esa es la base del artículo que remití a The Royal Astronomical Society of Canada y que será publicado en agosto en su revista científica.

Aunque el modelo Lambda de Materia Oscura Fría (ΛCDM) es el mejor que tenemos para describir la evolución del universo y muchos fenómenos cósmicos, tiene vacíos importantes. No explica la energía oscura, que acelera la expansión del universo y representa el 68% del mismo. Tampoco explica la materia oscura, que constituye el 27% y solo se infiere por sus efectos gravitacionales. Ni siquiera hay consenso sobre la velocidad de expansión del universo, creando la "tensión de Hubble". Además, el telescopio James Webb ha encontrado “galaxias imposibles” en el universo temprano, pues son demasiado masivas y desarrolladas para ser tan jóvenes. Es como que un bebé naciera pesando 80 kilos y midiendo 1.80 metros. Por otro lado, la teoría estándar afirma que los elementos ligeros fueron sintetizados en la primera hora del Big Bang. Esto para mí es difícil de entender, especialmente si tenemos en cuenta que una hora comparada con los 13,800 millones de años que tiene el universo representa un instante infinitesimalmente pequeño. ¿Cómo se podrían fabricar todos los elementos livianos que existen en el universo en un tiempo tan insignificante comparado con la escala cósmica? El modelo de universo estacionario donde el tiempo fluye más rápido en el pasado que en el presente no necesita energía oscura y le atribuye los efectos gravitacionales que hemos interpretado como materia oscura a la dilatación del tiempo. Finalmente, explica mejor fenómenos como el de las galaxias imposibles y la síntesis de elementos livianos en tan poco tiempo.

A medida que pasa el tiempo, el universo se va volviendo mucho más grande. Pero éste podría quedar en mil pedazos

Y que quiere decir que se la hayan aceptado y la publiquen?

Los trabajos que se presentan a un diario científico pasan por un exhaustivo proceso de evaluación por árbitro y son analizados por expertos en el campo. Este proceso tiene como objeto asegurarse que la investigación cumpla con estándares científicos y que la metodología esté bien fundamentada. Es decir, la teoría pasa por un escrutinio que evalúa los datos, la metodología, el análisis y las conclusiones. Eso no quiere decir que la teoría ya quedó ratificada. Pero le otorga credibilidad e indica que puede ser tomada en serio. Al publicarla, el diario la somete al escrutinio de la comunidad científica y de otros expertos para que la revisen, la estudien, la debatan, la repliquen, la examinen y eventualmente la validen o la refuten. El tiempo dirá si este nuevo enfoque puede llegar a ofrecer una nueva explicación de la evolución del universo. Por mi lado, yo estoy convencido que sí.

Plantea que en lugar de expansión acelerada lo que hay es un proceso de desaceleración del tiempo. ¿Qué implica eso en términos prácticos?

Este tema es objeto de un segundo artículo que estoy terminando de escribir y que brevemente presento en las conclusiones del primer estudio que sale publicado en agosto. Considerar la posibilidad de un nuevo paradigma de un universo estacionario basado en un modelo de ecuaciones matemáticas que lo respalda abre posibilidades y oportunidades fascinantes para explicar los fenómenos que el Big Bang no logra resolver. Mi propósito ahora es demostrar que este modelo puede dar cuenta de esos fenómenos, que es coherente con toda la evidencia observacional que respalda el Big Bang, y que ofrece una historia de la evolución del universo más sencilla y elegante. Como dice el principio de la navaja de Occam: “En igualdad de condiciones, la explicación más sencilla suele ser la correcta”.

ELTIEMPO

Sergio Gómez Maseri

16 de agosto 2024, 09:40 P.M.


lunes, 5 de agosto de 2024

A la Tierra le tomó 200 millones de años llenarse de oxígeno antes de dar paso a la vida compleja

 Una reciente investigación publicada en Nature aporta nueva información sobre el Gran Evento de Oxidación al que se enfrentó la Tierra durante su juventud. Los resultados de la Universidad de Utah, Estados Unidos, contradicen la idea general sobre el momento en el que el planeta se llenó de oxígeno y se sentaron las bases de la vida compleja. Este no habría sido un boom espontáneo y único, sino un proceso paulatino de millones de años.

Hoy en día, la gran mayoría de los seres vivos están adaptados para desarrollarse aprovechando la abundancia de oxígeno en el planeta. Bacterias, plantas, hongos, insectos, peces y mamíferos absorben este elemento para obtener energía. Sin embargo, hace 2,500 millones de años, el escenario era muy diferente; la Tierra estaba cubierta por dióxido de carbono, metano, amoníaco y vapor de agua. Esos gases predominaban debido a la abundante actividad volcánica y sísmica. El oxígeno era apenas una pequeña proporción en un mar de componentes que hoy consideramos tóxicos.

Hasta entonces, los microorganismos existían basándose en procesos químicos como la fermentación. Por ejemplo, las arqueas históricamente aprovechaban el hidrógeno abundante para obtener energía a través de sus propias enzimas. Sin embargo, cuando seres más simples, como las cianobacterias, desarrollaron el mecanismo de la fotosíntesis, la Tierra experimentó un punto de inflexión.


Imágenes de microfósiles de Navifusa majensis
El microfósil del organismo Navifusa majensis es el más reciente vínculo entre la fotosíntesis y la vida simple primigenia.

En la fotosíntesis, el dióxido de carbono se convierte en glucosa. El subproducto de esta conversión energética es el oxígeno, que se libera al entorno. Cuando innumerables microorganismos se dieron cuenta de que la fotosíntesis era una forma más eficiente de vivir, la Tierra se llenó del gas que todos respiramos hoy en día. Los investigadores se refieren a ese momento como el Gran Evento de Oxidación

Entender el Gran Evento de Oxidación es más difícil de lo que parece

El Gran Evento de Oxidación no ocurrió en tierra firme, sino en los mares. Estudiar las fluctuaciones de oxígeno en el océano supone investigar entornos que han estado en constante cambio durante 2,500 millones de años. Aunque es una tarea compleja, no es imposible. Chadlin Ostrander, geoquímico de la Universidad de Utah, utilizó esquistos marinos (una clase de rocas) de la unidad estratigráfica sudafricana conocida como el ‘Supergrupo Transvaal’.

El equipo de Ostrander buscó isótopos estables de talio y otros elementos para medir los cambios en el oxígeno en el mar. Contrariamente a lo esperado, no encontraron muestras que reflejaran una transición abrupta. En cambio, los indicios sugieren una oxigenación gradual que se extendió durante 200 millones de años.

“Los datos resultantes sugieren que el aumento inicial de O2 en la atmósfera de la Tierra fue dinámico y se desarrolló de forma intermitente, hasta hace aproximadamente 2200 millones de años. Nuestros datos validan esta hipótesis y, además, amplían la misma dinámica al océano", afirma Ostrander.

La madurez de la Tierra y la oxigenación

Otro de los resultados sobresalientes de la investigación es que parece que la oxigenación no fue un solo evento. Hubo intentos similares antes del Gran Evento de Oxidación definitivo, pero el planeta no tenía la suficiente “madurez” como para albergar el gas. El O2 de antes solo se destruía por las reacciones entre los gases volcánicos.

"La Tierra no estaba preparada para ser oxigenada cuando se empieza a producir oxígeno. El planeta necesitaba tiempo para evolucionar biológica, geológica y químicamente antes de ser propicio para la oxigenación. Es como un balanceo. Hay producción de oxígeno, pero a la vez hay tanta destrucción de oxígeno que no llega a ocurrir nada. Todavía estamos tratando de determinar cuándo se inclinó completamente la balanza y la Tierra ya no pudo regresar a una atmósfera anóxica", explicó el autor.La ciencia tiene un nombre alternativo para esta etapa en la que el gas inundó todo: catástrofe del oxígeno. La cimentación de las condiciones que actualmente permiten la vida compleja conllevó la extinción de cualquier microorganismo dominante cuya fuente de alimento no fuera otra que el O2.

La nueva abundancia de oxígeno puso fin al efecto invernadero hostil. Además, dio origen a la capa de ozono, la estructura que ahora protege a los seres vivos de los rayos ultravioleta del Sol. Tras establecer las condiciones apropiadas, en la Tierra llegó la era geológica de los peces, luego la de los primeros anfibios, dinosaurios y finalmente los mamíferos.

viernes, 24 de mayo de 2024

Minerales en la dieta

Las sales minerales son micronutrientes importantes para el organismo y contribuyen a muchas funciones vitales, como:

  • Formación de huesos y células sanguíneas
    El calcio y el fósforo son necesarios para producir huesos saludables. El cobre es importante para la producción de células sanguíneas.
  • Desarrollo del sistema nervioso
    El calcio y el magnesio intervienen en la excitabilidad nerviosa.
  • Producción de hormonas
    El yodo es fundamental para la producción de hormonas tiroideas, que contribuyen al crecimiento y al desarrollo adecuado en los niños.
  • Actividad de los órganos
    Las sales minerales contribuyen al buen funcionamiento del sistema inmunológico (zinc, selenio, cobre).
  • Retención de agua en el cuerpo
    Las sales minerales regulan el balance del agua dentro y fuera de las células (electrolitos), proceso también conocido como ósmosis.
  • Función cardíaca
    Las sales minerales participan en procesos vitales como una correcta función cardíaca.
  • Contracción muscular
    Las sales minerales intervienen en la actividad muscular (calcio, magnesio).
  • Regular la presión arterial
    Las sales minerales como el hierro, calcio, zinc, fósforo, flúor y magnesio actúan en diversos procesos bioquímicos para regular la presión arterial.