Muy Interesante

¿QUé ES LA VIDA?

- POR PAUL DAVIES

En este texto, el científico Paul Davies sostiene que la pregunta sigue sin respuesta, porque obviamos un elemento crucial: la informació­n. Esta permite que un caos de compuestos químicos se organice espontánea­mente para crear organismos vivos de increíble complejida­d.

Hay algo especial en la vida, casi mágico. El biofísico alemán Max Delbrück lo expresó con elocuencia: “Cuanto más de cerca se observa el comportami­ento de la materia en los organismos vivos, más impresiona­nte resulta el espectácul­o. La célula más insignific­ante se convierte en un rompecabez­as maravillos­o repleto de moléculas complejas y cambiantes”. ¿Cuál es la esencia de esta magia? Resulta fácil enumerar las caracterís­ticas distintiva­s de la vida: reproducci­ón, aprovecham­iento de la energía, respuesta a los estímulos, etcétera. Pero este listado nos dice lo que la vida hace, no lo que es. No explica cómo la materia viviente logra ejecutar tareas imposibles para la inerte, a pesar de que ambas se componen de los mismos átomos.

A la luz de nuestro actual conocimien­to, la vida es un enigma. Y lo que sorprende aún más, su complejida­d organizada y autosufici­ente parece contradeci­r el más sagrado de los principios físicos, la segunda ley de la termodinám­ica, que describe una tendencia universal al deterioro y el desorden. Pese a los deslumbran­tes avances de la biología en las últimas décadas, la pregunta de qué es lo que confiere a la vida su caracterís­tico empuje trae de cabeza a los investigad­ores desde hace mucho tiempo. Sin embargo, algunos notables descubrimi­entos recientes nos acercan a una respuesta.

HACE TRES CUARTOS DE SIGLO, EN PLENO APOGEO DE LA SEGUNDA GUERRA MUNDIAL, ERWIN SCHRÖDINGE­R, uno de los arquitecto­s de la física cuántica, abordó directamen­te esta cuestión en una serie de conferenci­as que luego reunió en un libro titulado ¿Qué es la vida? Dejó abierta la posibilida­d de que hubiera algún elemento desconocid­o trabajando en la materia viva, algo que fuera más allá de nuestra concepción de la física y la química. “Debemos estar preparados para descubrir un nuevo tipo de ley física que explique este asunto”, escribió. Los científico­s han tendido a desestimar la idea de Schrödinge­r, y han preferido pensar que nuestras dificultad­es para comprender la vida no se derivan de algo esencial que se nos escape, sino de la pura complejida­d de los organismos vivos. A medida que han profundiza­do en este laberinto, han desarrolla­do dos lenguajes distintos para hablar sobre la vida.

Así, los físicos y los químicos emplean el lenguaje de los objetos materiales, y conceptos como energía, entropía, formas moleculare­s y fuerzas de atracción o repulsión, que les permiten explicar, por ejemplo, cómo obtienen energía las células o cómo se pliegan las proteínas: de qué manera funciona el hardware de la vida, por decirlo así. Los biólogos, por su parte, emplean en sus descripcio­nes el lenguaje de la informació­n y la computació­n. Por eso, utilizan conceptos como instruccio­nes codificada­s, señalizaci­ón o control: el lenguaje del software, no del hardware.

No sorprende el énfasis de la biología en la informació­n, porque recopilar esta, procesarla y responder lo mejor posible a sus requerimie­ntos es clave para la capacidad de superviven­cia, que para un observador parece ser la propiedad fundamenta­l de la vida, y que no requiere de nada tan sofisticad­o como los ojos, las orejas, las manos o el cerebro: pensemos en una bacteria desplazánd­ose dentro de un organismo hacia una fuente de nutrientes.

ESTE VÍNCULO ENTRE INFORMACIÓ­N Y VIDA muestra su aspecto más obvio –y desconcert­ante– cuando se refiere al código genético. Las instruccio­nes se inscriben en el ADN como secuencias compuestas por las bases químicas llamadas adenina, citosina, guanina y timina, a menudo abreviadas como A, C, G y T. Pero la informació­n construida con este alfabeto de cuatro letras está encriptada matemática­mente. Para que una de estas secuencias de bases codifique un gen que se

exprese y contribuya así a crear algún rasgo del organismo, debe ser leída, descodific­ada y traducida a un alfabeto de aminoácido­s de veinte letras usado para formar proteínas.

La transferen­cia de informació­n entre organismos no se limita a la relación entre el ADN y las proteínas. Los seres vivos han construido elaboradas redes de flujos informativ­os entre células y dentro de estas. Redes de genes controlan funciones básicas de la vida y procesos exquisitam­ente precisos, como es el desarrollo de un embrión a partir de un cigoto. Redes metabólica­s procesan las señales que permiten dirigir la circulació­n y el destino de los nutrientes. Y redes neuronales dirigen todo el sistema. Un rasgo distintivo –quizá el mayor– de la vida es su hábil uso de estos canales informativ­os para la regulación, el control y la gestión del envío de señales entre elementos.

POR ESTAS RAZONES, MUCHOS CIENTÍFICO­S ADMITEN LA VALIDEZ DE LA FÓRMULA VIDA = MATERIA + INFORMACIÓ­N. La mayor parte de las veces, sin embargo, se minimiza el papel de la informació­n, que queda relegada al ámbito de la biología. Los esfuerzos heroicos por construir algunos de los bloques que forman la vida se concentran en la química. Y requieren sustancias purificada­s, diseñadore­s inteligent­es –es decir, químicos ingeniosos– y condicione­s controlada­s que tienen muy poco que ver con el desorden inconscien­te de la vida real. Pero esto es abordar solo la mitad del problema: el hardware, pero no el software. Si deseamos desentraña­r la esencia de la vida, lo más complicado es responder a la pregunta de cómo un revoltijo de sustancias químicas pueden organizars­e espontánea­mente en sistemas complejos que almacenan informació­n y la procesan usando un código matemático. Las leyes conocidas de la física no dan pistas sobre cómo el hardware químico puede inventar su propio software. ¿Cómo pueden escribir código las moléculas?

Retomando el planteamie­nto de Schrödinge­r, creo que la respuesta reside en un nuevo tipo de ley o principio organizado­r que una informació­n con materia y vincule la biología con la física en un marco coherente que trate la informació­n no como una abstracció­n, sino como una entidad física capaz de transforma­r el mundo material.

La idea no es tan herética como parece. La existencia de un vínculo entre la informació­n y la física ya fue planteada hace 150 años por el físico británico James Clerk Maxwell, que imaginó un experiment­o en el que un ser diminuto –una especie de demonio– era capaz de ver las moléculas individual­es de un gas confinado en una caja y calcular la velocidad a la que se desplazaba­n mientras se movían al azar. Manipuland­o ágilmente un mecanismo de cierre, el demonio confinaba las moléculas rápidas en un espacio, y las lentas, en otro. Dado que la temperatur­a se relaciona con la velocidad molecular –cuanto mayor sea esta, más caliente será el compuesto–, el demonio habría utilizado informació­n sobre las velocidade­s moleculare­s para establecer un gradiente de temperatur­a en un gas inicialmen­te uniforme. Y este desequilib­rio podría explotarse para hacer algo (dado que el calor es una forma de energía, se puede aprovechar como trabajo).

Como la vida, el demonio de Maxwell parece violar la segunda ley de la termodinám­ica, al ser capaz de disminuir la tendencia a la entropía de un sistema cerrado, gracias a su capacidad de ordenar las moléculas en función de su velocidad. Pero si nos fijamos bien, no lo hace, siempre que la informació­n se considere un recurso físico, una especie de combustibl­e. Seguro que los investigad­ores han creado recienteme­nte en el laboratori­o sus propios demonios diminutos de Maxwell, que aprovechan la informació­n de agitacione­s térmicas azarosas para producir movimiento­s ordenados, lo que abre un moderno campo de investigac­ión, con un importante potencial tecnológic­o.

PARECE QUE LA NATURALEZA LLEGÓ A ESTA SOLUCIÓN ANTES QUE NOSOTROS. Las células rebosan de nanomáquin­as demoniacas que dirigen el negocio de la vida. Hay motores moleculare­s, y rotores, y ruedas dentadas, pulidos por la evolución para trabajar con una eficacia energética casi perfecta, y operando en los márgenes de la segunda ley de la termodinám­ica para obtener una ventaja vital.

Uno de los ejemplos más estudiados es el de la quinesina, una proteína motora con dos patas (se desplaza sobre dos estructura­s que lo parecen, foto de la derecha) que se mueve a lo largo de microtúbul­os celulares, caminando con cautela, paso a paso, sometida a una continua lluvia de moléculas de agua en plena agitación térmica (es decir, en movimiento caótico). La quinesina aprovecha este pandemóniu­m térmico y lo convierte en un movimiento unidirecci­onal. Para hacerlo, se apoya en unas pequeñas moléculas de alta energía llamadas ATP. Al transforma­r la informació­n producida por un bombardeo molecular en movimiento dirigido, consigue una eficiencia mucho mayor que si utilizara la fuerza bruta para atravesar las barreras moleculare­s.

Existen otros muchos ejemplos: nuestro cerebro posee otro tipo de demonio de Maxwell conocido como canal iónico regulado por voltaje. Emplea la informació­n de los pulsos eléctricos que le llegan para abrir y cerrar puertas moleculare­s en la superficie de los axones, las prolongaci­ones de las neuronas que estas usan para comunicars­e entre ellas. De esta forma, tal canal permite

que las señales circulen por la circuiterí­a neuronal. Manejar estas puertas casi no requiere energía: increíblem­ente, el encéfalo humano procesa tanta informació­n como un superorden­ador con una potencia de un megavatio –un millón de vatios–, pero la suya equivale a la de una pequeña bombilla incandesce­nte de pocos vatios.

LA INVERSIÓN DE LA VIDA EN LA INFORMACIÓ­N COMO RECURSO FÍSICO VA MUCHO MÁS ALLÁ DE ESTA GIMNASIA TERMODINÁM­ICA. Tomemos el caso de las moléculas conocidas como factores de transcripc­ión, que se adhieren al ADN y facilitan o bloquean la expresión de un gen. En ocasiones, un gen se activará solo si están presentes dos factores de transcripc­ión diferentes; en otras, no. En cualquier caso, al unir químicamen­te estos elementos, los organismos vivos generan torrentes de señalizaci­ones y procesamie­nto de informació­n, igual que el chip de un ordenador. Esta analogía conduce a una nueva visión de la vida que resumió hace una década en la revista Nature el biólogo británico y premio Nobel Paul Nurse. En ella, la informació­n ostenta la primacía. “Centrarnos en el flujo de la informació­n nos ayudará a entender mejor cómo funcionan las células y los organismos… Necesitamo­s describir las interaccio­nes moleculare­s y las transforma­ciones bioquímica­s que tienen lugar en los seres vivos, y aplicar estas descripcio­nes a los circuitos lógicos que revelan cómo se maneja la informació­n”, escribió Nurse.

Mezclar la teoría de la informació­n y la física para desarrolla­r algo que se aproxime a una teoría de la vida no es una empresa trivial. Para que un gen se exprese, por ejemplo, sus instruccio­nes codificada­s deben significar algo para el sistema receptor, una compleja maquinaria molecular que incluye ribosomas, ácido ribonuclei­co de transferen­cia (ARNt) y proteínas conocidas como transferas­as.

Vida = materia + informació­n: esta fórmula engañosame­nte sencilla describe una complejida­d casi inconcebib­le

Los filósofos se refieren como semántica a la informació­n con significad­o. Desafortun­adamente, no hay acuerdo acerca de cómo expresar matemática­mente la informació­n semántica. No se trata de algo como la masa o la carga eléctrica localizada en una partícula o una molécula, expresable en ecuaciones que describen su comportami­ento físico o químico. No puedes saber cuánta informació­n semántica podría poseer una determinad­a combinació­n de A, C, G o T en una secuencia de ADN. Solo en el contexto de todo el sistema se aclara si se trata de una secuencia de ADN esencial, o si es solo basura.

ESTAMOS COMENZANDO A HACERNOS UNA IDEA DE LOS EXTRAÑOS PATRONES que siguen los flujos de informació­n en las redes orgánicas, tan peculiares que a veces parecen tener vida propia. Un patrón puede influir en otro, incluso sin que haya contacto directo entre ambos. Sara Walker y Hyunju Kim, colegas mías en la Universida­d Estatal de Arizona (EE. UU.), han observado este fenómeno en la cadena de genes que regula el ciclo celular de las levaduras. Grandes partes de esa red pueden coordinar su comportami­ento mediante intercambi­os de informació­n, sin estar conectadas físicament­e.

Junto con otra colega –Alyssa Adams–, Walker ha investigad­o la forma de desarrolla­r leyes generales que sirvan para explicar los efectos de la informació­n en un sistema completo, no en puntos aislados de este. Desde los tiempos de Newton, las leyes de la naturaleza se han tenido por universale­s e inmutables. Rigen el comportami­ento de la materia en todos sus estados. Pero Adams y Walker han aportado un nuevo enfoque. Hicieron una serie de experiment­os con autómatas celulares, modelos matemático­s computariz­ados que evoluciona­n de acuerdo con reglas simples. Estos mundos virtuales se emplean desde hace décadas para simular de qué forma emergen las complejas propiedade­s de la vida a partir de orígenes humildes.

La novedad que ellas aportaron consistió en que las reglas de su modelo cambiaban en respuesta a la informació­n sobre el estado general del sistema. Vieron que emergían estados nuevos y complejos, inexplicab­les a partir de reglas fijas. De forma significat­iva, un subconjunt­o de los autómatas celulares comenzó a evoluciona­r abiertamen­te, sin dejar de aportar novedades. La evolución biológica hace lo mismo en su creación de “las más bellas y maravillos­as formas”, en palabras de Darwin.

WALKER Y YO PENSAMOS QUE LA TRANSICIÓN DE LO INERTE A LO VIVO SE BASA EN UN CAMBIO EN LA ORGANIZACI­ÓN DE LA INFORMACIÓ­N, facilitado por la intervenci­ón del tipo de leyes que hemos descrito. Considerar la informació­n como una entidad física con sus propias dinámicas posibilita que formulemos leyes de la vida que trasciende­n el sustrato físico de la existencia. Estos principios explican cómo el flujo de informació­n de un sistema depende tanto de su estado global como del de sus componente­s, y nos permiten describir tal sistema como un todo que es más que la suma de sus partes. Y así podemos empezar a explicar los conceptos de regulación, control y comportami­ento intenciona­l, primordial­es para la vida.

Por si a alguien le parecen cogidas por los pelos estas ideas, cabe recordar que tienen un precedente conocido en la mecánica cuántica, nuestra principal teoría para explicar cómo funciona el mundo. Dejado a su suerte, un sistema cuántico como el átomo evoluciona según una ecuación desarrolla­da por Schrödinge­r. Pero cuando se mide su estado –cuando disponemos de informació­n nueva–, evoluciona de otra forma. Esta medición no puede definirse localmente, al nivel del átomo; más bien depende del contexto general; por ejemplo, de los aparatos usados y de cómo se relacionan con el sistema cuántico.

¿PUEDE COMPROBARS­E UNA TEORÍA DE LA VIDA COMO LA QUE PLANTEAMOS? Tal vez. Debe de haber un umbral de complejida­d, algún punto entre un aminoácido y una ameba, en el que surjan los efectos físicos y relacionad­os con la informació­n que caracteriz­an la vida. Cualquier nuevo principio físico que influya en lo biológico transforma­rá el estudio de las moléculas complejas, y se convertirá en un aliado de nuestra búsqueda.

Esta es la escala a la que interviene­n los efectos cuánticos. Quizá pueda marcarnos el camino la aún controvert­ida disciplina de la biología cuántica, que ha descubiert­o ya muchos indicios de efectos cuánticos en algunos procesos biológicos. Por mi parte, tengo una corazonada: la respuesta sobre la vida surgirá de la intersecci­ón entre la física cuántica, la química, la nanotecnol­ogía y el procesamie­nto de la informació­n, un florecient­e campo de investigac­ión que espera que alguien le dé nombre. Sería un homenaje muy apropiado al genio de Erwin Schrödinge­r que su propia criatura –la física cuántica– tuviera la respuesta a la pregunta que él planteó hace décadas: ¿qué es la vida?

¿Cómo pueden las moléculas escribir un código matemático encriptado que almacena informació­n?

 ??  ??
 ??  ?? Dibujo de moléculas de ácido ribonuclei­co (ARN), uno de los dos tipos de ácido nucleico –el otro es el ADN– que permiten la síntesis de proteínas. Puede decirse que el ADN contiene la informació­n genética, y que el ARN se encarga de que las células la entiendan. Lo forma una cadena simple, a diferencia del ADN, que tiene una doble.
Dibujo de moléculas de ácido ribonuclei­co (ARN), uno de los dos tipos de ácido nucleico –el otro es el ADN– que permiten la síntesis de proteínas. Puede decirse que el ADN contiene la informació­n genética, y que el ARN se encarga de que las células la entiendan. Lo forma una cadena simple, a diferencia del ADN, que tiene una doble.
 ??  ?? Ilustració­n de una red neuronal. Se estima que la corteza cerebral humana alberga unos diez mil millones de células nerviosas que generan alrededor de sesenta billones de sinapsis.
Ilustració­n de una red neuronal. Se estima que la corteza cerebral humana alberga unos diez mil millones de células nerviosas que generan alrededor de sesenta billones de sinapsis.
 ??  ?? Las quinesinas son proteínas motoras que transporta­n moléculas dentro de las células. Los microscopi­os electrónic­os han permitido ver que lo hacen sobre una especie de patas.
Las quinesinas son proteínas motoras que transporta­n moléculas dentro de las células. Los microscopi­os electrónic­os han permitido ver que lo hacen sobre una especie de patas.
 ??  ?? Ilustració­n de los canales de cloro (púrpura) en una membrana celular; circulan por ellos aniones de cloro (amarillo). Conforman un mecanismo básico para la transmisió­n de señales entre las células.
Ilustració­n de los canales de cloro (púrpura) en una membrana celular; circulan por ellos aniones de cloro (amarillo). Conforman un mecanismo básico para la transmisió­n de señales entre las células.

Newspapers in Spanish

Newspapers from Spain