¿QUé ES LA VIDA?
En este texto, el científico Paul Davies sostiene que la pregunta sigue sin respuesta, porque obviamos un elemento crucial: la información. Esta permite que un caos de compuestos químicos se organice espontáneamente para crear organismos vivos de increíble complejidad.
Hay algo especial en la vida, casi mágico. El biofísico alemán Max Delbrück lo expresó con elocuencia: “Cuanto más de cerca se observa el comportamiento de la materia en los organismos vivos, más impresionante resulta el espectáculo. La célula más insignificante se convierte en un rompecabezas maravilloso repleto de moléculas complejas y cambiantes”. ¿Cuál es la esencia de esta magia? Resulta fácil enumerar las características distintivas de la vida: reproducción, aprovechamiento de la energía, respuesta a los estímulos, etcétera. Pero este listado nos dice lo que la vida hace, no lo que es. No explica cómo la materia viviente logra ejecutar tareas imposibles para la inerte, a pesar de que ambas se componen de los mismos átomos.
A la luz de nuestro actual conocimiento, la vida es un enigma. Y lo que sorprende aún más, su complejidad organizada y autosuficiente parece contradecir el más sagrado de los principios físicos, la segunda ley de la termodinámica, que describe una tendencia universal al deterioro y el desorden. Pese a los deslumbrantes avances de la biología en las últimas décadas, la pregunta de qué es lo que confiere a la vida su característico empuje trae de cabeza a los investigadores desde hace mucho tiempo. Sin embargo, algunos notables descubrimientos recientes nos acercan a una respuesta.
HACE TRES CUARTOS DE SIGLO, EN PLENO APOGEO DE LA SEGUNDA GUERRA MUNDIAL, ERWIN SCHRÖDINGER, uno de los arquitectos de la física cuántica, abordó directamente esta cuestión en una serie de conferencias que luego reunió en un libro titulado ¿Qué es la vida? Dejó abierta la posibilidad de que hubiera algún elemento desconocido trabajando en la materia viva, algo que fuera más allá de nuestra concepción de la física y la química. “Debemos estar preparados para descubrir un nuevo tipo de ley física que explique este asunto”, escribió. Los científicos han tendido a desestimar la idea de Schrödinger, y han preferido pensar que nuestras dificultades para comprender la vida no se derivan de algo esencial que se nos escape, sino de la pura complejidad de los organismos vivos. A medida que han profundizado en este laberinto, han desarrollado dos lenguajes distintos para hablar sobre la vida.
Así, los físicos y los químicos emplean el lenguaje de los objetos materiales, y conceptos como energía, entropía, formas moleculares y fuerzas de atracción o repulsión, que les permiten explicar, por ejemplo, cómo obtienen energía las células o cómo se pliegan las proteínas: de qué manera funciona el hardware de la vida, por decirlo así. Los biólogos, por su parte, emplean en sus descripciones el lenguaje de la información y la computación. Por eso, utilizan conceptos como instrucciones codificadas, señalización o control: el lenguaje del software, no del hardware.
No sorprende el énfasis de la biología en la información, porque recopilar esta, procesarla y responder lo mejor posible a sus requerimientos es clave para la capacidad de supervivencia, que para un observador parece ser la propiedad fundamental de la vida, y que no requiere de nada tan sofisticado como los ojos, las orejas, las manos o el cerebro: pensemos en una bacteria desplazándose dentro de un organismo hacia una fuente de nutrientes.
ESTE VÍNCULO ENTRE INFORMACIÓN Y VIDA muestra su aspecto más obvio –y desconcertante– cuando se refiere al código genético. Las instrucciones se inscriben en el ADN como secuencias compuestas por las bases químicas llamadas adenina, citosina, guanina y timina, a menudo abreviadas como A, C, G y T. Pero la información construida con este alfabeto de cuatro letras está encriptada matemáticamente. Para que una de estas secuencias de bases codifique un gen que se
exprese y contribuya así a crear algún rasgo del organismo, debe ser leída, descodificada y traducida a un alfabeto de aminoácidos de veinte letras usado para formar proteínas.
La transferencia de información entre organismos no se limita a la relación entre el ADN y las proteínas. Los seres vivos han construido elaboradas redes de flujos informativos entre células y dentro de estas. Redes de genes controlan funciones básicas de la vida y procesos exquisitamente precisos, como es el desarrollo de un embrión a partir de un cigoto. Redes metabólicas procesan las señales que permiten dirigir la circulación y el destino de los nutrientes. Y redes neuronales dirigen todo el sistema. Un rasgo distintivo –quizá el mayor– de la vida es su hábil uso de estos canales informativos para la regulación, el control y la gestión del envío de señales entre elementos.
POR ESTAS RAZONES, MUCHOS CIENTÍFICOS ADMITEN LA VALIDEZ DE LA FÓRMULA VIDA = MATERIA + INFORMACIÓN. La mayor parte de las veces, sin embargo, se minimiza el papel de la información, que queda relegada al ámbito de la biología. Los esfuerzos heroicos por construir algunos de los bloques que forman la vida se concentran en la química. Y requieren sustancias purificadas, diseñadores inteligentes –es decir, químicos ingeniosos– y condiciones controladas que tienen muy poco que ver con el desorden inconsciente de la vida real. Pero esto es abordar solo la mitad del problema: el hardware, pero no el software. Si deseamos desentrañar la esencia de la vida, lo más complicado es responder a la pregunta de cómo un revoltijo de sustancias químicas pueden organizarse espontáneamente en sistemas complejos que almacenan información y la procesan usando un código matemático. Las leyes conocidas de la física no dan pistas sobre cómo el hardware químico puede inventar su propio software. ¿Cómo pueden escribir código las moléculas?
Retomando el planteamiento de Schrödinger, creo que la respuesta reside en un nuevo tipo de ley o principio organizador que una información con materia y vincule la biología con la física en un marco coherente que trate la información no como una abstracción, sino como una entidad física capaz de transformar el mundo material.
La idea no es tan herética como parece. La existencia de un vínculo entre la información y la física ya fue planteada hace 150 años por el físico británico James Clerk Maxwell, que imaginó un experimento en el que un ser diminuto –una especie de demonio– era capaz de ver las moléculas individuales de un gas confinado en una caja y calcular la velocidad a la que se desplazaban mientras se movían al azar. Manipulando ágilmente un mecanismo de cierre, el demonio confinaba las moléculas rápidas en un espacio, y las lentas, en otro. Dado que la temperatura se relaciona con la velocidad molecular –cuanto mayor sea esta, más caliente será el compuesto–, el demonio habría utilizado información sobre las velocidades moleculares para establecer un gradiente de temperatura en un gas inicialmente uniforme. Y este desequilibrio podría explotarse para hacer algo (dado que el calor es una forma de energía, se puede aprovechar como trabajo).
Como la vida, el demonio de Maxwell parece violar la segunda ley de la termodinámica, al ser capaz de disminuir la tendencia a la entropía de un sistema cerrado, gracias a su capacidad de ordenar las moléculas en función de su velocidad. Pero si nos fijamos bien, no lo hace, siempre que la información se considere un recurso físico, una especie de combustible. Seguro que los investigadores han creado recientemente en el laboratorio sus propios demonios diminutos de Maxwell, que aprovechan la información de agitaciones térmicas azarosas para producir movimientos ordenados, lo que abre un moderno campo de investigación, con un importante potencial tecnológico.
PARECE QUE LA NATURALEZA LLEGÓ A ESTA SOLUCIÓN ANTES QUE NOSOTROS. Las células rebosan de nanomáquinas demoniacas que dirigen el negocio de la vida. Hay motores moleculares, y rotores, y ruedas dentadas, pulidos por la evolución para trabajar con una eficacia energética casi perfecta, y operando en los márgenes de la segunda ley de la termodinámica para obtener una ventaja vital.
Uno de los ejemplos más estudiados es el de la quinesina, una proteína motora con dos patas (se desplaza sobre dos estructuras que lo parecen, foto de la derecha) que se mueve a lo largo de microtúbulos celulares, caminando con cautela, paso a paso, sometida a una continua lluvia de moléculas de agua en plena agitación térmica (es decir, en movimiento caótico). La quinesina aprovecha este pandemónium térmico y lo convierte en un movimiento unidireccional. Para hacerlo, se apoya en unas pequeñas moléculas de alta energía llamadas ATP. Al transformar la información producida por un bombardeo molecular en movimiento dirigido, consigue una eficiencia mucho mayor que si utilizara la fuerza bruta para atravesar las barreras moleculares.
Existen otros muchos ejemplos: nuestro cerebro posee otro tipo de demonio de Maxwell conocido como canal iónico regulado por voltaje. Emplea la información de los pulsos eléctricos que le llegan para abrir y cerrar puertas moleculares en la superficie de los axones, las prolongaciones de las neuronas que estas usan para comunicarse entre ellas. De esta forma, tal canal permite
que las señales circulen por la circuitería neuronal. Manejar estas puertas casi no requiere energía: increíblemente, el encéfalo humano procesa tanta información como un superordenador con una potencia de un megavatio –un millón de vatios–, pero la suya equivale a la de una pequeña bombilla incandescente de pocos vatios.
LA INVERSIÓN DE LA VIDA EN LA INFORMACIÓN COMO RECURSO FÍSICO VA MUCHO MÁS ALLÁ DE ESTA GIMNASIA TERMODINÁMICA. Tomemos el caso de las moléculas conocidas como factores de transcripción, que se adhieren al ADN y facilitan o bloquean la expresión de un gen. En ocasiones, un gen se activará solo si están presentes dos factores de transcripción diferentes; en otras, no. En cualquier caso, al unir químicamente estos elementos, los organismos vivos generan torrentes de señalizaciones y procesamiento de información, igual que el chip de un ordenador. Esta analogía conduce a una nueva visión de la vida que resumió hace una década en la revista Nature el biólogo británico y premio Nobel Paul Nurse. En ella, la información ostenta la primacía. “Centrarnos en el flujo de la información nos ayudará a entender mejor cómo funcionan las células y los organismos… Necesitamos describir las interacciones moleculares y las transformaciones bioquímicas que tienen lugar en los seres vivos, y aplicar estas descripciones a los circuitos lógicos que revelan cómo se maneja la información”, escribió Nurse.
Mezclar la teoría de la información y la física para desarrollar algo que se aproxime a una teoría de la vida no es una empresa trivial. Para que un gen se exprese, por ejemplo, sus instrucciones codificadas deben significar algo para el sistema receptor, una compleja maquinaria molecular que incluye ribosomas, ácido ribonucleico de transferencia (ARNt) y proteínas conocidas como transferasas.
Vida = materia + información: esta fórmula engañosamente sencilla describe una complejidad casi inconcebible
Los filósofos se refieren como semántica a la información con significado. Desafortunadamente, no hay acuerdo acerca de cómo expresar matemáticamente la información semántica. No se trata de algo como la masa o la carga eléctrica localizada en una partícula o una molécula, expresable en ecuaciones que describen su comportamiento físico o químico. No puedes saber cuánta información semántica podría poseer una determinada combinación de A, C, G o T en una secuencia de ADN. Solo en el contexto de todo el sistema se aclara si se trata de una secuencia de ADN esencial, o si es solo basura.
ESTAMOS COMENZANDO A HACERNOS UNA IDEA DE LOS EXTRAÑOS PATRONES que siguen los flujos de información en las redes orgánicas, tan peculiares que a veces parecen tener vida propia. Un patrón puede influir en otro, incluso sin que haya contacto directo entre ambos. Sara Walker y Hyunju Kim, colegas mías en la Universidad Estatal de Arizona (EE. UU.), han observado este fenómeno en la cadena de genes que regula el ciclo celular de las levaduras. Grandes partes de esa red pueden coordinar su comportamiento mediante intercambios de información, sin estar conectadas físicamente.
Junto con otra colega –Alyssa Adams–, Walker ha investigado la forma de desarrollar leyes generales que sirvan para explicar los efectos de la información en un sistema completo, no en puntos aislados de este. Desde los tiempos de Newton, las leyes de la naturaleza se han tenido por universales e inmutables. Rigen el comportamiento de la materia en todos sus estados. Pero Adams y Walker han aportado un nuevo enfoque. Hicieron una serie de experimentos con autómatas celulares, modelos matemáticos computarizados que evolucionan de acuerdo con reglas simples. Estos mundos virtuales se emplean desde hace décadas para simular de qué forma emergen las complejas propiedades de la vida a partir de orígenes humildes.
La novedad que ellas aportaron consistió en que las reglas de su modelo cambiaban en respuesta a la información sobre el estado general del sistema. Vieron que emergían estados nuevos y complejos, inexplicables a partir de reglas fijas. De forma significativa, un subconjunto de los autómatas celulares comenzó a evolucionar abiertamente, sin dejar de aportar novedades. La evolución biológica hace lo mismo en su creación de “las más bellas y maravillosas formas”, en palabras de Darwin.
WALKER Y YO PENSAMOS QUE LA TRANSICIÓN DE LO INERTE A LO VIVO SE BASA EN UN CAMBIO EN LA ORGANIZACIÓN DE LA INFORMACIÓN, facilitado por la intervención del tipo de leyes que hemos descrito. Considerar la información como una entidad física con sus propias dinámicas posibilita que formulemos leyes de la vida que trascienden el sustrato físico de la existencia. Estos principios explican cómo el flujo de información de un sistema depende tanto de su estado global como del de sus componentes, y nos permiten describir tal sistema como un todo que es más que la suma de sus partes. Y así podemos empezar a explicar los conceptos de regulación, control y comportamiento intencional, primordiales para la vida.
Por si a alguien le parecen cogidas por los pelos estas ideas, cabe recordar que tienen un precedente conocido en la mecánica cuántica, nuestra principal teoría para explicar cómo funciona el mundo. Dejado a su suerte, un sistema cuántico como el átomo evoluciona según una ecuación desarrollada por Schrödinger. Pero cuando se mide su estado –cuando disponemos de información nueva–, evoluciona de otra forma. Esta medición no puede definirse localmente, al nivel del átomo; más bien depende del contexto general; por ejemplo, de los aparatos usados y de cómo se relacionan con el sistema cuántico.
¿PUEDE COMPROBARSE UNA TEORÍA DE LA VIDA COMO LA QUE PLANTEAMOS? Tal vez. Debe de haber un umbral de complejidad, algún punto entre un aminoácido y una ameba, en el que surjan los efectos físicos y relacionados con la información que caracterizan la vida. Cualquier nuevo principio físico que influya en lo biológico transformará el estudio de las moléculas complejas, y se convertirá en un aliado de nuestra búsqueda.
Esta es la escala a la que intervienen los efectos cuánticos. Quizá pueda marcarnos el camino la aún controvertida disciplina de la biología cuántica, que ha descubierto ya muchos indicios de efectos cuánticos en algunos procesos biológicos. Por mi parte, tengo una corazonada: la respuesta sobre la vida surgirá de la intersección entre la física cuántica, la química, la nanotecnología y el procesamiento de la información, un floreciente campo de investigación que espera que alguien le dé nombre. Sería un homenaje muy apropiado al genio de Erwin Schrödinger que su propia criatura –la física cuántica– tuviera la respuesta a la pregunta que él planteó hace décadas: ¿qué es la vida?
¿Cómo pueden las moléculas escribir un código matemático encriptado que almacena información?