Biología e Información

17

3. Biología e Información

Si las características fundamentales de la vida son el metabolismo y la replicación, entonces es evidente la gran importancia de la información en biología. Como se puede deducir de lo dicho, el grado de precisión para realizar estas tareas es trascendental, por eso la ligadura entre orden y probabilidad debe explicar la alta organización biológica en contraposición al desorden del mundo abiótico. Ahora bien, el grado de desorden del sistema es la interpretación estadística del concepto de entropía postulado por Boltzman 40 . La teoría de la información de Shannon, que se expondrá en el apartado siguiente, tiene una estrecha relación con el concepto de entropía. De hecho, el proceso lógico para deducir la ley de Boltzman es equivalente a intercambiar la entropía por la información 41 y la probabilidad del sistema por la probabilidad matemática que caracteriza la relación entre los casos favorables y los casos posibles. La teoría de Shannon es una buena herramienta para estimar la cantidad de información contenida en la estructura de las proteínas o de los ácidos nucléicos, aunque el uso de este concepto de información no agota, ni mucho menos, todas las posibilidades que ofrece la información biológica. De hecho, la literatura científica califica de causal a la información entendida bajo la teoría de Shannon, es decir, establece una relación entre contingencia y correlación para poder hacer predicciones. Bajo este punto de vista, la información no es explicativa sino inferencial 42 . Para calcular la información que porta una proteína se necesita saber la frecuencia que presentan los distintos aminoácidos que la compone y, con este dato, obtener la probabilidad de que un tipo de aminoácido tome una determinada posición en la proteína. De esta forma, se puede medir el contenido de información por monómero y por lo tanto la información total de la proteína será la suma de los monómeros 43 . La misma idea se sigue para calcular la información contenida en el DNA cambiando el tipo de monómero. No obstante, la medida sintáctica almacenada en la proteína o en el DNA es menor que la medida con significado, ya que todas las combinaciones posibles no tienen por qué transmitir un mensaje biológico relevante. Mediante esta técnica, y teniendo en cuenta la dificultad para caracterizar el contenido semántico de la información, se estima que la cantidad de información contenida en el genoma varía entre bits. Este problema, que surge al evaluar el contenido semántico, conduce a la revisión del concepto de información utilizado por Shannon. Una información que, además de predecir, explique cómo los sistemas biológicos son capaces de realizar los procesos naturales. Hay dos formas de explorar nuevos conceptos de información: 1. Pensar que las estructuras biológicas son portadoras de información semántica por sí mismas y esta especificidad puede explicar la singularidad de su actuación en los procesos biológicos. Este tipo de orientación nos lleva a explorar conceptos como el de 40 Ver Apéndice VI. 41 Usualmente en unidades de bits. 42 STANFORD Encyclopedia of Philosophy http:plato.stanford.edu [Consultado por última vez 07092010] 43 GLASER, Roland. Biofísica. [Traducción Félix Royo López y Félix Royo Longás]. Zaragoza: Acribia, 2003. 18 función biológica, esto es, por ejemplo, la función biológica del bronceado es la protección de los rayos del sol y no la de camuflaje. 2. Utilizar modelos de comportamiento semántico para encontrar relaciones de semejanza con los sistemas biológicos e intentar demostrar que esas similitudes aportan información. Este sería el camino que toman los programas de diseño computacional de vida artificial. 19

4. Teoría de la Información y Mecánica Cuántica