17
3. Biología e Información
Si las características fundamentales de la vida son el metabolismo y la replicación, entonces es evidente la gran importancia de la información en biología.
Como se puede deducir de lo dicho, el grado de precisión para realizar estas tareas es trascendental, por eso la ligadura entre orden y probabilidad debe explicar la alta organización
biológica en contraposición al desorden del mundo abiótico. Ahora bien, el grado de desorden del sistema es la interpretación estadística del concepto de entropía postulado por Boltzman
40
. La teoría de la información de Shannon, que se expondrá en el apartado siguiente, tiene una
estrecha relación con el concepto de entropía. De hecho, el proceso lógico para deducir la ley de Boltzman es equivalente a intercambiar la entropía por la información
41
y la probabilidad del sistema
por la probabilidad matemática que caracteriza la relación entre los casos favorables y los casos posibles.
La teoría de Shannon es una buena herramienta para estimar la cantidad de información contenida en la estructura de las proteínas o de los ácidos nucléicos, aunque el uso de este
concepto de información no agota, ni mucho menos, todas las posibilidades que ofrece la información biológica. De hecho, la literatura científica califica de causal a la información
entendida bajo la teoría de Shannon, es decir, establece una relación entre contingencia y correlación para poder hacer predicciones. Bajo este punto de vista, la información no es
explicativa sino inferencial
42
. Para calcular la información que porta una proteína se necesita saber la frecuencia que
presentan los distintos aminoácidos que la compone y, con este dato, obtener la probabilidad de que un tipo de aminoácido tome una determinada posición en la proteína. De esta forma, se
puede medir el contenido de información por monómero y por lo tanto la información total de la proteína será la suma de los monómeros
43
. La misma idea se sigue para calcular la información contenida en el DNA cambiando el tipo de monómero. No obstante, la medida sintáctica
almacenada en la proteína o en el DNA es menor que la medida con significado, ya que todas las combinaciones posibles no tienen por qué transmitir un mensaje biológico relevante.
Mediante esta técnica, y teniendo en cuenta la dificultad para caracterizar el contenido semántico de la información, se estima que la cantidad de información contenida en el genoma
varía entre
bits. Este problema, que surge al evaluar el contenido semántico, conduce a la revisión del concepto
de información utilizado por Shannon. Una información que, además de predecir, explique cómo los sistemas biológicos son capaces de realizar los procesos naturales.
Hay dos formas de explorar nuevos conceptos de información: 1. Pensar que las estructuras biológicas son portadoras de información semántica por sí
mismas y esta especificidad puede explicar la singularidad de su actuación en los procesos biológicos. Este tipo de orientación nos lleva a explorar conceptos como el de
40
Ver Apéndice VI.
41
Usualmente en unidades de bits.
42
STANFORD Encyclopedia of Philosophy http:plato.stanford.edu
[Consultado por última vez 07092010]
43
GLASER, Roland. Biofísica. [Traducción Félix Royo López y Félix Royo Longás]. Zaragoza: Acribia, 2003.
18 función biológica, esto es, por ejemplo, la función biológica del bronceado es la
protección de los rayos del sol y no la de camuflaje. 2. Utilizar modelos de comportamiento semántico para encontrar relaciones de semejanza
con los sistemas biológicos e intentar demostrar que esas similitudes aportan información. Este sería el camino que toman los programas de diseño computacional de
vida artificial.
19
4. Teoría de la Información y Mecánica Cuántica