Tema: Biologia
Determinismo: Una visión histórica
Autor: Adrián Gerald McNicholl
Fuente: Genética, Individuo y Sociedad. Universidad Autónoma de Madrid.
RESUMEN
A lo largo de la Historia del Conocimiento los filósofos han debatido sobre la Naturaleza Humana y sobre la motivación del comportamiento. Este tema ha sido muy controvertido por las implicaciones éticas y políticas que tiene. Con el desarrollo de la física Newtoniana se expandieron las teorías deterministas sobre el mundo, y este determinismo pronto alcanzó el estudio del comportamiento humano. La aparición de las teorías darvinistas a mediados del siglo XIX y los primeros descubrimientos en el campo de la genética provocaron la hegemonía de las máximas del Determinismo Biológico y, en especial, el Genético. Los nuevos descubrimientos en la Genética, así como los últimos avances dentro de los paradigmas de sistemas complejos y caos, han supuesto un duro revés a estas teorías. Sin embargo, siguen instauradas en la creencia de muchos como ‘verdades, científicamente probadas’.
INTRODUCCIÓN
Este texto se refiere a una idea compleja, la del determinismo, que ya fue adelantada por Demócrito en el siglo IV a.c. en su teoría sobre el atomismo. Pero tomó su acepción actual en el siglo XIX, tras haber sido perfeccionada por filósofos como Hobbes y Spinoza (1 y 2). Fue también en el siglo XIX cuando el determinismo ganó fuerza gracias a las teorías de Laplace y a la revolución Newtoniana que había ocurrido un siglo antes (2, 3 y 4). Existen varias definiciones de Determinismo, y para esta pequeña introducción vamos a utilizar una muy genérica, aunque posteriormente vamos a centrarnos en el Determinismo Genético.
El mundo esta gobernado por determinismo si, y solo si, dada una manera específica en que las cosas son en un momento t, la manera en que las cosas serán después está fijada mediante Ley Natural (5) (definición de Carl Hoefer).
HISTORIA DEL DETERMINISMO
El determinismo, surge en gran medida a la par que la idea de que todo puede ser explicado por la ciencia, idea que se expandió con gran popularidad con las teorías de Newton y que después no ha hecho más que crecer con cada descubrimiento científico. Estas dos ideas están regidas bajo el principio de causalidad, el determinismo afirma la condición causal y universal de todos los fenómenos. Bajo este principio, si se conoce el estado inicial y las leyes de la naturaleza, y siendo el sistema cerrado, se podría predecir el estado final tras un tiempo t. Este principio básico para el desarrollo de la ciencia es el que expone Laplace en su Ensayo filosófico sobre las probabilidades (1814):
“Tenemos que reconocer el estado actual del universo como el efecto de su estado antecedente y como causa del estado que le va a seguir. Si concebimos una inteligencia que en un instante determinado abarca todas las relaciones entre todos los entes del universo, una inteligencia lo suficientemente amplia que permitiera someter estos datos al análisis; ésta podría establecer las posiciones respectivas, el movimiento y las propiedades generales de todos estos entes, desde los mayores cuerpos del universo al menor de los átomos; para ella nada sería incierto y el futuro así como el pasado estarían presentes ante sus ojos” (6)
El determinismo de Laplace, también llamado determinismo mecanicista, era un determinismo metafísico, absoluto, es decir que afectaba a todas las cosas del Universo(2). Para muchos autores este determinismo absoluto conlleva al fatalismo, el pensamiento según el cual, en el mundo y en la vida humana, todo se encuentra predeterminado por el destino o los hados(7). Esta confusión entre determinismo absoluto y fatalismo ha surgido en muchos lugares a lo largo de la historia y ha sido una de las principales objeciones a éste. Sin embargo la existencia de una ley natural de causa-efecto no tiene intencionalidad en forma de deseo o plan divino(5) por lo que se han de separar claramente ambas teorías, la causal y la teleológica.
Aparte del determinismo absoluto existe también el determinismo metodológico, que difiere del absoluto en que enlaza los datos obtenidos, la teoría y las propiedades de los fenómenos y no infiere una ley lógica, holística y atemporal para todo el universo(2). Es decir, es la causalidad práctica o concreta. El método científico es un claro ejemplo de determinismo experimental o metodológico. Los científicos trabajan sobre la base de que las inferencias causa-efecto que realizan de acuerdo a las observaciones y experimentos siguen el principio de determinación, sin el cual no serían capaces de desarrollar ninguna teoría explicativa. Menos aún se podría intentar predecir resultados de experimentos futuros ni desarrollar aplicaciones prácticas con posibles beneficios para la sociedad. En todo experimento en el que haya una alteración del proceso, el medio o el organismo se está aceptando implícitamente la causalidad, “si yo añado el factor X ocurre Y, por lo que X es Causa de Y”. Esto no significa, ni mucho menos, que todos los científicos crean o acepten el principio de Determinismo Absoluto. Al contrario, no parece si quiera que el Determinismo Absoluto sea del interés de la mayoría del mundo científico. Es bastante probable que muchos hayan incluso eludido discutir (y/o pensar sobre) el tema.
LA SUPERVIVENCIA DEL DETERMINISMO
Pero el determinismo encontró su más grave obstáculo teórico con el cambio de paradigma en la física, cuando las teorías de la mecánica cuántica hicieron su aparición de una forma kuhniana: como el principio de indeterminación de Heisenberg que ha sido utilizado como argumento contra todo el Determinismo, según el cual no es posible obtener al mismo tiempo dos medidas conjugadas (p.e. posición y velocidad de una partícula) debido a la incidencia de los procedimientos del método de observación sobre el objeto observado(2 y 3). Pero al contrario, el principio de indeterminación no excluye un principio Metafísico de Determinación, simplemente niega que pueda llegar a ser conocido el estado inicial con absoluta certeza. Es decir, niega la determinación metodológica en la física cuántica.
Por extensión, debido a que los campos que las ciencias estudian se solapan, se podría decir que, como mínimo, existiría en toda ciencia un pequeño error de cálculo sobre el estado estudiado, que en los procesos predictivos es el estado inicial(8). Si el desarrollo del error desde el estado inicial al estado final fuese nulo, es decir que el grado de error se mantuviese o cambiase poco, el problema de la predecibilidad estaría solucionado. Pero por desgracia (o por suerte) la gran mayoría de sistemas no funcionan de manera lineal, o como lo explicó mucho mejor Poincaré en Ciencia y Método (1908):
“Una pequeña causa, que apenas percibimos, determina un gran efecto que no pasa desapercibido, y entonces decimos que el efecto se debe al azar. Si pudiéramos conocer con exactitud las leyes de la naturaleza y la situación del universo en el instante inicial, podríamos predecir exactamente la situación del mismo universo en un instante posterior. Pero, incluso en el caso de que las leyes naturales no tuviesen secretos, sólo podríamos conocer las condiciones iniciales de modo aproximado. Si eso nos permitiese predecir la situación posterior con el mismo grado de aproximación, no haría falta más, diríamos que el fenómeno se predijo y que está regido por las leyes. Pero no siempre sucede así; puede ocurrir que pequeñas diferencias en las condiciones iniciales produzcan diferencias muy grandes en el fenómeno último; un pequeño error en las primeras se convertiría en uno enorme en el último. Se hace imposible predecir y tenemos un fenómeno fortuito”.
El párrafo anterior es una declaración de uno de los principios básicos de la teoría del caos, aunque fuese escrito más de medio siglo antes de la formulación de la teoría como tal. El ejemplo más usado para explicar esta teoría es la Mesa de Billar, en la que tenemos una mesa de billar ‘ideal’ con un obstáculo convexo circular en el centro. Si golpeamos dos bolas de billar desde el mismo punto de origen, pero con ángulos de dirección que difieren en poco (una milésima de grado por ejemplo), cada vez que las bolas golpean en el obstáculo la dirección de ambas se haría más distinta, llegando, al pasar un tiempo t largo, a ser completamente diferentes como se muestra en la figura de esta misma página. La posición de una bola no nos ayudaría a predecir la posición de la otra(5 y 8).
Los sistemas caóticos cuando son observados de cierta manera pueden parecer modelos azarosos. Supongamos que solo viésemos fotografías separadas en el tiempo del movimiento en el tablero de billar. La colocación de las bolas en el tablero parecería seguir un modelo azaroso, sin embargo al aumentar la precisión (reducir el tiempo entre fotogramas por ejemplo) podríamos llegar a observar el movimiento de tal manera que a nadie le parecería producto del azar, sino de leyes de causalidad determinista. El modelo expuesto es un modelo de caos muy simple, cada nuevo obstáculo, o cada nuevo dato que intervenga hará la trayectoria más impredecible, es decir parecerá más “azarosa”.
SISTEMAS COMPLEJOS
Uno de los últimos avances en filosofía científica con los que el Determinismo se ha enfrentado es la Teoría de Sistemas Complejos, muy relacionada con las escuelas filosóficas estructuralistas de mediados del siglo XX. Esta teoría considera que las partículas (moléculas, células, organismos etc.) que pertenecen a un sistema tienen estrecha relación con las demás partículas que participan de ese sistema, y que las propiedades del sistema no son solo la suma de las propiedades de las partes que lo forman. En este modelo, las partículas individuales no pueden ser entendidas salvo si lo son en su relación con las demás.
Las características que definen a estos sistemas son las propiedades emergentes y la autoorganización. Para entender los Sistemas Complejos es necesario comprender varias ideas principales; la retroalimentación, la sinergia, las ya mencionadas propiedades emergentes etc. Este modelo supone una revolución en la filosofía en general y en la ciencia en particular, porque obliga a cambiar la forma de abordar el estudio del mundo. El mundo ya no es un simple sumatorio de partículas con propiedades individuales que suman una propiedad general, sino que es un sistema de interrelaciones que en muchos casos aumentan el grado de complejidad geométricamente al aumentar el número de partes del sistema aritméticamente.
Entendemos como sinergia la acción conjunta de dos o más fuerzas sobre el objeto estudiado, resultando en un efecto difícilmente comprensible con el estudio de una sola de las fuerzas. Es decir, el efecto del conjunto de fuerzas es superior a la suma de los efectos de cada una de ellas(9). Retroalimentación es la fuerza que ejerce el Efecto sobre el Agente Causante. En la retroalimentación lineal se reconocen dos tipos, la negativa que reduce la fuerza causante y la positiva que la aumenta. Por supuesto hay que entender que esta nueva fuerza ejercida por el efecto puede sumarse e interaccionar con otras fuerzas elevando el sistema a un grado mayor de complejidad.
Las propiedades emergentes son tal vez las características más enigmáticas de los sistemas puesto que son la formación de una propiedad nueva, que no existía con anterioridad en el sistema, debido a la interacción entre las partes. Es diferente de la sinergia, puesto que ésta solo implica un salto cuantitativo (2+2 = 5) mientras que la emergencia implica un salto cualitativo (sistema neuronal que da lugar al pensamiento aunque no se cree que cada neurona aislada piense).
Estos saltos cualitativos crean lo que podríamos llamar niveles de organización o niveles del sistema. Es un modelo jerárquico, en el que cada piso superior es el sistema complejo auto-organizativo creado por las propiedades emergentes de niveles inferiores. Cada nivel parece funcionar de manera autónoma con respecto a los escalones superiores e inferiores ya que parece seguir inercias propias no relacionadas con los procesos que ocurren en su sustrato o nivel inferior. Pero como ya se ha explicado antes las propiedades emergentes dependen de las interacciones del sistema complejo por lo que, aunque no sea perceptible a simple vista, un nivel superior se ve afectado por su nivel sustrato.
No hay que olvidar que las fuerzas no son nunca unidireccionales por lo que, en tanto que el nivel inferior influye al superior, las interacciones también han de ser descendentes. Nos encontramos un modelo en el que ya no solo es muy difícil comprender como actúa cada nivel por separado sino que es aún más difícil entender como se relacionan los distintos niveles entre si.
Si intentamos ver el sistema en su conjunto con todas estas características, es fácil comprender que nos enfrentamos a modelos multifactoriales, no lineales, en los que una pequeña variación en una partícula o fuerza produciría un resultado completamente distinto al original dentro del mismo nivel, y en todos los demás niveles del sistema. A veces los cambios serían imperceptibles durante un tiempo, y luego tendrían un efecto en explosión, otras veces crearían procesos cíclicos o procesos de estabilidad continuada. Es decir, sería imposible predecir con total seguridad como va a responder el sistema a la intromisión.
El Principio de Indeterminación, la Teoría del Caos y los Modelos de Sistemas Complejos, muestran la no predecibilidad de los modelos deterministas, sin anular el principio de determinación absoluta.
LA SOCIEDAD Y LOS PARADIGMAS
» Si me hubieran hecho objeto sería objetivo, pero me hicieron sujeto”»
[José Bergamín, escritor]
Todo lo expuesto hasta ahora ha de llevar al establecimiento de un nuevo paradigma, el de máxima complejidad, en el que los científicos dejarán de intentar simplificar el mundo, para intentar verlo como de verdad es aunque sea un mundo extremadamente complejo.
Este nuevo paradigma de la ciencia, choca de pleno con uno de los axiomas más importantes del método científico: La Navaja de Ockham, según el cual se ha de utilizar como cierta aquella explicación que, sin contradecir los datos experimentales, es más sencilla. Este principio ayudó en gran manera al ‘avance’ de la ciencia puesto que ha permitido el desarrollo de aplicaciones prácticas para la sociedad. El problema surge cuando los modelos simples se consideran Verdad en estado puro y se convierten en Dogma, es decir el Reduccionismo radical.
Es interesante comprender que la Ciencia es una parte de la ideología social en cada momento, que existe una retroalimentación entre las ideas políticas y científicas de una época(10). Los sistemas sociales intentan buscar explicaciones que los sustenten y que sean fácilmente comprensibles para la población, para eso las ideas científicas o filosóficas no pueden entrar en contradicción con las formas de pensar que han surgido de la estructura social. Por ejemplo la teoría de la evolución (frente al fijismo creacionista) necesitó esperar la creación de un paradigma que se apoyase del modelo social preexistente, en este caso fue la selección natural, que se apoyó en la visión competitiva y maltusiana de la sociedad vigente tanto entonces como ahora. (11)
La Ciencia no descubre la realidad en si misma sino que crea teorías y modelos que se ajustan a esa realidad(10), esto nos permite hacer predicciones y elaborar tecnologías. De acuerdo a esta forma de entender la ciencia la Navaja de Ockham ha sido un instrumento muy útil puesto que ha ayudado a crear cuerpos de conocimiento compactos y fáciles de entender. Pero ha llegado el momento de que el método no sea más importante que la realidad y de que la ciencia salga fuera de las leyes simplificadoras del comercio y mayor beneficio. Tal vez es justo ahora cuando los integrantes del mundo científico han de decidir entre ser filósofos o ingenieros. Pero para esto se ha de cambiar de pleno no solo las ideas científicas sino cambiar también todo el organigrama y las relaciones de poder, es decir el status quo. Tal vez deberíamos ir empezando por ser mas sinceros y humildes y reconocer nuestros propios errores e incapacidades.
ESENCIA NATURAL O EXISTENCIA SOCIAL
Desde el comienzo de la filosofía siempre han surgido teorías que han visto al ser humano como parte de la naturaleza circundante, estas visiones se hicieron mucho más fuertes desde el surgimiento de las teorías evolucionistas, en especial con El Origen de las Especies de Darwin, hace ya más de 150 años.
La idea de “natural” siempre ha estado cargada de sentido moral, a su favor o en su contra. Lo natural como lo bueno y lo deseable, lo que es y ha de ser, lo inevitable. Pero también lo natural como lo primitivo, lo inútil, lo reaccionario, de donde el humano escapó. Actualmente lo natural se ve a la vez con todas estas connotaciones, dependiendo de a que nos refiramos, pero tal vez una de las más fuertes, en especial desde los avances genéticos, ha sido la de inevitabilidad de lo natural. Somos lo que la naturaleza nos hace ser. Es otro de los grandes debates de la historia de la filosofía, “Nature vs Nurture” o “Esencialismo vs Existencialismo” (12).
Se podría decir que las teorías naturales o esencialistas proponen que el ser humano esta forjado tal y como es antes del nacimiento, son teorías fijistas que normalmente niegan la posibilidad de cambio de las personas, la rectificación, etc. Las teorías existencialistas consideran que la existencia precede a la esencia, es decir que somos lo que la vida nos ha hecho ser. Vulgarmente conocida como la ‘teoría de la hoja en blanco’ lo que propone es que son nuestras experiencias las que conforman nuestra personalidad y nuestra ideología(3 y 4).
El máximo exponente del existencialismo es Sartre, a mediados del siglo XX el ambiente de revolución social y cultural de aquella época llevo a la rápida expansión de estas ideas, en especial entre la gente joven e intelectuales de izquierdas. Cuando los movimientos sociales fueron perdiendo fuerza y sus integrantes pasaron a ser media burguesía capitalista la idea fue perdiendo su impacto hasta ser prácticamente abandonada. Esto último merece una pequeña explicación, el capitalismo ha de, en cierto modo, mostrarse como un sistema justo para ser moralmente aceptado por la población. Ha de utilizar los engaños de ‘igualdad de oportunidades’ y meritocracia que se desmoronarían completamente si la cualidad de la persona dependiera de su crianza, ya que entonces los hijos de familias adineradas tendrían mejores posibilidades y resultados que el resto de la población(13). Ya comentaba Marx que la ideología de una sociedad era aquella de la clase dominante y esta claro que el existencialismo no beneficia el sistema imperante(14).
En la actualidad, en las sociedades occidentales, se ha optado por el camino intermedio, es decir algunos rasgos están definidos antes de nacer y otros son resultado de contingencias en nuestro desarrollo social (siempre afectadas por una ‘potencialidad natural’). El problema es que con el tiempo cada vez más rasgos son incluidos dentro del grupo naturalmente determinado(15). Antiguamente lo determinado se reducía principalmente a caracteres físicos como el color de la piel, los ojos, la altura, etc. Pero poco a poco el supuesto poder de la genética ha ido abriendo en la conciencia social una brecha por la que poder introducir la idea de que los factores realmente importantes como son los de la personalidad están también influidos, sino determinados, por el patrimonio genético(16 y 17).
COMPATIBILISMO
Los científicos y filósofos que si que han discutido sobre el tema del determinismo han tenido que enfrentarse a sus propios temores, ¿qué ocurriría si de verdad no existe la libertad de elección? ¿qué supondría a nivel moral y ético? ¿Podrían los seres humanos soportar esa no-importancia de sus vidas? Frente a estas grandes preguntas, que no estamos preparados a asimilar, el mundo conceptual creó la idea de Compatibilismo, que propone que sí puede existir causalidad y determinismo pero a su vez existir el Libre Albedrío. Según el compatibilismo, la Libertad de Acción existe en tanto que somos agentes activos que toman decisiones; “podríamos parar de leer este párrafo o continuar leyendo”, según las teorías compatibilistas nada nos obliga en un sentido o en otro(18). Sin embargo, toda elección entre modos alternativo de acción está basada en la capacidad de prever las consecuencias de las acciones propias. Esta capacidad esta íntimamente relacionada con las experiencias propias de los sujetos, con su memoria(19). Por tanto la primera elección que un ser humano hace esta basada en la experiencia vivida con anterioridad y las consecutivas lo están en ésta, lo que anula totalmente la posibilidad de compatibilidad entre determinismo y Libre Albedrío.
Existe otro tipo de compatibilismo, el religioso, que propone un alma exterior al mundo que es introducida por un Dios o Ser Supremo. Esta teoría también tiene un fallo de concepción, puesto que este alma o es creada y por tanto determinada por Dios o es una hoja en blanco y la determina su experiencia. Por tanto no parece existir un marco teórico que sea capaz de explicar a la vez el determinismo y la libertad de acción.
DETERMINISMO GENÉTICO
Puesto que es la teoría más aceptada en la actualidad sobre la determinación de todos los rasgos de la vida, se va a explicar con mayor detalle en que se basa el determinismo genético. El determinismo genético es un sistema de creencias que considera los genes como la causa de todo el desarrollo biológico de un individuo. Una definición de Determinismo Genético aplicado al ser humano podría ser:
Los genes determinan quienes somos a todos los niveles del Ser: físico, emocional y comportamental(20)
O, haciendo un pequeño intento de mezclar las ideas de distintos autores, si sustituimos en la definición de Hoeffer que dábamos al principio sobre determinismo:
El ser Humano está gobernado por determinismo genético si, y solo si, dada una secuencia específica de su ADN en el momento de la fecundación (momento t), la manera en que el ser humano será después está fijada únicamente mediante Principios Genéticos.
Es decir, si supiésemos lo suficiente sobre los genes podríamos entender y conocer toda la biología. Entonces, para que esta proposición sea real, se ha de constatar que existen unos principios genéticos que determinan de manera directa el desarrollo y comportamiento del individuo. Actualmente pocos autores claman un determinismo genético absoluto, pero la importancia que se le da varia desde una fuerza de incidencia de los genes, según autores o según rasgos estudiados, de aproximadamente el 90% a una cercana a cero.
Existen tres tipos principales de determinismo genético basados en la forma de los genes de determinar el carácter o comportamiento. Fijación génica; los genes de los padres determinan inevitablemente las características de los hijos (o sphexishness ). Capacidad innata; cada individuo tiene un potencial máximo y en ambientes ricos cada individuo llegará a ese máximo al no existir limitantes ambientales, el potencial máximo varía entre individuos y entre subpoblaciones. Variación estadística; es la que hemos comentado antes que trata de la incidencia o importancia relativa de los genes para cada carácter, se suele describir en el porcentaje de un rasgo que se debe a los genes (20).
El problema del Determinismo génico es que es realmente complicado probar su certeza y, hasta hace poco tiempo, era realmente difícil falsarlo. Al final siempre se llegaba al mismo callejón sin salida, ¿Creemos o no que existe tal determinismo? Normalmente el determinismo se debate punto por punto, es decir cada carácter por separado, lo que lleva a una guerra ganada desde el principio por el determinismo, puesto que siempre queda la escapatoria de decir que en el rasgo discutido no hay determinismo claro pero en los demás si. Algunos de los rasgos más discutidos han sido el C.I., la criminalidad, esquizofrenia, valores morales, homosexualidad, etc. En la mayoría de los casos los resultados suelen ser siempre iguales, o existen datos estadísticos que niegan la determinación o al menos no hay datos significativos que la demuestren. En un trabajo presentado en Genética General de 3º de CC. Biológicas, el autor del presente trabajo y dos compañeras debatían ampliamente sobre algunos de estos rasgos llegando a la conclusión de que, mientras no se demuestre el proceso biológico de determinación de un rasgo, se ha de actuar como si fuese social puesto que es, no solo lo más aceptable moralmente sino que es también lo más parsimonioso.(22)
¿ Cuándo empezó la genética a instaurarse como la primera y única verdad biológica? Ya en las primeras generaciones de genetistas se empezó a ver ese interés por parte de los propios investigadores de dar importancia a su área del conocimiento, en especial Muller en 1926 al publicar su artículo “The gene as a basis for life” en el que el autor daba a la capacidad autoreplicativa del gen (o auto-catálisis específica) el poder central de la vida.
El gran montón… que es el protoplasma es, después de todo, solo un subproducto de la acción del material genético. Su función (su valor de supervivencia) recae en su adopción de los genes, y los secretos primarios comunes a toda la vida se encuentran aun más allá, en el propio material genético.(23)
En los años 20 la genética estaba luchando por encontrar un nicho entre las otras disciplinas de la ciencia biológica y los experimentos con Drosophila y maíz, unidos al buen trabajo de relaciones públicas que hicieron los propios genéticos pasó en poco tiempo a ser una de las disciplinas más boyantes(24), y en pocas décadas paso a llevarse la mayor parte de la financiación y recursos por parte de gobiernos y empresas(25).
CAIDA DEL PARADIGMA
El paradigma genético se ha asentado siempre en algunos principios o axiomas, como pueden ser; gen como única fuente de información biológica, unidireccionalidad de la información (del gen al fenotipo) “un gen- una proteína- un carácter” etc.
El DNA es visto en la actualidad por la mayoría de la comunidad científica así como por los medios de comunicación como el único material o sistema capaz de guardar la información biológica y de transmitirla, y hasta hace pocos años no todo el DNA sino solo el codificante de proteínas del núcleo (en eucariotas). Esto llevó a varios gobiernos de todo el mundo a la creación de la llamada Organización del Genoma Humano (HUGO), y posteriormente a la creación de la empresa privada Celera Genomics por parte de algunos grandes laboratorios y compañías multinacionales. El consorcio internacional y la empresa acabaron llegando a un acuerdo por el que colaborarían en la secuenciación del genoma humano(26). Pero estas visiones de la unicidad de la información biológica están dentro de lo que al principio del trabajo denominamos reduccionismo científico. Existen muchos trabajos que tratan el tema de este reduccionismo genético y en el que se nos muestran cientos de datos que complican el modelo de tal forma que como ya vimos cuando hablamos de sistemas complejos predecir el resultado es casi imposible.
Muchos de estos descubrimientos se escapan a mi entendimiento pero por comentar algunas cosas es interesante resaltar el efecto materno, que en los últimos tiempos parece haber dejado de ser “importante solo en los primeros minutos de vida, debido a la corta vida de las proteínas” a ser un efecto no conmensurable sobre el futuro biológico del individuo. Ya se mostró con el modelo del billar, y se puede decir lo mismo del modelo de valles y montañas , que el punto de partida es crucial para el resultado final y que un pequeño cambio imperceptible en el origen puede producir un resultado completamente distinto(27).
Una posible teoría que he defendido en varias ocasiones desde que llego a mi conocimiento la existencia de una ‘cosa’ llamada priones era la de la importancia del proteoma celular (¿y extracelular?) en el desarrollo de los seres vivos y su importancia para la transmisión de la información biológica. Siempre fue una pequeña elucubración basada en la simple intuición de que si existía al menos un prión que causa enfermedades, es probable que también existan cientos de miles de priones (o proteinas que contengan información) que son parte integrante del desarrollo celular, porque ¿acaso no siempre el primer ejemplo descubierto de un proceso en biología es por una enfermedad? Muchas veces he discutido el tema, simplemente proponiéndolo como una divertida posibilidad y el resultado siempre ha sido similar: “¿no sabes de lo que hablas?¿no entiendes la genética?¿las vacas locas son solo una excepción?”. Por eso se siente cierta alegría malsana al leer un artículo publicado por un compañero estudiante de mi misma universidad (¡de segundo curso de carrera!) sobre los últimos trabajos sobre priones. En él muestra mi compañero la importancia que tienen algunos priones en la respuesta adaptativa al medio, su cercanía evolutiva a los retrovirus y su intima y estrecha relación con los mecanismos celulares.(28)
Siguiendo con el debate sobre la unicidad de la infomación biológica y de la gran importancia de los genes, no hay que olvidar que el ADN como escribe Lewontin es una molécula interte, que necesita de la maquinaría celular para replicarse:
El DNA es una molécula muerta, dentro de las moléculas menos reactivas y más inertes del mundo… No tiene poder de reproducirse. Mejor dicho es producida a partir de materiales elementales por una maquinaria celular compleja de proteínas. Mientras que se suele decir que el DNA produce proteínas en realidad son las proteínas (enzimas) las que producen el DNA. El recién fabricado DNA es ciertamente una copia del antiguo… pero nosotros no describimos la fabrica Eastman Kodak como un lugar de auto-reproducción (de fotografías)
Existe la apariencia de que son los genes lo que pasa de padres a hijos… (pero) de hecho, un huevo, antes de fertilizarse, contiene un aparato completo de producción colocado allí durante el curso de su desarrollo celular. (29)
Entonces ¿por qué hemos estado tantos años dando el valor de agente activo al gen? Probablemente debido a nuestra visión jerárquica del mundo basada en nuestra educación en un sistema capitalista. Por suerte se están cambiando la forma de ver las cosas, como muestra Scientific American al publicar como noticia que “los organismos controlan la mayoría de sus genes” . Estos últimos párrafos las tecnologías de DNA recombinante, el descubrimiento de los retrovirus, etc. están anulando la visión unidireccional del flujo de información genética que ya no se sitúa toda ella en el genoma y que además fluye en varias direcciones(30).
El último axioma del determinismo genético que debiéramos debatir es el de un gen, una proteína, un carácter. El proyecto del genoma humano que surgió de los propios deterministas ha sido el que de verdad ha rematado el modelo teórico que le dio origen. Existen muchos artículos de revisión sobre el tema pero voy a destacar dos, uno por especial cercanía y por la importancia del autor en mi desarrollo científico-crítico “Las sorpresas del genoma”(31) de Sandín y otro por su claridad en presentar los datos “The Human Genome Map, the Death of Genetic Determinism and Beyond”(32) de Ho. Estos artículos ofrecen grandes cantidades de datos que levantan serias dudas sobre el poder de la genética tradicional, simplemente mencionar que la previsión es encontrar aproximadamente 30.000 genes en el genoma humano, que tendrían que explicar las más de 250.000 proteínas que tiene el ser humano. Además la similitud entre especies (por ejemplo el ratón y el hombre solo se diferencian en 300 genes) en secuencia es tan elevada que no parece que las diferencias de desarrollo se puedan explicar con la teoría genética. Como el propio Venter (Celera Genomics) expuso:
Simplemente no tenemos suficientes genes para que esta idea del determinismo biológico sea correcta… La maravillosa diversidad de la especie Humana no esta programada en nuestro código genético. Nuestros ambientes son Críticos.
(los sorprendentes descubrimientos del genoma) me dicen que los genes no pueden explicar todo lo que nos hace ser lo que somos.
No es el único de los grandes pensadores que opina de tal modo, Brenner (Nobel de Medicina 2002) comentó:
Al principio se decía que la respuesta al entendimiento del desarrollo iba a venir del conocimiento de los mecanismos moleculares del control genético… No creo que nadie se crea eso ya. Los mecanismos moleculares parecen aburridamente sencillos, y ellos no nos dicen lo que queremos saber. Tenemos que intentar descubrir los principios de organización, el como muchas cosas son colocadas juntas en el mismo lugar. No creo que estos principios se encuentren dentro de un simple aparato químico, como es el código genético.
Quiero acabar este grupo de citas de pensadores con una pequeña frase de S.J. Gould que escribió en un artículo del New York Times:
El colapso de ‘un gen por una proteína’ y de ‘una única dirección para el flujo causal desde códigos básicos a una totalidad elaborada’, marca el fallo del reduccionismo (genético) para el sistema complejo que llamamos biología celular.
Como hemos visto hasta ahora, el determinismo genético parece quedar fuera de lo plausible, pero entonces ¿si como dice Brenner el camino no está en seguir a la molécula de ADN que camino hemos de tomar? Tal vez hemos de cambiar la forma de entender la biología. El problema no esta en los experimentos, ni en el razonamiento metodológico sino en los conceptos. Para Oyama el problema conceptual viene de la visión que tenemos de los genes y de cómo actúan, según esta autora mientras sigamos definiendo a los genes como contenedores de la información sobre como será el futuro individuo, seguirán siendo vistos como causa determinista, no importan cuantas pruebas en su contra existan(33). Es por tanto importante proponer, para enriquecer el debate, el mayor número posible de nuevos modelos.
ORGANICISMO
El Organicismo, o Nuevo Organicismo es el modelo que he decidido seguir en este trabajo puesto que se ajusta muy bien a los sistemas complejos, aunque tal vez sea simplemente porque al ser un modelo no muy desarrollado tiene pocas leyes y normas, es por tanto un modelo holístico que intenta ver al ser vivo, o a la vida en general, como un todo que no esta realmente separado del resto de los seres vivos ni tampoco del ambiente abiótico. El Organicismo no es una teoría nueva, ya a principios del siglo XX muchos científicos veían (o intuían) en él el modelo más propicio a explicar la realidad del mundo que los rodeaba. El Organicismo es un modelo científico que se basa en la conexión entre todos los fenómenos como parte de un todo indivisible y que en cierto modo responde como un organismo vivo, con su homeostasis, su evolución etc. Puesto que todos los fenómenos están relacionados los organicistas creían en el establecimiento de una ciencia más interdisciplinar sin barreras entre los distintos campos del conocimiento. El Multidisciplinary Theoretical Biology Club, que surgió en la Universidad de Cambridge es uno de los exponentes más importantes y serios de esta corriente. Desde los años treinta y en especial a partir de los 60 la teoría fue desapareciendo debido al poder que tomó la genética reduccionista y la imposición del mercado de obtener resultados tecnológicos rápidos y a bajo coste(34).
Una de las características principales del Organicismo Biológico es su conexión con la física, en especial con la Cuántica y la Termodinámica. La cuántica les ayuda a explicar el porque del comportamiento no predecible y caótico de los sistemas vivos y la termodinámica para explicar la autoorganización(35). La entropía negativa de Schrödinger o capacidad de los seres vivos de evitar la caída en estado de equilibrio (muerte) mediante el almacenaje de energía utilizable es uno de los temas de mayor importancia en este paradigma(36). Este punto fue uno de los más discutidos pero la aparición del concepto de sistemas abiertos autoorganizativos fue un gran apoyo al organicismo. Estos sistemas se mantienen mediante el flujo de energía a través de ellos pero guardando parte de la energía dentro del propio sistema, a estos modelos creados por Prigogine se les llamo Estructuras Disipativas(37). Uno de los ejemplos más clarificadores son las células de convección de Bénard, que son las estructuras de flujo de agua y energía que se producen dentro de una olla en la que se pone el agua a hervir (y existe un gradiente muy alto de energía entre dos puntos). Esta nueva concepción ayudo a crear toda una nueva forma de ver el mundo, desde el origen de la vida a los cambios bruscos de ecosistemas enteros. Según estos modelos los sistemas al estar todo íntimamente relacionado podrían cambiar bruscamente como conjunto y en sus partes al existir un cambio ya sea endógeno o exógeno que sobrepasa el Umbral de Inestabilidad, entonces el sistema ha de cambiar radicalmente para crear una nueva organización estable. Los saltos de organización suelen dar lugar a estructuras más complejas, que puedan ocupar distintos niveles (o nichos) y así el nivel puede guardar en si más energía. Cada salto de organización es lo que anteriormente hemos llamado formación de propiedades emergentes.
Este tipo de modelos organicistas vuelven a presentar la dualidad holístico-concreto, es decir permite estudiar los distintos niveles como unidades separadas que son consistentes y que parecen estar regidas bajo unas leyes propias (hasta la entrada en procesos re-organizativos), pero a su vez permite el estudio transversal entre los distintos niveles. Este tipo de dualidad de estudios se asemeja a la de Onda-Partícula de la luz y ha de ser estudiada como tal, es decir en cada caso de la manera más conveniente pero sin olvidar la otra parte de ese todo. Y por supuesto, estos modelos se rigen bajo la indeterminación de Heisenberg, y voy a aventurarme un poco más allá y decir que, al igual que en la Ley de Heisenberg no es posible conocer dos caracteres de una misma partícula, en este caso se puede decir lo mismo, si sustraemos una parte del todo para estudiarla perderemos el conocimiento de esta partícula como parte del todo. Y si simplemente la observamos como parte del organismo superior (o célula, o ecosistema, etc) no podremos estudiar el sistema complejo que es en si esa partícula y por tanto no podremos de verdad predecir el comportamiento futuro de ella.
CONCLUSIONES
La idea de determinismo absoluto es como cualquier principio original de todo desarrollo mental una proposición que no es falsable, ni demostrable científicamente (según Popper). Es un principio sobre el que organizar el resto del pensamiento, similar al ‘cogito ergo sum’ de Descartes. Solo puede ser debatido sobre su plausibilidad y sobre su validez analítica. Considero que la aceptación del determinismo metafísico como se ha explicado en el texto se basa en un juicio sintético a priori (tal como los definió Kant en su “critica de la razón pura”), es decir no se basa en la experiencia y da información, no es una tautología.
Otra cosa diferente ocurre con el Determinismo metodológico que si es falsable puesto que es particular, es decir es un juicio sintético a posteriori. Para estudiarlo hemos dado un largo recorrido a través de algunos de los distintos factores de importancia para comprender el determinismo genético, de donde surge, en que se basa y en que sistema social se sustenta. Surge de la intención de buscar modelos sencillos para explicar el mundo de manera comprensible, se basa en teorías científicas obsoletas y utiliza como apoyo un sistema social injusto que a su vez se siente reforzado por él. Es por todo lo expuesto anteriormente que no queda más remedio que soltarnos las ataduras de los Dogmas impuestos y buscar nuevos modelos que aunque sigan sin ser reales en estado puro, al menos no contradigan los datos experimentales. Hemos de reconocer nuestra propia dualidad como filósofos (¿Científicos?) y como ciudadanos y por tanto no hemos de perder la noción de que antes de todo esta nuestra ética.
Me gusta acabar los trabajos con una cita, pero en este momento me cuesta decidir cual. Así que he seleccionado dos que cuadran con el tema.
BIBLIOGRAFÍA
(1) Encyclopedia International. Grolier Inc. 1963.
(2) Gran Enciclopedia Larousse. Editorial Planeta. 1988
(3) Historia de la Filosofía. Navarro Cordón y Calvo Martínez. Grupo Anaya S.A. 1989.
(4) Historia de la Filosofía en su Marco Cultural. Tejedor Campomanes. Ediciones SM. 1984.
(5) Stanford Encyclopedia of Philosophy. (WEB) Stanford University
http://plato.stanford.edu
(6) Essai Philosophique sur les Probabilités. Laplace. 1820.
(7) Diccionario Soviético de Filosofía. Ediciones Pueblos Unidos. 1965.
(8) Determinismo, Caos, Azar e incertidumbre (en Horizontes Culturales. las fronteras de la Ciencia). Girón González-Torres. 1998. Real Academia de la Ciencias Exactas, Físicas y Naturales.
www.fsanmillan.org/portallengua/academias/cienciasexactas/ pdfs/vol%202/005_girongonzalez.pdf
(9) Diccionario de la Real Academia de la Lengua Española. Vigésimo primera edición. 1992.
(10) Pandora´s hope; Essays on the reality of science studies. Latour, Bruno. Harvard University Press. 2000
(11) Lamarck y los mensajeros. La función de los virus en la evolución. Sandín, Máximo. Ediciones Istmo. 1995
(12) Filosofía de la biología. Sober, Elliott. Alianza editorial 1993
(13) No está en los genes. Lewontin, Kamin y Rose. Editorial Crítica. 1987
(14) El manifiesto comunista. Marx y Engels. Ed. Pathfinder Press. 1848
(15) Why Clone Humans? Ho, Mae Wan and Cummings, Joe. Institute of Science and Society
www.i-sis.org.uk
(16) Raza, Genes y C.I. Block, Ned. Mundo Científico nº 177. 1997
(17) Bases genéticas y ambientales de la conducta. Waal. Investigación y Ciencia. Enero (2000)
(18) Free Hill. Strawson, Galen. Routledge Encyclopedia of Philosophy. London: Routledge.1998
(19) La Ética y la Religión. Ayala, F.J. En el libro Origen y evolución del Hombre. Ed. Alianza Universal. 1983
(20) Biology as an ideology: The doctrine of DNA. Lewontin, R.C. Ed. Harper Perennial. 1991
(21) Elbow room: The varieties of free will worth wanting. Dennett, D. C. Cambridge, MA: MIT Press. 1996
(22) Gemelos: síntomas de la lucha entre la genética y la sociedad. López Merino, Martín Peña y McNicholl. 2003
(23) The Gene as the Basis of Life. Muller, H. J. Proceedings of the International Congress of Plant Sciences. 1926
(24) Rethinking the Meaning of Genetic Determinism. Fox Keller, E. The Tanner lectures on human values. U. Of Utah. 1993
(25) The Human Genome- A Big White Elephant. Ho, Mae-Wan. Institute of Science and Society, Green Research Forum, European Parliament, Brussels, June 6 2001.
(26) Human Genome, the biggest sellout in human history. Ho, Mae-Wan. Institute of Science and Society
www.i-sis.org.uk
(27) Genes, organismo y ambiente. Lewontin, R.C. Editorial Gedisa Colección: límite de la ciencia. 2000
(28) Los Priones en la Evolución. Cenador, S. Universidad Autónoma de Madrid, para Gen Altruista.
https://www.genaltruista.com/notas3/biologia.htm
(29) The Dream of the Human Genome. Lewontin, R.C. N.Y. Review of Books, May 28, 1992.
(30) Clases de Genética, Individuo y Sociedad. C. Sentís. Comunicación verbal 2004.
(31) Las Sorpresas del Genoma. Sandín, M. Bol. R. Soc. Esp. Hist. Nat. (Sec. Biol.), 96 (3-4), 2001, 345-352
(32) The Human Genome Map, the Death of Genetic Determinism and Beyond. Ho, Mae-Wan. Institute of Science and Society
www.i-sis.org.uk
(33) The Ontogeny of Information; Developmental systems and evolution Oyama, S. Durham, North Carolina: Duke University Press. 2000
(34) Growth and Form, Introduction to Conference on form. Mackay, A.L. Tsukuba University 1994.
(35) The Biology of Free Will. Ho, Mae-Wan. Journal of conciousness studies 3. 1996.
(36) What is life? Schrödinger, E. Cambridge University Press. 1944
(37) Introduction to the thermodinamics of Irreversible Processes. Prigogine, I. John Wiley & Sons. 1967