Conferencia 6

Fase 4 del desarrollo de la causalidad:

La crisis científica de la causalidad del siglo xx

 

Introducción

El mundo científico al final del siglo XIX disfrutó de una tranquilidad ilusoria. Fundada seguramente en las nociones filosóficas de causalidad y determinismo griegos, y apoyada por los empiricistas ingleses, se jacta de la gran infraestructura intuitivamente satisfactoria de la mecánica newtoniana y de lo construido sobre ella por Newton y sus sucesores ilustres, entre ellos Laplace, Lagrange, y Hamilton. La teoría de la electricidad y del magnetismo era bien entendida; y la primera gran unificación de la física fue realizada por Maxwell en sus ecuaciones célebres. Trabajos en la estructura atómica de la materia fueron efectuados por Dalton, Lavoisier, y otros; y el desarrollo del mundo biológico fue revelado por Darwin. Ninguno de estos estudios fue puramente teórico; al contrario, propició todo un rango de interés humano: la mecánica celestial reveló los secretos del cielo, y los ingenieros entrenados en la nueva ciencia transformaron la cara de Europa y del Nuevo Mundo. Tan confiados estuvieron los proveedores de la ciencia del siglo XIX que sus Weltanschauung se guardan en el famoso demonio de Laplace: una inteligencia que sabe la posición y el momento de todas las partículas, y que con la ayuda de las leyes newtonianas podía predecir el curso entero del universo, y retroceder toda la historia del universo. Aun en la matemática, el exuberante Hilbert propone sus diez problemas famosos, cuya solución era una de las tareas más importantes del siglo nuevo. Quedaban algunos trabajos por completar en la fundación básica, pero esto estaba en muy buenas manos.

Había algunos huecos en esta fundación: la termodinámica estaba plagada de dificultades relacionadas con las infinidades, como el valor absoluto de la entropía, y la célebre «catástrofe ultravioleta»; la teoría electromagnética no podía reconciliarse con la teoría cuadro surgiendo del átomo; el experimento de Michalson y Morley reveló problemas con el espacio y tiempo absolutos de Newton y la obra de Poincaré sobre el problema de tres cuerpos en la mecánica celeste indica que sistemas mecánicos muy simples que actúan según las leyes determinísticas newtonianas marchaban de manera muy desordenada. La paradoja de Russell sugería que todo no iba bien en la fundación de la matemática. Aun así, muy poca gente sospechaba la tempestad de nuevos desarrollos que iban a ocurrir en la ciencia en el nuevo siglo, una tempestad científica que trastornaría casi todas las bases e ideas sobre cual la ciencia pensaba basarse. Durante este proceso fue necesario un repensamiento radical y heroico de la filosofía y su influencia recíproca con la ciencia, un repensamiento que requiere un genio, con una fundación profunda en la filosofía y su historia, en la teología, en la ciencia, la matemática, y gran parte del resto del saber humano. Pero tal vez más importante, una persona con el deseo profundo de penetrar la verdad y abrazar todo este saber con una visión comprensiva, y sobre todo de crear la fundación de una nueva síntesis del saber humano, una síntesis que pueda integrar la realidad que nos entrega la ciencia con el resto del saber humano. El mundo es muy afortunado que tal hombre nació en este tiempo crítico, en España, país de profunda herencia cultural, educacional, y espiritual.

Ciencia y naturaleza en el siglo XX:

El fracaso del reduccionismo y la surgencia del enfoque de los sistemas

El reduccionismo ha sido una corriente fuerte durante la historia entera de la ciencia y de la filosofía. El demonio de Laplace es, en cierto sentido, la expresión última del reduccionismo y por ello de la filosofía clásica y de la ciencia del siglo XIX en general. La meta, como ha señalado Zubiri y otros, es la de reducir la biología a la química, la química a la física, y luego, con el conocimiento de las partículas y las leyes fundamentales, junto con las condiciones iniciales, reconstruir la ciencia entera y, por implicación, la realidad entera. El carácter dogmático de la identificación entre ciencia, reduccionismo, y determinismo estricto pudo ser aparente a los cientistas y filósofos del siglo XIX; pero como la ciencia no podía concebirse de otra manera, había muy poca discusión sobre el asunto. Un corolario fácil es el realismo radical: el mundo está en realidad formado por las partículas últimas y las leyes que las gobiernan; aun Dios ve el mundo de tal manera. De aquí que para los teólogos, el reduccionismo tienda a significar que las leyes físicas son la «mente» de Dios, quien se convierte en super-físico – irónicamente, la realización última del demonio de Laplace.

El primer golpe fue dado por Einstein, en su Teoría especial de la relatividad (1905), que revela que el espacio y el tiempo absolutos de Newton son, para los propósitos científicos, quiméricos. Los resultados paradójicos que provienen del fracaso de la simultaneidad y de la relatividad del tiempo dieron cuenta de que las ideas intuitivas de la física clásica junto con gran parte de la filosofía se encaminaban por caminos difíciles. Aun así, el determinismo y el reduccionismo parecen seguir intactos.

El desarrollo de la mecánica cuántica, menos de veinte años después, fue el golpe segundo y fatal. En lugar de los valores absolutos y familiares de la posición y el momento, la ecuación de Schrödinger tiene como solución una función de ondas que da solamente distribuciones probabilísticas. Aún peor, el principio de indeterminación de Heisenberg revela una complementaridad entre la posición y el momento, y entre el tiempo y la energía, de tal manera que el producto de los indeterminismos tiene bajo límite (). La física edificada a partir de esta nueva fundamentación, que incluye paradojas tales como la interferencia de partículas aisladas, «tunnelling», el concepto de partículas virtuales, y la actividad cuántica del vacuo, se ha verificado en alto grado por experimento, y esto ha permitido que los físicos construyan grandes teorías para describir la creación y la evolución del universo entero, desde el límite del «tiempo de Planck», 10-43 segundos después del «Big Bang». En efecto, hay un golpe doble a las ideas clásicas de la ciencia: en primer lugar, leyes determinísticas se suplantan por leyes estadísticas; y en segundo lugar, condiciones de límites exactos se sustituyen por condiciones de límites con un bajo límite (nivel) de indeterminación en la mayoría de los casos. Esto es muy importante porque significa que aunque haya leyes determinísticas, el reduccionismo estricto es imposible, y, por consiguiente, la complejidad en el mundo tiene que ser irreduciblemente jerárquica.

Muy pronto, Zubiri realizó este cambio profundo, y se dió cuenta que no significaba ninguna degradación para la ciencia, sino un paso grandísimo que liberó a ésta de un «bulto» metafísico innecesario (y probablemente falso):

No solamente, pues, no es la idea de causa la que dio origen a la ciencia moderna, sino que ésta tuvo su origen en el exquisito cuidado con que restringió aquélla. Esta renuncia fue para los representantes de la antigua física el gran escándalo de la época. ¿Cómo es posible que la física renuncie a explicar el origen de todo movimiento? Esta heroica renuncia engendró, sin embargo, la física moderna. No es lícito, pues, hacer aspavientos de escándalo frente al principio de Heisenberg: haría falta examinar lealmente si no llega a dar a la física su última toque de pureza. (Naturaleza, Historia, Dios, p. 289)

Como es natural, los defensores del determinismo en la ciencia no soportaron tal reinterpretación radical de la naturaleza. Ellos refutaron creer que (su) «Dios [está] jugando a los dados con todos los electrones del universo» y postularon que la mecánica cuántica es incompleta, y que es necesario el uso de «parámetros oscuros» para restaurar el determinismo. Con Einstein a la cabeza, dirigieron un ataque tras otro a la nueva interpretación, lo cual fue respondido por Heisenberg y otros. Su crítica culminó en la célebre paradoja Einstein-Padorsky-Rosen, que postula un experimento cuyo resultado depende según el determinismo o indeterminismo de la realidad. Treinta años después, esto condujo a las desigualdades de Bell, y luego al experimento famoso de Aspect y sus colegas en la Universidad de Paris en 1982. La naturaleza de este experimento, tanto para la ciencia y como para la filosofía, no es fácil de sobrestimar: allí unos 2500 años de pensamiento sobre la naturaleza y la realidad convergieron. Fue una prueba no sólo del determinismo vs. indeterminismo, sino de la llamada «no-localidad» de la naturaleza, esto es, de la interconexión virtual del universo entero – incluso entre cosas situadas en lados opuestos – que actúan como si estuvieran tan cerca como Ustedes y yo en esta sala hoy día. El resultado es muy claro: el universo es indeterminístico y no-local, al menos en cuanto se habla de una medida cuantitativa. La impresión profunda que queda del experimento de Aspect es la de inadecuación de las últimas limitaciones de la mente humana para percibir la verdad última de la realidad, y la de futilidad total para asumir que las leyes físicas puedan representarnos en ninguna manera cómo Dios entiende el universo. Ya cincuenta años antes, Zubiri lo percibió: "... para Dios no sólo no hay física, sino que no hay ni Naturaleza en este sentido".

Pero el último desastre para la física clásica (y la perspectiva del mundo basada sobre ella) puede ser el redescubrimiento en las décadas de 1960, 1970, y 1980 de lo que hoy se llama la «teoría de caos»: la existencia de simples sistemas físicos, que siguen las leyes newtonianas, y que sin embargo actúan de manera muy desordenada, tan desordenada que son en términos prácticos sistemas estocásticos no pronosticables, El comportamiento caótico fue descubierto por Poincaré y Bruns hacia el año 1880 en el curso de sus investigaciones de la mecánica celeste y el problema de tres cuerpos, pero esto se ignoró en esta época porque no tenía cabida en el paradigma vigente, a saber: sistemas simples evolucionando según la física newtoniana han de mostrar un comportamiento regular y pronosticable. ¿Cuál es el sentido de una ciencia que no puede hacer predicciones precisas y verificables? Si se observó el comportamiento irregular, se consideró como resultado de ruido casual o de otra interferencia. Si las leyes físicas fueran la mente de Dios, ¿cómo podrían producir otra cosa que el orden?

Sin embargo, el comportamiento irregular es muy real, y puede observarse en un simple computador, y de hecho ha sido observado en muchos sistemas reales. Además, como lo descubrió Poincaré, tal comportamiento caracteriza el problema simple de tres cuerpos, y a fortiori el problema de n-cuerpos, que describe cómo el sistema solar puede evolucionar con el tiempo. La conclusión desconcertante es que la estabilidad del sistema solar a largo plazo no se puede garantizar. Para el propósito de la discusión actual, el punto principal es que aun leyes deterministas no bastan para garantizar un comportamiento ordenado, y de ahí que la vieja creencia en la implicación mutual entre la causalidad, el comportamiento bien ordenado, y las leyes deterministas se haya roto. Aunque aparentemente Zubiri desconocía la emergencia de la teoría de caos, ya había previsto sus implicaciones:

Indeterminación parece lo más opuesto al carácter de todo conocimiento científico. Planck rechaza, por esto, con indignación este concepto; renunciar a la determinación sería renunciar a la causalidad, y con ella, a todo lo que ha constituida el sentido de la ciencia, desde Galileo hasta nuestros días. (Naturaleza, Historia, Dios, p. 287).

Pero en efecto, como percibió Zubiri, la ciencia entendida en tales términos era en realidad una mezcla de ciencia pura y nociones metafísicas espurias, y que la causalidad es un concepto mucho más amplio que el determinismo: "... causalidad no es sinónimo de determinismo, sino que el determinismo es un tipo de causalidad." Cuarenta años más tarde, hizo una observación particularmente relevante al comportamiento de sistemas caóticos:

... sobre todo, el que un efecto tenga una realidad en virtud de la causa no quiere decir ni que este efecto ni que esta causa sean repetibles. Es decir, el Determinismo es a lo sumo un esquema de un tipo especial de causalidad, pero no es la causalidad en sí misma. (Estructura dinámica de la realidad, p. 99)

Aun sin el experimento de Aspect, la teoría de caos habría significado el fracaso último de las nociones clásicas de la ciencia porque las corta totalmente de raíz.

El cuarto golpe a las ideas clásicas fue contemporáneo con el desarrollo de la mecánica cuántica; pero las implicaciones eran más difíciles de entender y menos amenazadoras; por esto no recibió tan extensa publicidad. Esto, por supuesto, fue el célebre teorema de Gödel. El significado de este teorema se ha discutido durante sesenta años; pero un hecho es incontrovertible: nuestro entendimiento de la naturaleza de la matemática ha cambiado radicalmente. Antes de Gödel, era posible identificar la verdad matemática con la demostrabilidad; pero tal identificación no vale más: la verdad es un concepto más amplio. Por esto la matemática y los sistemas formales en general son más ricos de lo que se sospechó antes; y nuestro conocimiento de ellos siempre va a ser más limitado de lo que pensó Hilbert. Este es el aspecto del teorema que Zubiri estimó como el más importante, porque nos revela que nuestro conocimiento de realidades de postulación nunca puede ser completo; como toda realidad, son abiertas de manera fundamental.

El propio Zubiri se dio cuenta de que el fracaso del reduccionismo era inevitable debido al desarrollo de la ciencia en el siglo XX, y enunció claramente las razones filosóficas por las que era insostenible:

... sería un ingente error pensar que las estructuras transcendentales del ser penden sólo de la estructura de los electrones o de la materia inanimada. Estamos siempre propensos a creer que cuando se alude al amor o a las personas se está hablando de unas cosas antropomórficas y metafóricas, pero que lo que cuenta son los campos electromagnéticos y los electrones. Pero ¿por qué? ¿Es que no son realidades aquellas otras cosas? ... No es lo mismo la estructura dinámica del movimiento local, la estructura dinámica de los fenómenos físicos, que la estructura dinámica de un ser vivo, de una persona humana, y mucho menos del conjunto entero de la historia y de la sociedad humana. (Estructura dinámica de la realidad, p. 64).

La surgencia del enfoque de los sistemas

Desde un punto de vista práctico, hace mucho tiempo que la ciencia reconoce que un enfoque jerárquico es indispensable. Sólo es necesario examinar la clasificación de las disciplinas científicas as y la manera en que se enseña la ciencia para verificarlo: un químico desarrollando vacunas bien puede saber poco de la teoría de los quarks, un médico atendiendo a un enfermo que sangra puede saber poco de la mecánica de los fluidos, y un programador de computadores haciendo programas de seguridad nunca estudia la física del estado sólido. Cada vez más, es patente que tal enfoque práctico refleja una realidad subyacente, a saber, que lo más importante son los componentes de una cosa en un nivel dado, y cómo actúan, esto es, el sistema, en lugar de la habilidad de predecir todo basada sobre el nivel jerárquico más elemental. Reflejando este cambio de paradigma, actualmente hay una creciente ciencia de sistemas, que concierne los problemas de cómo ocurren las interacciones, y que tipo de comportamiento un sistema puede mostrar. Esto incluye estudios de la conectividad, la estabilidad, y control.

Este enfoque nuevo sobre los sistemas presupone que la realidad, como percibido por entidades finitas (no necesariamente animadas) tiene «estratos» o «niveles», y que el comportamiento de cada nivel es constreñido por, pero no determinado completamente por los niveles más bajos. ¿Por qué? Físicamente, porque en cada nivel hay incertidumbres o indeterminación debidos a los niveles más bajos, y porque es imposible determinar el conjunto total de interacciones de cosas en estos niveles. Delineando una distinción clara entre la causalidad y una causa, Zubiri ha notado incisivamente que la causalidad es la funcionalidad de lo real como real, y que la inteligencia sentiente percibe tal funcionalidad. Pero encontrar las causas para cualquier fenómeno es muy difícil y problemático:

¿Quién puede esta seguro nunca de haber descubierto una causa real de un fenómeno, mucho menos si se pretende que esta causa sea adecuada? Esto es absolutamente quimérico. (Estructura dinámica de la realidad, p. 90)

Usando un ejemplo de Zubiri, si se jala la cuerda de una campana, la campana suena. ¿Es esta la causa? Supongamos que la campana es movida a la luna. Jalamos la cuerda y produce sonido. Causalidad tal y como es percibida por una inteligencia sentiente es funcionalidad, la cual puede ocurrir y ocurre de muchas formas; no se trata de una completa enumeración de causas.

Científicamente, un grupo preciso de condiciones iniciales por los niveles altos es imposible de medir o aun de especificarlos en la mayoría de los casos. Por consiguiente, los niveles altos tienen que operar a la luz de esta incertidumbre. No interesa que una inteligencia consciente esté operando, tampoco remitirse a fuerzas ciegas de la evolución. Hay elementos cuantitativos que son reales a un nivel, pero estos tal vez no sean relevantemente definidos o medidos a niveles más bajos; por ejemplo, la presión de la sangre por componentes moleculares, o la operación de programa de computación por el estudio de la física del estado sólido de transistores, o el pensamiento y la descarga de los neurones. En otras palabras, niveles altos muestran organización y comportamiento muy diferente que los niveles bajos. Esto no quiere decir que la causalidad se haya roto; sólo que la causalidad como concepto no se identifica con el determinismo estricto. (Por supuesto, si el determinismo estricto fuera verdad, el demonio de Laplace regiría todo el comportamiento hasta el nivel más alto (la evolución del universo entero) y esto podría predecirse a partir del conocimiento de las partículas fundamentales).

Hay razones prácticas para la organización jerárquica y también para el enfoque de los sistemas. Lo más importante puede ser el hecho de que se permiten construir sistemas dinámicos complejos que son estables. Al interconectar jerárquicamente grandes números de pequeños subsistemas, es posible conservar el orden de cada nivel bajo, y luego tener una razonable seguridad de estabilidad y ulteriormente de la estabilidad de los sistemas que resultan de la interacción de los subsistemas, en niveles cada vez más altos. Aunque la estabilidad de los sistemas que actúan entre sí no se entiende bien, es sabido por el estudio del famoso problema de matrices aleatorias que sistemas de orden alto son difíciles de construir.

Causalidad después de la revolución científica de s. xx.

Al final del fase IV, quedamos con la causalidad clásica casi destruido. Prioridad temporal sigue intacto, pero la universalidad y el determinismo se ha sustituido por validez estadística solamente. Ya no hay conexión necesaria entre causa y efecto, y la contigüedad, la producción real de efectos, el poder real, y la realidad de causa > realidad de efecto—todos han desaparecido.