Finalmente, siguiendo con el procedimiento científico, tratamos de explicar esos hechos regulares (obedientes a leyes) mediante establecer una relación entre el hecho en cuestión y su causa; es decir, decimos que ese hecho (efecto) es causado por otro (causa), cuando a la causa siempre le sigue el efecto, y nunca se produce el hecho-efecto sin que haya ocurrido el hecho-causa.
Ejeemplo: primero observamos y medimos el movimiento de los astros, después enunciamos leyes que enuncian su regularidad; por último establecemos una hipótesis teórica de la fuerza gravitatoria como causa de esas leyes.
Con estos tres pasos – expuestos muy tosca y resumidamente – podemos decir que hemos logrado una teoría científica que nos explica aquellos hechos que habíamos observado y que, además, nos permite predecirlos siempre que ocurran los hechos causantes que hemos averiguado.
Esa teoría explicativa sigue siendo válida mientras no observemos algún otro hecho que la contradiga. Por eso se considera que toda teoría científica es provisional y susceptible de ser invalidada mediante nuevas observaciones.
Así nos hemos venido manejando con bastante éxito durante aproximadamente tres siglos, en los cuales ha imperado el punto de vista inaugurado por Newton cuando explicó el movimiento de los cuerpos materiales mediante las leyes de la física mecánica y la causa de la fuerza gravitatoria: los cuerpos se atraen en proporción directa al producto de sus masas y en proporción inversa al cuadrado de su distancia (dejo de lado las operaciones numéricas, pues ahora no nos interesa el aspecto cuantitativo).
Tanto éxito ha tenido esta forma de entender el mundo que llegó a creerse que todos los procesos del universo podían ser explicados con esas leyes; de modo que todo fenómeno podría predecirse si tuviésemos la suficiente información del estado actual de las cosas del mundo (Laplace).
El Mundo era, entonces, un complicado reloj y el Creador un genial relojero.
En el Mundo, claro está, se incluía a todos los seres vivos, incluido el ser humano, aunque éste con la particularidad de poseer un alma pensante (so pena de muerte para quien afirmase lo contrario, a quien se tildaba de materialista).
El asunto, pues, es que la materia no puede pensar, que eso es cosa del espíritu.
Pero siguiendo con el materialismo (al margen del poder de las iglesias) se siguió investigando el comportamiento de la materia, incluyendo la energía, pues se descubrió que el calor y otras formas de energía se comportaban de acuerdo con la leyes de la mecánica (termodinámica) y, más tarde, cuando se inició el tema de la información (que también tiene que ver con la energía-materia), el ‘materialismo’ encontró despejado el terreno para estudiar el funcionamiento de la mente humana como un proceso de información.
Así las cosas, a lo largo del siglo XX se han producido muchos descubrimientos científicos que han cuestionado gran parte de lo anterior:
El gran matemático H. Poincaré introdujo en el panorama de las ciencias algo totalmente nuevo, que venía a contradecir a Laplace, quien había considerado que todo estado del mundo futuro sería predecible, aplicando las leyes de la mecánica newtoniana, siempre que tuviésemos toda la información del estado actual de las cosas del mundo físico.
La novedad de Poincaré surgió cuando trataba de estudiar el movimiento de tres cuerpos que interactúan gravitatoriamente entre sí; pues descubrió que cualquier mínima variación o inexactitud en los datos iniciales producía enormes desviaciones en los cálculos de sus trayectorias en un futuro cercano.
Esto quiere decir que dicho estado futuro, aunque está determinado según las leyes mecánicas clásicas, no es predecible.
Aún así, se continuó creyendo que dicha predicción era teóricamente viable, siempre que pudiésemos evitar aquellas pequeñas inexactitudes iniciales.
Pero en los años 60 del siglo XX, Loren confirmó experimentalmente lo que había planteado Poincaré, diseñando un modelo con tres variables que interactúan entre sí y comprobando que, efectivamente, se comporta de modo impredecible; a pesar de que las variables iniciales estaban perfectamente definidas.
Con esto nació la teoría matemática del caos determinista, que nos permite estudiar la trayectoria de sistemas hasta ahora considerados caóticos (sin ley ni orden), que sólo podemos formular en términos de probabilidad, pero que sí obedecen a leyes deterministas; aunque se continúa utilizando el calificativo de caótico porque parecen sin orden alguno.
Por otra parte, el mismo Poincaré inició un tipo de geometría, la topología, en la que no se opera con medidas, (es decir, con cantidades), como la distancia entre los puntos, ni su colocación espacial, sino que lo que estudia es la relación que existe entre esos puntos; de modo que las líneas imaginarias que unen unos puntos con otros, aunque se doblen o retuerzan, aunque la forma del cuerpo en cuestión se modifique como si fuese de plastilina, si esas líneas se conservan sin romperse, el cuerpo topológico mantiene su identidad: dos cuerpos de forma diferente, pero cuyos puntos o elementos están relacionados entre sí del mismo modo, son topológicamente iguales.
Por ejemplo, una taza con asa, si la deformamos sin romperla, conservando el agujero del asa, podemos convertirla en un donut (en geometría clásica se llama toro al donut); de modo que la taza y el donut son equivalentes en términos de topología.
La importancia, entre otras cosas, de esta nueva geometría es que la matemática empieza a ocuparse de algo que no es cuantitativo, sino cualitativo, pues se trata de las relaciones, no de las medidas de cantidades. Lo cual es fundamental para el concepto de información, ya que la información de dos sistemas es la misma si las relaciones internas entre sus elementos son iguales en ambos sistemas.
Por otra parte, como de todos es sabido, a principios del siglo XX, Einstein cambia todo con la teoría física de la relatividad, cuya principal revolución para la ciencia estriba en que dos pilares de la mecánica de Newton, el espacio y el tiempo, dejan de ser magnitudes fundamentales: el espacio no es ya algo que existe por sí mismo, ya no es, por decirlo en términos coloquiales, un lugar en el que ocurren los hechos; ni el tiempo es algo que existe por sí mismo, o una dimensión durante la que transcurren los sucesos, sino que espacio y tiempo son dos medidas de los hechos.
Las consecuencias que esto tiene para nuestra forma de pensar el mundo son innumerables y, como veremos a lo largo de mi exposición, es fundamental para comprender el modo de funcionamiento de nuestra mente en su doble faceta de consciente e inconsciente, pues la consciencia opera con espacio y tiempo, mientras para la mente inconsciente no rigen tales dimensiones.
Por si todo lo anterior fuera poco, cuando los físicos se ocupan de estudiar los tamaños ínfimos, empezando por el átomo, y descubren que esa partícula mínima considerada indivisible (que eso es lo que significa ‘átomo’) – está a su vez compuesta por otras unidades más pequeñas (partículas subatómicas) y que, además, la energía, que se consideraba como una especie de fluido continuo, es decir, infinitamente divisible, resulta que sólo se manifiesta (se transmite, se emite o recibe) siempre en ‘paquetes’ de cierta medida y nunca menor de esa medida, nace una nueva mecánica, la mecánica cuántica (un cuanto es una unidad de energía-materia). Lo cual introduce en la física el hecho de la discontinuidad.
Otra de las grandes innovaciones producidas en el ámbito científico durante el siglo XX ha sido el estudio de los sistemas complejos, en los que intervienen múltiples elementos cuyos estados son variables y que interactúan entre sí: dicho estudio ha permitido comprobar que, cuando ese conjunto de elementos está sometido a determinadas restricciones de sus grados de libertad, las mutuas interacciones entre esos elementos producen unos parámetros de orden que antes no existían, es decir, que el sistema se autoorganiza generando un orden interno que no le ha sido impuesto desde el exterior.
Читать дальше