En este texto quisiera proponer una comprensión distinta. En primer lugar, se trata de pensar la salud. Y en segunda instancia, pero concomitantemente, me propongo adoptar un enfoque diferente. Este enfoque consiste en el cruce entre computación, física y lógica en el que la tesis mencionada adquiere todo su sentido.
Pues bien, los argumentos que sustentan la tesis enunciada son tres: en primer lugar, se estudia qué es la información; se trata de un problema de alta complejidad, dado que no existe una definición única o unívoca de lo que sea información. La primera sección busca resolver el problema y con ello contribuir a la elucidación de un problema importante en ciencia.
El segundo argumento afirma que la salud es información y que por tanto podemos pensar y decir la salud, y no ya simple y llanamente la enfermedad y ni siquiera el continuo salud-enfermedad.
El tercer argumento plantea un problema nuclear, a saber: cómo gestionar entonces la salud, y se afirma que una gestión de la salud es un tema complejo en el sentido de las ciencias de la complejidad. Al final se extraen algunas conclusiones.
En cualquier caso, el marco de referencia de las consideraciones que siguen es el de las ciencias de la complejidad.
1.2 Un problema complejo: ¿qué es la información?
No todos los problemas, tanto en la ciencia como en la vida, son complejos. En consecuencia, un problema fundamental en investigación como en la propia existencia consiste en establecer cuáles problemas son efectivamente complejos y cuáles no, o simplemente lo parecen. En esta distinción están implicados temas y problemas referentes al manejo de energías, el aprovechamiento del tiempo, la disminución del estrés, o el manejo de los recursos en general, y por tanto de nuestras relaciones con el resto del mundo.
Un problema se dice que es complejo en función del tiempo de comprensión y de resolución de este. Este es el objeto mismo de la teoría de la complejidad computacional (TCC). En otras palabras, un problema se dice que es complejo según el tiempo de procesamiento, de entrada hasta la salida, que implica el problema.
La TCC (Du and Ko, 2000) se articula en dos grandes ramas: de un lado, trata los problemas llamados indecidibles y, de otro lado, los problemas decidibles. Un problema se dice que es indecidible si, dados infinitos o innumerables recursos, tiempo y espacio, no es posible alcanzar, de ninguna forma, un algoritmo para la resolución de esta clase de problemas. La ausencia o la inexistencia de ninguna clase de algoritmo plantea consiguientemente la necesidad de formas de computación no-convencionales. La puerta que se abre por lo tanto es la computación no convencional, la cual incluye a la computación cuántica (Nielsen & Chuang, 2010), criptografía post-cuántica (Bernstein, 2008), la hipercomputación (Syropoulos, 2008) y específicamente la hipercomputación biológica (Maldonado, Gómez-Cruz, 2015).
A fin de entender mejor en qué consisten los problemas indecidibles, vale la pena tener en cuenta que la gama de algoritmos es amplia y comprende los siguientes tipos: algoritmos cualitativos, cuantitativos, de ordenamiento, de búsqueda, de encaminamiento, adaptativos y estáticos, probabilísticos, cotidianos, heurísticos, de escalada, voraces, deterministas y no deterministas, recursivos, de programación dinámica, de fuerza bruta, aleatorios, “divide y conquista” y de series de Fibonacci, entre otros (Cormen et al ., 2009; Skiena, 2011). Muchos de estos admiten a su vez subdivisiones o clasificaciones más específicas. Este es el tema, en general, del cruce entre computación, lógica y matemática.
Por su parte, los problemas decidibles se articulan, grosso modo , como los problemas P versus NP (Goldreich, 2010). Cabe decir que la idea básica es que los problemas P son aquellos que pueden abordarse y resolverse en un tiempo polinomial. Por su parte, los problemas NP son los que para su comprensión y resolución demandan un tiempo no-polinomial. En los desarrollos de esta clase de problemas, ha habido un proceso de refinamiento y al mismo tiempo de complicación ulterior que ha dado lugar a los problemas NP duros ( hard np problems ), espacios llamados de P y NP espacios, y otros aspectos contiguos.
En cualquier caso, lo importante estriba en el reconocimiento explícito de que, en el marco de la computación, la lógica y la complejidad, los problemas se caracterizan como complejos en correspondencia con la propia complejidad computacional; esto es, según el tiempo y recursos necesarios para comprender y resolver un problema.
Ahora bien, en la ciencia moderna los problemas se comprendían y resolvían gracias a dos herramientas fundamentales, a saber: el cálculo –integral y diferencial– y la estadística. Aquel conduce ulteriormente a las ecuaciones diferenciales de primer orden y de segundo orden, y la estadística, por su parte, da lugar a numerosas estrategias de distribución entre las cuales cabe distinguir las distribuciones normales, exponenciales, binomiales, chi cuadrado, de Poisson, de Bernouilli y otras. De manera clásica, el cálculo y la estadística medían dos sistemas básicos del mundo: la masa o materia y la energía.
Masa, en efecto, es el concepto que desarrolla el siglo XVIII para explicar la realidad y el universo. Por su parte, el siglo XIX desarrolla un concepto que explica más y mejor que el de masa: el concepto de energía. Mientras que la materia es un concepto unívoco, la energía es polisémico, pues existen distintos de energía: potencial, cinética, química, magnética, gravitatoria y otras.
Pues bien, el siglo XX desarrolla un concepto aún mejor que el de masa o el de energía, que los comprende a ambos, pero que logra explicar el mundo, la realidad y el universo de manera aún mejor. Se trata del concepto de información.
La historia del concepto de información es apasionante (Gleick, 2012; Isaacson, 2014). Comprende, en sus capítulos más recientes, desde los trabajos de Ada Loveloce, Charles Babbage y Alan Turing, hasta llegar a nuestros días. Algunas de las dimensiones que al mismo tiempo la constituyen y la catapultan son la computación, la lógica, la física cuántica, internet.
De manera directa y puntual hay que decir que la información es un concepto físico, pero que no es tangencial o material (Landauer, 2008). Y bastante a la manera misma de la energía, es un flujo, un proceso, y no un estado, que sí es lo que caracteriza a la masa o materia. De suerte que la primera clave que surge en relación con la salud es que la salud es un proceso. En contraste, cabe decir que la enfermedad sí es un estado, como adecuadamente lo establece la clínica (“el estado del paciente”, precisamente por ser eso: “paciente”).
Es preciso decir, sin embargo, que no existe una definición de información; ni siquiera una buena definición de esta. Información es un concepto que se define relacionalmente, y no con base en un único centro o nodo de referencia. A continuación intentaré una caracterización de la información.
El concepto emerge originariamente en el siglo XX, gracias al famoso artículo de Shannon (1949); luego siguió el prefacio y el artículo publicado por Weaver en Scientific American , en el que resalta los problemas técnicos, semánticos y de influencias en el texto de Shannon (Weaver, 1949). Como se afirma en este texto, surge una importante teoría “basada en el carácter estadístico del lenguaje. En ella, el concepto de entropía se halla estrechamente vinculado con el concepto de información”.
Como se observa sin dificultad, la información es el concepto empleado para medir la entropía, más exactamente la entropía de Shannon; es esta relación la que funda la teoría de la información. De manera precisa, en el marco del pensamiento de Shannon, la entropía hace referencia al contenido de información de un mensaje. En términos elementales, la información es una medida de distribución, o también una cantidad, a saber: la cantidad de bits reunidos en un mensaje.
Читать дальше