Cinta de Moebio: Revista de Epistemología de Ciencias Sociales

Maldonado, C. 2008. Complejidad y ciencias sociales desde el aporte de las matemáticas cualitativas. Cinta moebio 33: 153-170. doi: 10.4067/S0717-554X2008000300001

PDF


Complejidad y ciencias sociales desde el aporte de las matemáticas cualitativas

Complexity and social sciences from the contribution of qualitative mathematics

Dr. Carlos E. Maldonado (carlos.maldonado44@urosario.edu.co) Facultad de Administración, Universidad del Rosario (Bogotá, Colombia)

Abstract

This paper depicts a subject that has been obliterated both in philosophy, philosophy of science and the sciences of complexity, namely: the importance of social sciences and the way they can be enriched by the mathematics of complex systems. As a consequence, the article presents and discusses both the mathematics of dynamic systems and the philosophy of mathematics of complex systems. Hence, its broad and descriptive character. Throughout this paper the main concepts, categories, tools, approaches and authors of the philosophy of mathematics of complexity are outlined and introduced. It is, therefore, an exploratory article in which, nonetheless, a general thesis is claimed, thus: over against the traditional problem I the philosophy of mathematics, which is about the foundations of mathematics, when dealing with complexity the question about foundation becomes secondary if not irrelevant. The mathematics of complexity is the junction of mathematics and time. In any case, the very core of all concerns is, after all, the care for human life and life in general on earth.

Key words: sciences of complexity, non-linearity, philosophy of science, social systems, time, evolution

Resumen

Este artículo hace una presentación de un tema que ha sido pasado por alto en la filosofía, la filosofía de la ciencia y las ciencias de la complejidad, a saber: la importancia de las ciencias sociales y el modo como pueden beneficiarse con las matemáticas de los sistemas dinámicos. Por tanto, el artículo presenta y discute al mismo tiempo las matemáticas de los sistemas dinámicos y la filosofía de las matemáticas de los sistema complejos. De aquí el carácter amplio y descriptivo del texto. A lo largo de este artículo se delinean e introducen los principales conceptos, categorías, herramientas, aproximaciones y autores de la filosofía de las matemáticas de la complejidad. Por lo tanto, se trata aquí de un artículo exploratorio en el que, sin embargo, se presenta una tesis general: en contraste con el problema tradicional de la filosofía de la matemática, que era el de la fundamentación de la matemática, este problema se vuelve secundario si no irrelevante. Las matemáticas de la complejidad es la unión de matemáticas y tiempo. Después de todo, en cualquier caso, el auténtico núcleo de todas las preocupaciones aquí es el cuidado por la vida humana y por la vida en general sobre el planeta.

Palabras clave: Ciencias de la complejidad, no linealidad, filosofía de la ciencia, sistemas sociales, tiempo, evolución

Introducción

Las ciencias de la complejidad en general se iniciaron en el marco de las ciencias llamadas “duras” –la física, la química, la biología, las matemáticas y los sistemas computacionales e informacionales–, pero, desde su origen, no solamente han reconocido que los sistemas de que tratan esas ciencias son en realidad bastante más simples que los de las ciencias sociales, sino, precisamente por ello, han avanzado también en dirección al estudio de los sistemas sociales humanos con herramientas, lenguajes, metodologías y enfoques propiamente complejos. Con ello, no solamente las ciencias de la complejidad han ganado extensión y fortaleza sino, lo que es aún más significativo, la comprensión de los procesos, estructuras y dinámicas de los sistemas sociales humanos se han enriquecido enormemente y han ganado universalidad asimilándose, a la par, sin más ni más con los sistemas que estudian las ciencias positivas, exactas y naturales (para decirlo con el lenguaje propio del siglo XIX).

En particular, las matemáticas cualitativas –matemáticas de los sistemas complejos adaptativos– han aportado nuevas, sugestivas y sorprendentes luces a la complejidad de las ciencias sociales. Al cabo, para decirlo de manera directa, ha habido el reconocimiento explícito de que los sistemas sociales humanos son los más complejos imaginables. De lejos, bastante más complejos que los sistemas biológicos, que los sistemas físicos o que los sistemas y procesos químicos. Esto, desde luego, ya se intuía –si se quiere, desde “siempre”. Pero en ciencia y en filosofía –mejor: en buena ciencia y en buena filosofía, la intuición no es suficiente: hay que demostrar, efectivamente, que las ciencias sociales son de una envergadura y una arquitectura compleja bastante mayor y magnífica que la de las ciencias naturales y positivas.

Con esto, no se trata, en absoluto, de invertir el dualismo –esta vez a favor de las ciencias sociales. Por el contrario, se trata de trabajar en la dirección de la complejidad: que es, básicamente, la de un trabajo denodado por superar el dualismo, el pensamiento binario, imperantes a lo largo de la historia de la humanidad occidental. Sólo que este esfuerzo de superación del dualismo restituye, por así decirlo, por primera vez, la dignidad y el valor de las ciencias sociales. En esta historia, las matemáticas cualitativas o matemáticas de la complejidad desempeñan un papel protagónico. Se trata, sencillamente, de incorporar estructuras, experiencias, aprendizajes y procesos matemáticos en un terreno que, por diversas razones, estuvieron al margen: las ciencias sociales y los sistemas sociales humanos.

I

Desde la antigüedad griega, originándose con seguridad en la escuela Pitagórica, hasta hace muy poco, los matemáticos trabajaron con un tipo determinado de entidades: los números (1). Lo demás, fue el trabajo de operaciones entre números y posteriormente de relaciones entre ellos. Así surgieron, por ejemplo, la aritmética y la geometría, el álgebra, y el cálculo integral y diferencial. Con base en esta tradición, usualmente se creyó –y se hizo creer–, que las matemáticas consistían en trabajo con números, fórmulas y ecuaciones de distinto tipo. En rigor, la matemática nace con Descartes, que es quien unifica, por primera vez a las dos áreas fundamentales de trabajo con la mathema: el álgebra y la geometría analítica, su propia invención.

Sin embargo, en el curso del siglo XX surgieron otro tipo de matemáticas –en plural, en contraste con la matemática tradicional. Estas nuevas matemáticas se conocen como “matemática moderna”, “nuevas matemáticas” o “matemáticas cualititativas”. La cuna en la que se incuban estas matemáticas es la topología, entreabierta originariamente por H. Poincaré, pero posible efectivamente gracias a S. Smale, su verdadero padre. En cualquier caso, los desarrollos más importantes de la topología giran acreedor de la obra y nombre de W. Thurston. En consecuencia, en lo sucesivo se trató cada vez menos de estructuras y espacios fijos, y sí mucho más, cada vez, de topologías, cambios de espacios, formas, redes y relaciones. El punto arquimédico puede, así ser identificado como el acceso a, y la preferencia por el trabajo por, las funciones (notablemente, a partir de las funciones continuas sin tangentes, y lo que se deriva de las mismas); en realidad, el tema es y será en lo sucesivo el trabajo con funciones, sistemas y conjuntos.

El rasgo característico de la nueva matemática es que, con ella, los matemáticos se dan a la tarea de crear nuevos entes, con los cuales trabajan a fin de explicar los nuevos problemas y realidades que los ocupan, en contraste con la matemática –¡y la cultura!– tradicionales. Los ejemplos más conspicuos de estas nuevas entidades son: los conjuntos (Cantor), las clases (Cantor, Dedekind, Weiertrass), los conjuntos de Julia, Serpienski y Mandelbrot, el copo de Koch, la botella de Klein, la cinta de Möbius, los toros y los atractores (caos) (de Henin, de Lorenz, y otros), la transformación del panadero, problemas como el del vendedor viajero, las estructuras disipativas (I. Prigogine), las redes y las conexiones (P. Erdös), los fractales (B. Mandelbrot), en fin, incluso la cohomología y los teselados (R. Penrose).

En correspondencia, se producen nuevos desarrollos conceptuales que dan lugar a nuevas teorías y disciplinas, tales, entre otras, como la topología, el análisis de variable real, el análisis funcional, la teoría axiomática y formal de conjuntos, la teoría de la medida, el álgebra que, al cabo, termina denominándose “moderna”, y demás (De Lorenzo 1998, Penrose 2005).

Naciendo de la topología –a cual a su vez tiene un ancestro directo en campos como las geometrías no euclidianas–, las matemáticas contemporáneas se ordenan alrededor de tres grandes áreas: la teoría de grafos, que nacen con Euler, pero cuyo verdadero padre es P. Erdös, el análisis combinatorio (o complejidad combinatoria), y las matemáticas de los sistemas dinámicos. No con indiferencia ante las dos primeras, es propiamente en el marco de estas últimas como emergen las matemáticas propias del estudio de los sistemas dinámicos no-lineales, o también, de las ciencias de la complejidad. Como quiera que sea, un elemento común a las tres es el de encontrar algoritmos para los problemas que conciben o con los que se encuentran.

En matemáticas, un problema se designa como P si se pueden resolver con un algoritmo que funcione en un tiempo polinomial. Esta clase de problemas se designan como problemas fáciles –y son, sencillamente, susceptibles de abordarse y resolverse en términos polinomiales; esto es, dividiendo el problema en términos de los componentes del mismo. Una forma adecuada de traducir esto consiste en el uso de mecanismos como organigramas, cronogramas, histogramas, y demás. Básicamente se trata de algoritmos que permiten y hasta exigen el análisis.

Frente a los primeros, existen igualmente los problemas N-P, que son aquellos que no pueden resolverse en un tiempo polinomial no determinista. Por derivación, se trata de aquella clase de problemas que no se definen, se abordan ni se comprenden en los términos en los que lo hacen los problemas P. Ahora bien, consiguientemente, todos los problemas que forman parte de la clase P también se encuentran en la clase N-P. Pero lo contrario no es cierto. Que sea posible comprobar una solución a un problema en un tiempo polinomial no implica necesariamente que también se lo pueda encontrar en un tiempo polinomial. Por tanto, no es, en manera alguna, evidente que P ≠ N-P.

En este punto se encuentra exactamente la frontera entre los problemas combinatorios de optimización y aquellos que interesan y conciernen propiamente a las ciencias de la complejidad. Inmediatamente volveré sobre esta idea. Mientras tanto, lo central estriba en el reconocimiento de que es altamente difícil demostrar que un problema no se puede resolver en un tiempo polinomial. Nos enfrentamos aquí con el problema de las demostraciones de no existencia o de imposibilidad. La razón para esta dificultad consiste en que en matemáticas, como en ciencia, en filosofía, y en la vida en general, se abordan siempre primero los problemas fáciles y se postergan los problemas difíciles.

Asimismo, de otra parte, se habla de problemas N-P completos si pertenecen a N-P. Así, en otras palabras, todo problema de la clase N-P, que no esté ya en P, se designa como un problema N-P completo. Lo verdaderamente interesante estriba en el reconocimiento de que los problemas N-P que, por definición, no son fáciles, se conocen como problemas relevantes.

Pues bien, quiero aquí argumentar a favor de la idea de acuerdo con la cual, las matemáticas de la complejidad se ocupan con problemas relevantes, en el sentido mencionado y que, en por lo tanto, en términos filosóficos y más amplios, las ciencias de la complejidad se caracterizan como el conjunto de los problemas filosóficos de la ciencia contemporánea. De la adecuada comprensión de esta idea se siguen claras implicaciones con respecto al concepto/problema relativo a “verdad”.

II

Hacia finales del siglo XIX y comienzos del siglo XX nadie inteligente –teórico, académico o investigador– podría sustraerse a la discusión acerca de la naturaleza y los fundamentos de la matemática. Algunos de los nombres más ilustres del cambio del siglo se ocuparon de este dúplice tema en su obra: Wittgenstein, Russell y Whitehead, Peano, Freud mismo, Frege, Hardy y Husserl, para mencionar tan sólo algunos de los casos más conspicuos. El debate tenía que ver con la naturaleza misma de las matemáticas, así: ¿son ciencia o son un lenguaje? Este problema definió el problema mismo de la fundamentación de las matemáticas y, consiguientemente, el de su función y sentido. Como señala con acierto De Lorenzo (1998), el problema de la fundamentación hace referencia esencialmente a dos ámbitos: de un lado, la fundamentación ontológica de la matemática –en la cual se incluye la fundamentación lógica, la conjuntista y la categórica– y la fundamentación metodológica. O para decirlo en otras palabras, más sucintamente: el problema de la fundamentación hace referencia al tema, sensible, de las definiciones, en un debate que oscilaba entre el formalismo y el intuicionismo, o el externalismo y el internalismo. La reaparición frecuente de fenómenos complejos obliga al matemático a nuevas definiciones. Como se aprecia fácilmente, éste es el lugar en el que confluyen y divergen, a la vez, matemática y lógica.

Ahora bien, el papel más destacado en el giro del siglo XIX al XX en torno al tema mencionado lo desempeñó, sin lugar a dudas, D. Hilbert cuando en el Congreso Mundial de Matemáticas realizado en París en Agosto de 1900 formuló los conocidos 23 problemas. El hecho significativo radica en que con ellos, por primera vez, de manera programática, Hilbert inspiró a la comunidad de matemáticos a pensar en términos más conceptuales que operativos y funcionales. Con seguridad, esta actitud le debe mucho a B. Riemann, quien unos cincuenta años antes había producido un giro significativo al pensar las matemáticas no ya como un tema de fórmulas y ecuaciones, sino de ideas y de teoría abstracta (2).

Frege era, a la sazón en el giro del siglo, el más destacado matemático de una pléyade de matemáticos fundamentalmente de dos naciones, Francia y Alemania, que incluía los nombres de Dirichlet, Sieltjes, Hadamard, Weierstrass, Landau, Riemann mismo, Dedekind, Hermite, el belga de la Vallée-Poussin, Minkowski, en fin, Poincaré (3).

La preocupación tenía que ver en general con la historia de la ciencia en la modernidad y, más particularmente, con la historia de la lógica. El surgimiento de la ciencia moderna tiene lugar como una verdadera eclosión de ciencias, disciplinas, prácticas y saberes que se independizan de la filosofía (= metafísica) y que afirman tener, cada cual, un objeto propio, un lenguaje auténtico, un método incluso, que no dependen ya para nada de la metafísica. Tal es la historia de la transición de la alquimia a la química, de la emergencia de la física –con todo y que Newton aún se empecina en concebirla como “filosofía natural”–, la historia de la economía, y posteriormente de la inmensa mayoría de ciencias y disciplinas que nacen en el curso del siglo XIX: entre ellas, la antropología, la psicología, la sociología, y varias más.

Por su parte, en cuanto a la historia de la lógica, asistimos a una situación verdaderamente apasionante. La lógica asiste al mismo proceso que las demás ciencias, prácticas y disciplinas que se independizan de la metafísica. La lógica se independiza de la filosofía y con lo cual, al mismo tiempo, nace como ciencia propia que nada tiene que ver con la metafísica. En este sentido, en rigor, la lógica nace entre 1847 y 1936. El primer paso en esta historia fue el de Boole y Morgan; posteriormente G. Frege –quien publica el Begrifschrift (Escrito conceptual), hasta arribar, finalmente, a la obra de Tarski, sin excluir antes, claro está, el proyecto de Russell de fundar la matemática sobre la base de la lógica en los Principia.

Pues bien, la lógica que se independiza de la filosofía (Lógica sin metafísica, al decir de Nagel), ciencia por sí misma sin necesidad de la metafísica, es la lógica simbólica o también la lógica matemática. Se marca, así, una ruptura radical e irreversible de aquella vieja creencia según la cual la lógica y la matemática tuvieron una sólida implicación recíproca, en toda la historia de la cultura occidental desde la Grecia antigua. Si la lógica de había independizado de la filosofía, ¿qué quedaba de las matemáticas? El debate se dio en términos generales así: ¿es la matemática una ciencia o un lenguaje, a saber, el lenguaje de la ciencia e incluso, como lo sostuviera en los orígenes de la ciencia moderna Galileo, el lenguaje en el cual está escrita la naturaleza? Al albur de este debate Einstein formula la conocida respuesta: en la medida en que las matemáticas se refieren a la realidad, no son verdaderas, pero en la medida en que no se refieren a la naturaleza, son verdaderas. No en última instancia, R. Penrose habrá de escribir, hacia el final del siglo XX el libro The Shadows of the Mind, que es la defensa más fuerte y reciente acerca del carácter platónico, esto es, no subjetivo, de las matemáticas, y que terminará de desarrollar, ilustrar y aplicar en Penrose (2005).

Más allá de la discusión entre el formalismo y el intuicionismo que marcó el comienzo del siglo y buena parte de su historia hasta la obra de Bourbaki, de cara al desarrollo de las matemáticas, el hecho determinante se origina a partir de los problemas formulados por D. Hilbert en el Congreso Mundial de Matemáticas realizado en París en el año 1900. Específicamente, se trata de la historia que se deriva de los problemas 2 y 23 formulado por Hilbert (Gray 2005).

Como resultado de ese problema, el desenlace central tiene como protagonistas, en primer lugar, a K. Gödel, quien acusa de tautológica a toda la lógica y matemática tradicionales y con cuyo trabajo desarrolla la idea de lo incompleto de los sistemas coherentes, con sus consecuencias sobre el problema de “verdad”. De otra parte, en segundo lugar, A. Turing escribe el famoso paper: Can Machines Think?, con el cual habrá de desarrollar la famosa Máquina de Turing cuyo núcleo es el tema de la indecibilidad de determinados problemas y la consiguiente incompresibilidad de los programas verdaderamente significativos. En términos más generales, como ha sido ampliamente reconocido por parte de la historia de la ciencia, asistimos a una crisis de la ciencia cuya expresión física es Heisenberg, y cuya expresión lógica es Gödel.

En cualquier caso, de cara a Hilbert, quizás su más grande contribución relativamente al problema de la naturaleza y la fundamentación de la matemática estriba en el desarrollo de la metamatemática, un sub-campo que habrá de adquirir a la postre un derecho de existencia y un estatuto propio tanto en matemáticas como en filosofía de la matemática.

Pues bien, a partir del problema, fundamental, acerca de la naturaleza y la función o sentido de la matemática abordado en el giro del siglo XIX-XX –que atraviesa por el problema delicado de las contradicciones, las paradojas y los celos alrededor del principio (o ley) de la no-contradicción–, habrá de producirse un cisma con una triple consecuencia. El cisma será el surgimiento de las matemáticas cualititativas, relegando a un lugar secundario a la matemática cuantitativa (obsérvese el uso del plural y el singular). Y la triple consecuencia será el desarrollo de tres clases de matemáticas: la matemática pura, la matemática aplicada y la matemática que se desarrolla con la ayuda del computador (Odifreddi 2006). En rigor, se trata de tres estrategias diferentes tendientes a resolver lo que sea verdadero y lo que no.

Ahora bien, creo que el problema de la fundamentación de la matemática fue –durante mucho tiempo– el problema central de la filosofía de las matemáticas y respondió a una historia cuyo vórtice central era el debate acerca de la naturaleza misma de la matemática –supuesto, justamente, que sólo había una o la matemática. Sin embargo, el tema de una filosofía de las matemáticas de la complejidad no encuentra, perentoriamente, al problema de la fundamentación como piso y ni siquiera como hilo conductor.

En efecto, es posible considerar la filosofía de las matemáticas de la complejidad desde dos perspectivas básicas, así: de un lado, según si atiende a la complejidad misma de varios temas determinantes de la matemática, algunos de cuyos más conspicuos ejemplos sería la relación entre el infinito y los números transfinitos, el carácter caótico mismo de números como Pi (π), o al carácter de la indeterminación misma de la conjetura de Riemann, por ejemplo. No es en esta línea que quisiera situarme aquí. Por el contrario, quisiera considerar el carácter complejo mismo que las matemáticas referidas a sistemas y fenómenos caracterizados por no-linealidad, autoorganización, sinergia y emergencia, por ejemplo. Más exactamente, quiero situar en el centro de la mirada el tema mismo de las matemáticas de la complejidad. A fin de precisar mejor ésta idea, se impone una observación.

Las ciencias de la complejidad no son simplemente ciencias de sistemas dinámicos –pues la dinámica, de hecho forma parte de la mecánica clásica y que es un caso particular de la teoría de la relatividad y de la mecánica cuántica (4). Por el contrario, el tipo de fenómenos, sistemas y comportamientos que interesan y que son constitutivos de las ciencias de la complejidad son aquellos que se caracterizan por ser de complejidad creciente. A fortiori, este es exactamente el caso también para las matemáticas de la complejidad. En una palabra, la complejidad es un fenómeno emergente, y no ya causal.

Los ejemplos característicos de fenómenos de complejidad creciente son la geometría de campos o geometría fractal, desarrollada por B. Mandelbrot, el caos y, en general, el trabajo con y el desarrollo de sistemas en perspectiva evolutiva. De esta suerte, puntualmente dicho, la filosofía de las matemáticas de la complejidad responden en realidad una ecuación simple, así:

Matemáticas + Tiempo = Complejidad

Precisamente, en este sentido, el tipo de ecuaciones con que se trabaja, en muchas ocasiones, en complejidad, tienen que ver con iteración, evolución, aprendizaje – generalmente a través de procedimientos computacionales.

En esto exactamente estriba el tema de la filosofía de las matemáticas de la complejidad, en contraste con la filosofía de la matemática tradicional: en el modo como el tiempo puede y debe ser integrado en los estudios matemáticos. Es en esto en lo que consiste la incorporación de la perspectiva evolucionista.

III

Una especificidad de la forma como se trabaja en ciencia es en relación con los medios técnicos a la mano, de un lado, y con la tecnología disponible, de otra parte. Lo mismo sucede en el caso de las matemáticas –referidas a los sistemas de complejidad creciente. Esta idea se ilustra mucho mejor con relación al problema de la no-linealidad.

Desde el punto de vista histórico, la relación entre técnica/tecnología e investigación puede ilustrarse de la siguiente manera (5). En la Grecia antigua, nadie podía llamarse investigador si no manejaba dos herramientas básicas de investigación: la regla y el compás (o también, la escuadra y el compás). De hecho la matemática griega se apoya en mucho en el trabajo con regla y con compás, aunque, evidentemente, no se reduce a ellos. En la Edad Media era imposible hacer “ciencia” (= teología como scientia magna) sin el empleo de la mejor tecnología de la época: libro, cuaderno y lápiz. No en vano, buena parte de la ciencia medieval (= teología) se lleva a cabo como el trabajo de los copistas. No es casual que la matemática medieval permanezca hipertrofiada durante mucho tiempo debido al predominio del sistema romano de numeración. Será tan sólo con el descubrimiento por parte de Occidente y la incorporación del sistema numeral arábigo, y con ello, el número cero, en el siglo XII, por lo que se sientan las bases para la ciencia moderna. Posteriormente, en la Modernidad, los científicos se dan a la búsqueda de lo infinitamente grande y lo infinitamente pequeño mediante dos instrumentos distintos pero, al cabo, complementarios: el microscopio y el telescopio. La matemática es herramienta de medición y la ciencia moderna es ciencia eminentemente cuantitativa. Pues bien, correspondientemente, en el mundo contemporáneo, específicamente a partir de 1944, es imposible hacer investigación de cualquier tipo sin el uso pleno de un instrumento conceptual: el computador. Puntualmente dicho, el trabajo efectivo con sistemas no-lineales es posible gracias específicamente al computador. Así, en rigor, las ciencias de la complejidad son al mismo tiempo posibles gracias al desarrollo de la computación y contribuyen, a su vez, para el desarrollo de lenguajes de programación, de cara a la heurística y metaheurística de los sistemas complejos no-lineales.

El trabajo esencial con el computador es, desde luego, supuesta la base material del mismo –hardware–, el trabajo de/con software (o logiciels). Así, se trata del trabajo con lenguajes de programación que permiten la simulación. Como es sabido, se trata del trabajo con dos grupos de simulación: simulación de objetos y simulación de procesos o series, para lo cual existen dos grandes posibilidades: trabajar con alguno(s) de los lenguajes ya existentes, o bien programar. Esto a su vez se inscribe en el marco más amplio aún de la opción por lenguajes cerrados (= patentados), o bien mediante el recurso al open source (por ejemplo, Unix, Linux, y otros).

Desde el punto de vista metodológico, lógico, matemático y heurístico, asistimos, así, al tránsito de la descripción a la explicación, y del modelamiento a la simulación en el desarrollo de la investigación científica, una transformación de muy largo alcance que termina de ratificar el hecho de que las ciencias de la complejidad constituyen una auténtica revolución científica en el sentido de T. Kuhn. En este orden, el conocimiento y el trabajo con la obra de S. Wolfram es determinante, especialmente A New Kind of Science (2002), sin desconocer Complexity and Cellular Automata. Ahora bien, en este panorama, es fundamental al hecho de que las matemáticas que subyacen a la lógica computacional son el álgebra Booleana, que se encuentra en la base del mejor trabajo explicativo de los procesos de autoorganización, tal y como lo llevó a cabo S. Kauffman (1995). En este mismo sentido, el desarrollo de los algoritmos genéticos (J. Holland) condensa e ilustra a la vez el trabajo con sistemas evolutivos. Con los algoritmos genéticos, el tema es, por tanto, la inteligencia artificial y la vida artificial.

Como quiera que sea, el desarrollo de los sistemas computacionales permite, por primera vez en la historia, ver, literalmente, y trabajar con fenómenos y comportamientos no-lineales. Es cierto que la no-linealidad ya fue entrevista por Leibniz –notoriamente–, pero es tan sólo gracias al desarrollo del computador como herramienta conceptual que la ciencia pudo acceder al mundo de la no-linealidad; y con él, igualmente al de las emergencias. Esta idea ancla en el trabajo pionero de H. Pagels, con seguridad, unos de los padres de la complejidad, y uno de los primeros en ver la importancia de la computación para la complejidad. En un desarrollo ulterior de esta idea, se trata de temas tales como la computación gráfica, la computación cuántica, y otras.

Ahora bien, este panorama podría dar la impresión de que el trabajo con complejidad se inclina hacia las matemáticas aplicadas, antes que hacia las matemáticas puras y la lógica (una visión semejante se sigue, sin dificultad, de Odifreddi 2006). Una impresión semejante es, sin embargo, errónea por simple y reduccionista. Lo que sí es manifiestamente cierto es el hecho de que también en el caso de la complejidad, las matemáticas contemporáneas son una creación continua e incesante. Son numerosos los autores que coinciden en precisar que esta creación continua es tan variada, amplia e impredecible como la vida misma (Mankiewicz 2000, Holland 1995, Bar-Yam 1997).

Sin embargo, a propósito de las relaciones entre computador y matemáticas, hay un tema bastante más delicado que surge inmediatamente ante la mirada reflexiva. Se trata del reconocimiento de que el uso computador –esto es, notablemente, de lenguajes de simulación– no aporta ninguna demostración. A lo sumo, tan sólo una ilustración. Más allá de la discusión acerca de los tres tipos de matemáticas –puras, aplicadas y computacionales–, la demostración sigue siendo el aporte fundamental de las matemáticas al cuerpo del conocimiento humano. Y la demostración es la obra de la intelección de los matemáticos.

Al respecto, sin embargo, es importante atender al descubrimiento alcanzado por Gödel en el sentido de que hay cosas que sabemos o que son verdaderas y que sin embargo, no podemos demostrar. En otras palabras, existen fallas en la demostración. Estas fallas cierran el camino de la ciencia, pero abren el camino de las matemáticas por cuanto una demostración matemática es muchas, muchas veces más exigente que una científica – experimental (Cfr. De Sautoy 2003). Una demostración matemática es un argumento impecable que sólo usa los métodos del razonamiento lógico que nos permiten inferir la validez de una afirmación matemática. Es clave entonces: mostrar las relaciones entre matemática y lógica, y que la lógica se ocupa de las inferencias –entailment.

IV

¿Es la complejidad relativa al observador? En rigor, en el contexto de las ciencias –y de las matemáticas– de la complejidad esta es una pregunta equivocada que tan sólo cabe en el marco del pensamiento sistémico. Por el contrario, lo propio de la mirada –matemática– de la complejidad consiste en el reconocimiento de, y el trabajo con, la multiescalaridad. Los enfoques multiescalares establecen que la complejidad de un fenómeno descansa en la naturaleza misma del fenómeno –y no en el observador–, pero que un fenómeno cualquiera puede y debe ser visto de distintas maneras –por ejemplo, por distintos observadores.

Sería un truismo sostener que la matemática trabaja con símbolos, definiciones y ecuaciones con propiedades y reglas de transformación bien precisas. Lo verdaderamente relevante estriba en el reconocimiento de que en la matemática contemporánea no existe un objeto de trabajo determinado y preciso, de la misma manera que el sujeto tampoco crea la matemática y la pone como explicación del mundo sin más. El lenguaje de las funciones hace insostenible la división sujeto-objeto; las matemáticas de la complejidad plantean filosóficamente el tema del análisis funcional en el que, para decirlo en lenguaje clásico, la estructura es una consecuencia de la función.

El problema fundamental de la complejidad consiste en comprender el orden. Un orden que, hemos llegado a saberlo, no es precisamente estático o regular, sino, más exactamente, aperiódico, marcado por inestabilidades, turbulencias, fluctuaciones y bifurcaciones. La expresión de S. Strogatz es, al respecto afortunada: entender la sincronía, la armonía y el equilibrio –el orden– en términos espaciales es relativamente fácil. Mucho más difícil es entenderlo en términos temporales (Strogatz 2003). Hace apenas muy poco tiempo que hemos comenzado a estudiar y a comprender esta clase de fenómenos –temporales, evolutivos, irreversibles: en fin, de complejidad creciente. Si, como es efectivamente el caso, para entenderlos hay que inventar nuevas matemáticas, pues se asume el reto. Este es exactamente el punto de encuentro entre complejólogos y matemáticos, por ejemplo. (Hay que decir que la posibilidad y la necesidad de inventar nuevas matemáticas no es una prerrogativa de las matemáticas, sino, mejor aún, del conocimiento mismo. De cara a nuevos enigmas, retos, realidades, posibilidades y desafíos, el conocimiento –en general– se da a la tarea de crear nuevos lenguajes, nuevos conceptos y categorías, en fin, nuevas metáforas).

G. Chaitin (1999) tuvo toda la razón al advertir que el sueño de Hilbert fracasa en matemáticas y en lógica pero triunfa en la computación; más exactamente, en el desarrollo de los lenguajes computacionales, pues la primera exigencia de esta clase de lenguajes –incluso independientemente de que se trabaje con lenguajes cerrados o con open source, es el rigor sintáctico del lenguaje, sin el cual es imposible que se alcance un sólido desarrollo semántico y otros de esta clase de lenguajes artificiales. Sobre la base de esta idea, Chaitin lleva a cabo una labor importante en complemento del trabajo que, por otra parte, adelantara Kolmogorov. En efecto, un problema al mismo tiempo filosófico y científico que no podía resolverse sin la contribución de las matemáticas, y que permaneció sin resolver durante siglos, es el de la aleatoriedad. Dicho puntualmente, se trata de las relaciones entre necesidad, o causalidad, y aleatoriedad.

El trabajo con aleatroriedad tiene dos preámbulos: de una parte, el cálculo diferencial e integral –que es inocuo para el estudio de la complejidad–, y de otra parte el álgebra no-lineal –mucho más idónea, pero con restricciones sobre el ámbito o dominio en el que opera. Sobre estas bases, el paso siguiente es la apropiación de herramientas de probabilidad así como el trabajo con sistemas estocásticos (6).

G. Chaitin y Kolmogorov son dos fuentes independientes pero complementarias en el estudio y definición de la aleatoriedad. Chaitin, notablemente gracias al lenguaje que desarrolló denominado LISP, y Kolmogorov, gracias a los procedimientos de axiomatización de la probabilidad. Este constituye, exactamente, el eslabón que al mismo tiempo unifica y diferencia a las matemáticas de los sistemas dinámicos y el estudio de los fenómenos de complejidad –y optimización– combinatoria. En efecto, dicho en términos al mismo tiempo filosóficos y matemáticos, la complejidad del mundo es el resultado de que vivimos justamente en un universo probabilístico, en el que, consiguientemente, de un lado, los temas de decisión, juego y tipos y modos racionalidad son determinantes, y en el que, al mismo tiempo, de otra parte, la incertidumbre constituye un rasgo ontológico y no simplemente epistemológico, en el conocimiento, explicación y comprensión de lo que es real y posible, en general.

En ciencia, como en la vida, se trabajan tradicionalmente primero, siempre, los problemas fáciles, y se postergan y relegan, los problemas difíciles. Pues bien, algo semejante sucedió con el estudio de la aleatoridad, hasta el desarrollo de los trabajos de Kolmogorov-Chaitin que permitieron herramientas al mismo tiempo lingüísticas, lógicas y matemáticas que permitieron ver que los sistemas deterministas, lineales y predecibles son, en realidad, sistemas irrelevantes. I. Prigogine representa una buena contribución al respecto, específicamente cuando, en contraste con las ideas defendidas por J. Monod, precisa que la complejidad es el resultado de una relación dinámica entre azar y necesidad. En este sentido, Prigogine entiende el trabajo científico, matemático y filosófico como la elaboración de una formulación unitaria de la complejidad (Nicholis y Prigogine 1994).

Como quiera que sea, es necesario observar que las ciencias de la complejidad permiten poner al descubierto, en marcado contraste con toda la historia de la ciencia y la filosofía desde la Grecia antigua, una no centralidad de las matemáticas, en contraste con la ciencia clásica, aunque sí adquiere un papel necesario al lado de otros instrumentos, como el computador (7). En otras palabras, las matemáticas de la complejidad ya no tienen un papel hegemónico en la comprensión de la complejidad – lo que sería a todas luces una contradicción, cuando se habla de ciencias de frontera fundadas en problemas de frontera, y con un carácter cruzado, integral o interdisciplinario. Incluso autores como Holland (1995) y Chaitin (2001 y 2002) coinciden en esto.

Las matemáticas de la complejidad son matemáticas cualitativas. La comprensión matemática de la complejidad es aquella que establece que se trata de sistemas, comportamientos o fenómenos caracterizados por un amplio número de grados de libertad, de tal suerte que a mayores grados de libertad –en el sentido físico y matemático de la palabra–, mayor complejidad. Ahora, desde luego que esto no excluye, en manera alguna, la idea de que también haya lugar para una comprensión cuantitativa de la realidad, del mundo, de la complejidad. Por lo demás, es cierto que las matemáticas de la complejidad se encuentran fuertemente centradas –o marcadas– por la física, la química y la biología. Pero ello se debe, más que a las propias ciencias de la complejidad, a la historia de la ciencia moderna y contemporánea. En este sentido, recientemente se vienen incorporando matemáticas también a las ciencias sociales y humanas, en el sentido más amplio de la palabra. Al respecto hay que decir que la contribución específica de las matemáticas –en general– mediante su empleo de fórmulas, símbolos y lógica consiste, en rigor, en su capacidad de compresión de lo que, de otro modo, requeriría muchas palabras para ser expresado. Este carácter es igualmente válido para las matemáticas cualititativas.

Finalmente, un elemento adicional en el trabajo matemático –y no solamente matemático– con la complejidad es la existencia de patrones replicativos e iterativos, algo que fue puesto de manifiesto originalmente por el libro clásico de D. Hofstaedter en torno a la replicación y reiteración: Gödel, Escher y Bach. No en última instancia, es necesario incluir aquí las contribuciones de H. Haken para el estudio de los fenómenos caracterizados por sinergia.

V

El estudio de la complejidad consiste en la descripción, comprensión y explicación de sistemas dinámicos –¡en rigor, termodinámicos! (Maldonado 2005b), caracterizados por no-linealidad, sinergias, bucles de retroalimentación positiva y negativa, transiciones de fase, bifurcaciones, autorganización y emergencias, en los que lo importante no son los elementos que componen un sistema determinado, sino las relaciones entre los componentes del sistema de que se trate, así como el hecho, fundamental, de que se trata de un sistema abierto, o sensible al entorno o medio ambiente. Fundamentalmente, por consiguiente, se trata de sistemas abiertos, incompletos, inacabados y en evolución (Maldonado 2007a y 2007b).

Quisiera insistir en esta idea: El problema de la fundamentación de las matemáticas hace esencialmente referencia la naturaleza y, por derivación, a la función o al sentido de las matemáticas. Como tal, es un tema propio de la matemática clásica. Quiero sostener la idea según la cual, de cara a las nuevas matemáticas, el problema de la fundamentación varía sustancialmente. Las matemáticas de la complejidad son matemáticas de sistemas termodinámicos –y no ya simplemente dinámicos. En rigor, la matemática de los sistemas dinámicos es la matemática clásica; las nuevas matemáticas ya no se interesan tanto por los fenómenos dinámicos –mecánicos, lineales, por consiguiente–, sino, mejor aún, por aquello caracterizados por no-linealidad, emergencia, autoorganización e irreversibilidad. Ahora, dado que la fundamentación hace referencia a estructuras y estabilidades, a principios y a leyes, éstas tienen en el contexto de las ciencias de la complejidad otro carácter radicalmente distinto, pues se trata de la fundamentación de aquello que es variable, o que se ocupa de lo variable.

El estudio matemático de la complejidad se lleva a cabo de dos modos, alternos. De un lado, encontramos métodos analíticos de estudio y simulación de la complejidad. De otra parte, se trabaja con conceptos que, ocasionalmente, son ilustrados mediante simulaciones, gráficos u otras herramientas.

Entre los métodos analíticos, se ha privilegiado usualmente los siguientes: las redes booleanas –integradas, notablemente, por S. Kauffman en el estudio de las redes autocatalíticas–, los exponentes de Lyapunov –útiles en general en los estudios que integran perspectivas ecológicas–, los mapas iterativos –lineales y no-lineales y cuadráticos–, la constante de Lotka-Volterra –útil en el estudio de los sistemas de la ecología–, los fractales –notablemente las mediciones fractales sobre determinados fenómenos–, los toros y atractores –De Henin y otros–, siendo, sin embargo los más relevantes los atractores extraños –que constituyen el paradigma en el estudio del caos–, y que son bastante utilizados en el estudio de fenómenos como los solitones, la identificación de puntos críticos, estados críticos y transiciones de fase –todos los cuales encontraron en los trabajos sobre criticalidad autoorganizada de P. Bak una base sólida–, y en general la identificación de los grados de libertad de los fenómenos de que se trata en cada caso (8). La lista puede en realidad hacerse tan larga como se quiera, pero a fin de tener un mapa general sólido basta con ver Bar-Yam (1997) y Nicholis y Prigogine (1994). A estos métodos es preciso agregar, de manera puntual, la identificación de leyes de potencia (power law) y, con ellas, la Ley de Zipf. Ambas, sin embargo, han llegado a ser reconocidas recientemente como casos particulares en el estudio de conexiones y osciladores (Strogatz 2003).

Los sistemas complejos –en rigor, alejados del equilibrio o en el filo del caos, dos metáforas equivalentes–, son el resultado de aprovechamiento y negación, al mismo tiempo, de la entropía. En este orden, el trabajo pionero de Shannon y Weaver es imprescindible, pues sienta las bases para la teoría matemática de la información. Sin embargo, los trabajos de W. H. Zurek (1989a y 1989b) son absolutamente obligatorios en este plano, y todos los investigadores coinciden en la centralidad de los trabajos de Zurek para la apropiada comprensión de la entropía –ya no solamente informacional.

La teoría de grafos ha venido a convertirse en una ciencia obligatoria en el estudio de la complejidad, desde el punto de vista científico, específicamente a partir de la configuración de la ciencia de redes (connections) –y ya no simplemente de la teoría de redes (networks), gracias a las contribuciones fundamentales de Barabasi (2003), Strogatz (2003) y Watts (2004). De esta suerte, la ciencia de conexiones permite un avance significativo con respecto a los enfoques simplemente matriciales.

Finalmente, faltaría por hablar de la lógica –lógicas, en rigor– de los sistemas de complejidad creciente. Se trata de las lógicas filosóficas –anteriormente llamadas “lógicas no-clásicas”–, pero ese es otro tema que debe quedar aquí aparte (9). Y, asimismo, de ciertas herramientas computacionales tales como los autómatas celulares, los algoritmos genéticos y la vida artificial, pero ese es, igualmente, otro tema para otro momento.

VI

El problema más importante de todos acerca de la naturaleza y la función de las matemáticas en la economía de la naturaleza y del conocimiento en general, tiene que ver con la relación entre matemáticas y realidad y, consiguiente e inevitablemente, con la comprensión y definición misma de lo que sea la realidad y lo que sea “real”.

Este problema se origina, en el marco de las matemáticas a partir del tema, fundamental, de la geometría. Si son efectivamente posibles varias geometrías –la geometría Euclidiana, las de Lobachevsky, Bolyai y Riemann, la de Mandelbrot, en fin, incluso la de Witten–, ¿cuál de ellas describe mejor el mundo físico, y con el mundo físico, el mundo de los asuntos humanos en el sentido normal y natural de la palabra?

El problema de las contradicciones aparece aquí como inescapable y fundamental. En efecto, el mérito de Hilbert consistió en que sentó las bases para demostrar que/si las matemáticas poseen contradicciones. La primera forma como ello se llevó a cabo en la historia de la matemática fue, como es sabido, con respecto a la geometría de Euclides, y luego también con relación a la teoría de números. Una vez descubiertas las contradicciones, el problema consiste en decidir qué hacer con ellas. Es exactamente en este punto en donde nacen o anclan, por así decirlo, las matemáticas de la complejidad de cara al problema de lo que sea verdad.

Como tal, el concepto/problema de “verdad” hace referencia a condiciones del mundo –de la realidad, en fin, de la sociedad o de la naturaleza–, según los intereses de investigación, antes que a la estructuración misma del pensamiento. Tarki ya fue claro al respecto hace tiempo. “Verdad”, así, es el título que designa la adecuación del juicio o la demostración al mundo, sólo que, en el contexto de los sistemas de complejidad creciente, se trata de un mundo que, por definición, está marcado por turbulencias, fluctuaciones, inestabilidades y rupturas de simetría. Así la cosas, se impone una comprensión de “verdad” que se corresponda con una perspectiva evolutiva.

Dicho en el lenguaje genérico de los sistemas evolutivos, el problema se condensa en los siguientes términos: ¿es el mundo en evolución verdadero, o bien hay verdad en la evolución del mundo y de los fenómenos? Hay que decir que, en rigor, el concepto/problema de verdad no ha sido un objeto directo de preocupación por parte la comunidad de complejólogos y de matemáticos y filósofos de la complejidad.

Como ya se dijo, queda dicho que es suficientemente conocido el juicio de Einstein según el cual en la medida en que las matemáticas se refieren a la realidad no son verdaderas, pero en la medida en que no se refieren a la realidad son ciertas. Como quiera que sea, esta tensión entre matemáticas y realidad ha dado lugar a la articulación de las matemáticas en tres grandes áreas: matemática pura, matemática aplicada y matemática computacional. La primera se abstrae claramente de la realidad y no sabe de conexiones directas o inmediatas con la realidad física o empírica en cualquier sentido de la palabra. Una tensión semejante tan sólo es conocida, en el cuerpo del conocimiento, por la filosofía –un tema sobre el cual habremos de volver en otro momento y lugar. Las matemáticas puras son, grosso modo, aquellas que se ocupan de R superior a 4; es decir a espacios, mundos y realidades superiores a 4 dimensiones; por ejemplo un R5, un R8, o un R20. Como se aprecia, se trata de dimensiones que son (casi) imposibles de representárnoslas intuitiva, gráfica o imaginativamente.

Por su parte, las matemáticas aplicada y computacional representan, en contraste, aproximaciones muy vinculantes con la realidad, en el sentido empírico o físico de la palabra. Existe, incluso, el debate entre una buena parte de los matemáticos acerca del carácter bastante apócrifo, si no irrelevante, de la matemática que trabaja con y resuelve métodos numéricos y otros sobre la base, o con la ayuda de, los lenguajes informacionales y computacionales.

Desde el punto de vista filosófico, el problema es bastante básico, a saber: se trata del problema –a todas luces fundamental– de por qué hay algo y no nada que es, por lo demás, el modo como R. Penrose (2005) formula el tema mismo de las relaciones entre matemáticas y realidad (10). El simple hecho de que ya exista una realidad y no la nada, siente sólidas bases para un capítulo amplio las matemáticas y, por derivación, de la filosofía y de la cultura científica y humanista en general. Desde el punto de vista físico, el debate puede ser traducido en términos del famoso debate de Copenhaguen entre Bohr y Einstein. El último creía en el carácter entitativo o sustancial de la realidad; el primero defendía la tesis –bastante popular, por lo demás entre el pensamiento sistémico, el constructivismo y una corriente importante de las neurociencias– según la cual la realidad no existe por sí misma sino que es relativa al observador. La realidad es así ilusión y, en rigor, no puede hablarse de una realidad única, sino de múltiples realidades –universos, por ejemplo; de universos paralelos, por ejemplo. Dicho en términos de filosofía de la ciencia, el debate consiste en las relaciones entre el internalismo y el externalismo (cfr. Comesaña, 2005, para una aproximación al problema en general, y del externalismo en particular). No en última instancia, el problema incumbe también a la naturaleza misma de la realidad o de lo real, según si es sustancial o resultado de nuestra biología.

Como quiera que sea, el debate consiste en el dilema de acuerdo con el cual o bien pensamos en/con imágenes, o bien pensamos con fórmulas y ecuaciones. Exactamente en este sentido, Zellini (2007) precisa que, desde el punto de vista matemático, el problema de las relaciones con la realidad interpela, en rigor, a la física, puesto que para los matemáticos el tema se formula como el de las relaciones entre pensamiento y fórmulas. Esta es exactamente la perspectiva adoptada por R. Penrose.

Existen, en la historia de las matemáticas y de la física, notablemente, posiciones cruzadas; esto es, no hay una posición única de corte fundamentalista o principal al respecto cuando se va de un matemático a otro o de un físico a otro, por ejemplo. La tendencia, en términos generales, es que destacar las imágenes sobre las ecuaciones tiende a una postura más favorable al realismo, en tanto que la opción de las fórmulas sobre las imágenes opta por preferencias más abstractas y menos ligadas a la intuición y, por extensión, al sentido común.

Las relaciones entre matemática y realidad pasan, por consiguiente, por la comprensión o definición misma de lo que son las matemáticas. Si se trata de una ciencia, entonces ellas contienen la clave de la realidad. Es en esta dirección que Pitágoras llegó incluso a afirmar que el universo entero está controlado por la música, a partir, justamente, de los nexos fuertes, si no identidad, que Pitágoras y los pitagóricos entrevieron entre matemática y música. Tal fue exactamente la creencia que los pitagóricos legaron a la posteridad. Si, por el contrario, se afirma que las matemáticas son un lenguaje, entonces ellas expresan el lenguaje mismo de la realidad. Una idea semejante es la que se encuentra en la base de la creencia de Galileo, según la cual la naturaleza está escrita en caracteres matemáticos, y lo que hace la ciencia es sencillamente leer o descifrar dicho lenguaje.

Ahora bien, desde el punto de vista filosófico, la realidad ha sido tradicionalmente comprendida, en la historia de Occidente, en términos de Ser –esto es, estabilidad, fijeza, rigidez, o regularidad y orden–, o bien de Devenir –es decir, de cambio, movimiento, transformaciones, bifurcaciones, irrepetibilidad e irreversibilidad. La dificultad grande estriba en que ambas concepciones acerca de “realidad” han sido inconmensurables entre sí en la historia de Occidente. Tradicionalmente –por distintos factores y fuerzas–, la idea predominante ha sido la de ser –a la cual la ciencia y la filosofía tradicionales contribuyeron activamente–, en desmedro de la de devenir, que nunca ocupó un papel verdaderamente destacado y permaneció clandestina en la mayor parte de la historia de Occidente.

Desde luego que en este punto entra también, de manera inevitable, el problema de la existencia –¿co-existencia?– de múltiples realidades, haciendo del término “realidad”, un problema de mayor complejidad combinatoria, por decir lo menos. La primera vez que en la ciencia contemporánea tiene lugar la posibilidad razonable de hablar de varias realidades sucede con la formulación del principio de superposición de estados, en el marco de la mecánica cuántica. Más recientemente, el descubrimiento de que las leyes de la física se aplican en realidad para este universo en el que vivimos, y no necesariamente para todos los universos posibles, ha llegado a fortalecer la idea de una pluralidad de universos o realidades. Asistimos, en realidad, al reconocimiento de la relatividad del concepto de realidad, y por extensión, de ser, universo y demás. (La lógica de los mundos posibles fue originalmente abierta por parte de Lewis, y constituye uno de los vórtices de trabajo en las lógicas no-clásicas).

Por consiguiente, en correspondencia, cabe elaborar una tipología de “verdad” con referencia a estabilidad, regularidad y simetría, y una también con respecto a “verdad” con referencia a evolución, cambio, transiciones de fase e irreversibilidad. Pero si ello es así, la consecuencia no deja de ser sorpresiva: asistimos, así, al descubrimiento de un pluralismo con respecto a “verdad” –análogamente, por lo demás al la idea de pluralismo lógico y de multidimensionalidad del mundo.

No es exagerado incluso sostener que las matemáticas son una disciplina estética en la que se habla principalmente de la belleza de las demostraciones y de la elegancia de las soluciones. La matemática nos enseñó hace ya bastante tiempo, desde la Grecia antigua e incluso desde el antiguo Egipto, que uno de los criterios fundamentales para definir una teoría es la belleza. Una teoría es tanto más sólida cuanto más hermosa sea –más allá de criterios mucho más populares como la falseabilidad (Popper) y otros, introducidos en su mayoría a partir de la Escuela de Viena y la filosofía de la ciencia que se deriva de sus miembros y representantes. La belleza hace referencia a una experiencia estética fundante, a saber: la belleza del conocimiento. Al respecto los matemáticos, al igual que algunos filósofos, la reconocen cuando la ven, pues es una sola con el acto mismo del conocimiento. Lo demás, es por ejemplo, la discusión acerca del papel de la intuición o bien de la deducción, como agentes constitutivos de la belleza.

Pues bien, las matemáticas de la complejidad son, en los términos que se acaban de exponer, matemáticas del devenir –y no del ser. De allí al mismo tiempo su novedad, su impacto y su también su alcance. Desde esta perspectiva, se trata, en verdad, de un terreno esencialmente inacabado y en incesante construcción. Como la vida misma.

Conclusión

Las matemáticas de la complejidad, acompañadas, siempre, de la filosofía de las matemáticas –de la complejidad– constituyen un capítulo notable en la revolución científica, filosófica y cultural –para emplear libremente la expresión de Kuhn– a la que asistimos y de la cual, de diverso modo y grado somos protagonistas (incluso, a veces, sin saberlo, como es efectivamente el caso). Con toda seguridad, el rasgo más novedoso consiste en el aporte hecho al estudio tanto de los sistemas complejos mismos, como de las ciencias sociales.

Las ciencias sociales se benefician enormemente –tanto como la propia filosofía de las ciencias sociales, en consonancia, asimismo, con la sociología y la historia de las ciencias sociales, sin dejar de lado, por ejemplo, a la psicología del descubrimiento de los sistemas sociales humanos– de los desarrollos de las matemáticas cualitativas. La forma primera como tiene lugar este beneficio sucede a través de la incorporación de heurísticas y metaheurísticas que coinciden en el reconocimiento explícito de si las matemáticas habituales (“normales”) no arrojan luces nuevas sobre los problemas, entonces, sencillamente, hay que crear nuevas matemáticas.

No hay duda: la complejidad de las ciencias sociales consiste en su carácter abierto, esencialmente inacabado, en fin, en la incompletud intrínseca de las dinámicas sociales. Pero si ello es así, los científicos sociales –en el sentido amplio de la palabra– pueden volver su mirada hacia las herramientas y experiencias que les ofrecen las matemáticas cualitativas. No simplemente para matematizar las ciencias sociales (ese sueño ya se soñó, como es sabido), sino para destacar, sin ambages, la dignidad de los temas, retos, problemas y asuntos propios de las ciencias sociales y humanas.

En este artículo se han presentado los más destacados autores, temas y áreas de trabajo de las matemáticas cualitativas con la intención de trazar puentes entre las ciencias sociales, la filosofía de las ciencias sociales y las ciencias de la complejidad. El hilo conductor ha sido, sencillamente, la comprensión cualitativa de las matemáticas de los sistemas dinámicos. El panorama se ofrece amplio y generoso a la vez. Con seguridad, las comunidades de trabajo en complejidad y en ciencias sociales es un fenómeno creciente y cada vez más robusto. El horizonte de trabajo se ofrece amplio y rico: pero con él, a través suyo, en fin, operando como límite –es decir, ulteriormente–, se encuentra el cuidado, el posibilitamiento, la exaltación y la gratificación de la vida mismas: de la vida humana tanto como de la vida en general sobre el planeta. Y quizás, eventualmente, de la vida por fuera del planeta.

Notas

(1) Este artículo es un avance de un proyecto de investigación que adelanto actualmente en la Universidad del Rosario, gracias al apoyo del FIUR, sobre sistemas complejos.

(2) Un profesor de matemáticas refiere en los siguientes términos la situación de Hilbert en la presentación de los 23 problemas en Paris: “Already recognised as one of the greatest mathematicians of the age, Hilbert had prepared a daring lecture. He was going to talk about what was unknown rather than what had already been proved. This went against all the accepted conventions, and the audience could hear the nervousness in Hilbert`s voice as he began to lay out his vision for the future of the mathematics” (Du Sautoy 2003:1). Posteriormente volveré sobre Riemann.

(3) La razón por la que los matemáticos más importantes de la época pivotaban alrededor de Francia y de Alemania –con la excepción clara de Euler, trabajando en San Petersburgo–, tiene que ver con el contraste entre los dos modelos de enseñanza e investigación como eran, respectivamente, el Politécnico de Paris, y la Universidad de Humboldt en Berlín y Alemania en general. (Göttingen habrá de destacarse en el medio universitario alemán, como una auténtica fortaleza para el trabajo en matemáticas, en contraste con Berlín en ciencias, y Friburgo en filosofía, por ejemplo). El Politécnico estaba dedicado fundamentalmente a la matemática aplicada, con claros intereses industriales y militares, mientras que la Universidad de Humboldt era reconocedora de la importancia de la investigación libre, desinteresada, en fin, básica y promovía y destacaba este tipo de investigación sobre la aplicada. Dicho en otras palabras, se trata de la distinción entre la investigación orientada a fines y la investigación basada en fortalezas.

(4) En Maldonado (2005b) se encuentra una precisión y ampliación de esta idea y que sostiene que antes que hablar, en ese caso, de sistemas dinámicos, en el marco amplio de la complejidad mejor vale hablar de fenómenos y sistemas termodinámicos, con lo cual, justamente, se abre la puerta –necesaria– a la termodinámica del no-equilibrio.

(5) El siguiente desarrollo está ampliamente trabajado en Maldonado (2005a).

(6) La discusión con sistemas hamiltonianos es siempre necesaria y provechosa, pues permite allanar el camino hacia la identificación de sistemas ergódicos y no-ergódicos. (Un lugar obligado de tránsito es la identificación de comportamientos lagrangianos).

(7) Para una ampliación de esta idea, cfr. Maldonado 2007a y 2007b.

(8) Entre nosotros, una buena presentación de algunos de los métodos analíticos en el tratamiento de la complejidad es el libro de Campos e Isaza (2002).

(9) He trabajado estas lógicas en varios artículos dedicados al pluralismo lógico, las lógicas paraconsistentes, la lógica del tiempo, la lógica de la relevancia y la lógica cuántica. Está en preparación un artículo sobre lógica difusa.

(10) En la historia de la filosofía, el llamado más reciente a la formulación y comprensión del problema: por qué hay algo y no nada, fue el que llevó a cabo M. Heidegger –con otro lenguaje: ¿por qué el ser y no la nada? Es claro que el tema tiene un eco metafísico u ontológico. Como quiera que sea, el problema tiene que ver, aquí, con el problema, filosófico, del carácter epistemológico u ontológico de la complejidad.

Bibliografía

Barabasi, A-L. 2003. Linked. How everything is connected to everything else and what it means for business, science, and everyday life. Plume Publisher.

Bar-Yam, Y. 1997. Dynamics of complex systems. Reading, MA: Addison-Wesley.

Campos, D. y Isaza, J. F. 2002. Prolegómenos a los sistemas dinámicos. Bogotá: Universidad Nacional de Colombia.

Chatin, G. 2002. Conversations with a mathematician. Math, art, science and the limits of reason. Berlin: Springer.

Chatin, G. 2001. Exploring randomness. Berlin: Springer.

Chatin, G. 1998. The Limits of Mathematics. Berlin: Springer.

Comesaña, J. 2005. We are (almost) all externalists now. Philosophical Perspectives Epistemology 19: 59-76.

De Lorenzo, J. 1998. La matemática: de sus fundamentos y crisis. Madrid: Tecnos.

Du Sautoy, M. 2003. The music of the primes. Searching to solve the greatest mystery in mathematics. New York: HarperCollins Publishers.

Gray, J. 2005. El reto de Hilbert. Los 23 problemas que desafiaron a la matemática. Barcelona: Crítica.

Holland, J. 1995. Hidden order. How adaptation builds complexity. Reading, MA: Perseus Books.

Kauffman, S. 1995. At Home in the universe. The search for the laws of self-organization and complexity. Oxford: Oxford University Press.

Maldonado, C. E. 2005a. CTS +P. Ciencia y tecnología como políticas públicas y sociales. Bogotá: Universidad Externado de Colombia-Observatorio Colombiano de Ciencia y Tecnología.

Maldonado, C. E. 2005b. Termodinámica y complejidad. Una introducción para las ciencias sociales y humanas. Bogotá: Universidad Externado de Colombia.

Maldonado, C. E. 2007a. “El problema de una teoría de la complejidad de fractales”. En: López, F. y Brambilla, F. (Eds.) Antropología fractal. México, D.F.: Sociedad Matemática Mexicana-CIMAT, págs. 9-24.

Maldonado, C. E. 2007b. “El problema de una teoría general de la complejidad”. En: Maldonado, C. E. (Ed.) Complejidad: ciencia, pensamiento y aplicaciones. Bogotá: Universidad Externado de Colombia, págs. 101-132.

Mankiewiccz, R. 2000. Historia de las matemáticas. Del cálculo a caos. Barcelona: Paidós.

Odifreddi, P. 2006. La matemática del siglo XX. De los conjuntos a la complejidad. Buenos Aires: Katz.

Penrose, R. 2005. The road to reality. A complete guide to the laws of the universe. New York: Alfred A. Knopf.

Nicholis, G. y Prigogine, I. 1994. La estructura de lo complejo. En el camino hacia una nueva comprensión de las ciencias. Madrid: Alianza.

Strogatz, S. 2003. Sync. How order emerges from chaos in the universe, nature, and daily life. New York: Hyperion.

Watts, D. J. 2004. Six degrees. The science of a connected age. New York: W.W. Norton.

Wolfram, S. 2002. A new kind of science. Wolfram Media Publisher.

Zellini, P. 2007. La rebelión del número. Madrid: Sexto Piso.

Zurek, W. H. 1989a. Thermodynamic cost of computation, algorithmic complexity and the information metric. Nature 341: 119-124.

Zurek, W. H. 1989b. Algorithmic randomness and physical entropy. Physical Review A 40(8): 4731-4752.

Recibido el 28 Nov 2008

Aceptado el 16 Dic 2008

Home | Indice | Números Completos | Instrucción para Autores
Cinta de Moebio
Revista de Epistemología de Ciencias Sociales
ISSN 0717-554X