Cinta de Moebio: Revista de Epistemología de Ciencias Sociales

Andrade, R. et. al. 2002. El paradigma complejo. Cinta moebio 14: 236-279

PDF


El paradigma complejo

The complex paradigm

Andrade, Raiza; Cadenas, Evelin; Pachano, Eduardo; Pereira, Luz Marina y Torres, Aura Universidad Interamericana de Educación a Distancia de Panamá. UNIEDPA

Abstract

This essay proposes a review of the conceptual basis of the Complex Paradigm o Complex Thought. It reviews its core assumptions and give examples in the social sciences.

Key words: paradigm, complexity, systems, reality, construction

Resumen

Este texto propone una sistematización de las bases conceptuales del Paradigma o Pensamiento Complejo. Se revisan sus supuestos fundamentales y se ejemplifican algunos aportes en las ciencias sociales.

Palabras clave: paradigma, complejidad, sistemas, realidad, construcción

Recibido el 5 Mar 2001.

Introducción

Abordar una reflexión en torno al paradigma de la complejidad a cinco pares de manos e indefinible número de sinapsis neuronales, se asemeja a la construcción de un cadáver exquisito, a la manera en que lo practicaban los surrealistas, cuando sentados alrededor de una mesa, interconectados por una pauta común, resonando, sin que aún Sheldrake hubiera aparecido para nombrar ese particular flujo inmaterial, poetizaban o dibujaban cuadros a partir de fragmentos de imágenes o frases. De se acto de pensamiento colectivo surgían trazos complejos y escritos poéticos hermosos y extrañamente articulados.

Un orden implícito se desplegaba en el papel, sin que Bohm hubiera ni siquiera pensado en pensar la realidad como totalidad con un orden implicado y otro desplegado. Ya evidente en ellos la metáfora de los entrelazamientos de numerosos mundos individuales y complejos, anticipándose a Heisenberg, a Morin o a los físicos teóricos de la mecánica cuántica.

Actos rizomáticos de fronteras imprecisas y borrosas, múltiples lógicas de mundos personales y colectivos evidenciados en un trozo de papel; sucesos discontinuos enlazados en un trazo común, irreversibles e impredecibles, precursores de un pensamiento que, todavía hoy, cercanos a la expresión "casi un siglo después", no termina de construirse, empeñado quizás en una deconstrucción permanente para ser coherente con sus principios fundamentales.

De todas esas fuentes bebimos: de arte, mística, ciencia, física, química, biología, psicología, matemática, antropología, sociología, arquitectura, lingüística, economía, ingeniería, educación. Nos enriquecimos de conversaciones, lecturas, imaginaciones, encuentros y desencuentros y hoy, presentamos el resultado de ese viaje por los territorios complejos de un pensamiento que se abre a su propia autogeneración.

Lo hemos llamado El Paradigma de la Complejidad. Un Cadáver Exquisito, para honrar a quienes, sin saberlo, al conectarse con la escritura automática y la ruptura como acción vital, se transformaron en precursores de lo que hoy se ha dado en llamar el paradigma emergente del pensamiento complejo.

1. De Cosmovisiones y Conceptos

1.1 Para aproximarse a la Complejidad

"(…) La realidad objetiva se ha evaporado y lo que nosotros observamos no es la naturaleza en sí sino la naturaleza expuesta a nuestro método de interrogación"
Heisenberg

Los fundamentos e implicaciones filosóficas y epistemológicas del paradigma de la complejidad, tienen un carácter transdisciplinar. Teorías, ciencias, pensamiento científico, posiciones, conversaciones, disciplinas, aproximaciones, creaciones artísticas, literarias o tecnológicas, han contribuido y continúan contribuyendo a la construcción de este paradigma emergente.

Este continuum transdisciplinar de la complejidad pone de manifiesto, a decir de José Miguel Aguado:

"(…) diversos tratamientos teóricos y metodológicos de aquellos conceptos de indudable valor epistemológico común (comunicación, información, redundancia, ruido, entropía, neguentropía, organización, orden/desorden, caos, catástrofe, atractor, auto-organización. Autopoiesis. etc.), así como los principios lógicos con que se conciben sus relaciones posibles (principio de complementariedad, principio hologramático, principio de inclusión borrosa, principios de incertidumbre e indeterminación, principio de convergencia y antagonismo, principio de orden a partir del ruido, etc.). De ese trasfondo epistemológico común y de su puesta en escena transdisciplinar se desprenden asimismo cuestiones de indudable valor para la filosofía de la ciencia: el problema de las relaciones sujeto-objeto y sujeto-sujeto ( en definitiva, el problema esencialmente cognitivo de la relación sujeto-mundo), la cuestión de la autonomía organizacional, el debate sobre determinismo y linealidad, etc." (2001: 8)

En el proceso de estructuración de este paradigma epistémico se intenta dar una respuesta alternativa a la "crisis del paradigma de la ciencia en cuanto modo de conocer" (MARTÍNEZ MIGUÉLEZ.2001: 2) es decir, la más profunda crisis en la "matriz epistémica" enfrentada por el hombre hasta nuestros días.

Martínez Miguélez (2001) se refiere a la "matriz epistémica" de Edgar Morin en los siguientes términos:

"(…) el trasfondo existencial y vivencial, el modo de vida y, a su vez, la fuente que origina y rige el modo general de conocer, propio de un determinado período histórico-cultural y ubicado también dentro de una geografía específica (…) consiste en el modo propio y peculiar, que tiene un grupo humano, de asignar significados a las cosas y a los eventos, es decir, en su capacidad y forma de simbolizar la realidad (…) por consiguiente es, un sistema de condiciones del pensar, prelógico o preconceptual, generalmente inconsciente, que constituye "la misma vida" y el "modo de ser" y que da origen a una Weltanschauung o cosmovisión, a una mentalidad e ideología específicas, a un Zeitgeist o espíritu del tiempo, a un paradigma (cambio de escenario o modo de mirar, interiorizar y expresar la realidad), a cierto grupo de teorías y, en último término también a un método y unas técnicas o estrategias adecuadas para investigar la naturaleza de una realidad natural o social" (:2 ).

Este aparato conceptual en su versión clásica, propugnaba la objetividad del conocimiento, el determinismo de los fenómenos, la experiencia sensible, la cuantificación aleatoria de las medidas, la lógica formal aristotélica y la verificación empírica, en estrecha correspondencia con el paradigma racionalista heredado de los griegos. Así lo afirma Martínez Miguélez y al citar a Kozybyski (1937) coincide con este autor al afirmar que:

"(…)el pensamiento aristotélico ha confundido el mapa con el territorio es decir, las palabras o conceptos con la realidad; así manipulando el mapa pensaban manipular la realidad. El lenguaje existente no es en su estructura similar a los hechos, por eso, los describe mal" (2001:4).

El recorrido del pensamiento científico y de las maneras diferentes de "pensar la ciencia" constituye un factor histórico estratégico, clave para el desarrollo de las sociedades. Vale decir que se consideran verdaderos aquellos saberes que coinciden con los objetivos y necesidades del poder vigente. No en vano estor poderes contribuyen a legitimar y fortalecer la credibilidad de los resultados de la ciencia y es por ello que se validan las prácticas sociales que regulan valores y conductas de la ciencia. La razón moderna se constituyó excluyendo, pregonando la neutralidad ética y política, garantizando una supuesta objetividad bajo una visión reduccionista que signó la ciencia durante siglos. (DÍAZ. LEMA.2000:16). La globalización exige un cambio de paradigma basado en infinitas interacciones y múltiples reconstrucciones autogeneradoras.

El énfasis de esa ciencia tradicional empirista y positivista se centraba en el análisis de procesos y en la verificación empírica. La atomización del objeto de las ciencias basadas en estos principios epistemológicos impidió las construcciones complejas irreductibles a ese principio de verificación empírica. Ese mundo inteligible, organizado, predecible, lógico, ordenado, comprensible y reproducible, constituyó la razón de ser y la herencia del racionalismo cartesiano newtoniano. Bajo esta visión, González Rey (1997) afirma que la epistemología de la complejidad ha surgido para ofrecer otra mirada, otra forma de ver…

"(…)un replanteamiento sobre la propia ontología de lo real, lo cual de hecho implica su reconocimiento a los efectos de la producción del conocimiento y, por otra parte (…) formas nuevas para la construcción del conocimiento, que trascienden el carácter analítico, simple y descriptivo que domina la producción del conocimiento en el paradigma positivista (…)

(…) Ontológicamente la epistemología de la complejidad implica aceptar la naturaleza múltiple y diversa de lo estudiado, la integración y desintegración de elementos diferentes y contradictorios en distintos tipos de unidad, la aceptación del cambio y la mutabilidad de los objetos, de lo imprevisto como forma de expresión alternativa de un sistema ante hechos similares ocurridos en el tiempo, así como comprender formas irregulares de orden, rompiendo con el concepto de orden equivalente a secuencia regular". (2001: 61,62 ).

Rompiendo con el paradigma de la reducción del conocimiento a las partes que lo componen, con el determinismo, la ocultación del azar de la novedad y la aplicación de la lógica mecanicista a los problemas de la naturaleza y lo social, surge el pensamiento complejo que busca distinguir, reconocer lo singular y lo concreto, sin desunir; religar, en un juego dialógico entre orden, desorden, organización, contexto e incertidumbre, sin dar como verdad esa particular organización de un conjunto determinado.

1.2 Boceteando un Concepto de Complejidad y Pensamiento Complejo

"(...) Estamos llegando al final de la ciencia convencional"
Ilya Prigogine

Comprender la complejidad y aproximarse a un concepto de pensamiento complejo pasa necesariamente por una revisión de los aportes de Edgar Morin, investigador francés, precursor de lo que hoy se denomina paradigma de la complejidad.

En su obra El Paradigma Perdido desarrolla el hilo conductor de su pensamiento a partir de lo que pudieran denominarse las raíces epistémicas de un constructo teórico.

La afirmación de Adorno acerca de la totalidad como "no-verdad" y el teorema de Pascal que reza "(…) todas las cosas son causadas y causantes, ayudadas y ayudantes, mediatas e inmediatas y todas subsisten por un lazo natural e insensible que liga a las más alejadas y a las más diferentes (…)" (MORIN 1997:137) son quizás puntos de partida importantes para pensar la complejidad.

Sin embargo, en la obra citada el autor reconoce como punto de inflexión de la ruptura paradigmática el "giro copernicano" que tiene lugar poco antes de 1950 con la aparición en 1949 de la teoría de la información de Shanon y la cibernética de Wiener y Ashby en 1948 que "(…) inauguran una perspectiva teórica aplicable tanto a las máquinas artificiales como a los organismos biológicos, a los fenómenos psicológicos como a los sociológicos" (MORIN 1974:23)

Posteriormente, la nueva biología incorpora principios de organización desconocidos tales como información, código, mensaje, programa, comunicación, inhibición, represión, expresión, control, entre otras que identifican a la célula con una máquina de información autorregulada y controlada lo que representa un "verdadero salto epistemológico (Gunther 1962) en relación a la física clásica" (:25) La máquina como totalidad organizada es irreductible en sus elementos constitutivos.

En ese proceso de consideraciones metabiológicas, Schrödinger (1945) enuncia el segundo principio de la termodinámica que señala que la materia tiene una tendencia al desorden molecular y a la desorganización - ENTROPÍA - mientras que la vida, por el contrario tiende a la organización, a la complejidad creciente - NEGUENTROPIA - Esta paradoja es resuelta en 1959 por Brillouin a partir de la noción de información que vincula sistémicamente las nociones de orden y desorden (:26). A estos pensadores se unirá von Neumann (1966) con su concepto de autoorganización de la máquina viva, de autorreparación, que plantea que los seres vivos poseen la aptitud de no degenerarse como la máquina artificial sino de "acrecentar su complejidad" (:27). Este concepto de "complejidad", considerado clave por von Neumann, implicaba una particular lógica de funcionamiento de los seres vivos donde intervenían la indeterminación, el desorden y el azar como factores de auto-organización u organización a un nivel superior. La vida como un sistema que se autoorganiza generando sus propios elementos constitutivos y que se autoreproduce en su globalidad modifica, en una ruptura paradigmática sin precedentes, la noción de vida, constituyendo una "revolución biológica" cuyos alcances eran imposibles de prever a mediados del siglo XX. (:28).

Edgar Morin (1997) señala que a nivel filosófico, Hegel, Marx, Bachelard y Lukacs están en la base epistemológica del paradigma de la complejidad. Bachelard, filósofo de las ciencias había descubierto que: "(…) lo simple no existe, solo existe lo simplificado. La ciencia no es el estudio del universo simple, es una simplificación heurística necesaria para extraer ciertas propiedades, ver ciertas leyes." Por su parte George Lukacs, filósofo marxista ya había planteado la necesidad de "(…) examinar lo complejo de entrada en tanto que complejo y pasar luego a sus elementos y procesos elementales" (: 130,ss). En los orígenes más remotos Hegel y su concepto de la dialéctica como lucha de contrarios y posteriormente el materialismo dialéctico y el método marxista, con la dialéctica como método de análisis histórico, se erigen en fuentes filosóficas y metodológicas del pensamiento complejo. Quizás, la dialógica de la complejidad representa un juego de encuentros filosóficos de pensamientos contradictorios en su origen.

El arte y la literatura aportan su grano de arena en la construcción del pensamiento complejo: Balzac, Dickens, Faulkner, Proust, Rousseau, Dostoievski emergen del siglo XIX y principios del XX para recrear conceptos y aproximaciones a la comprensión de una realidad compleja que tiene la cualidad de mutar ante el contacto con la mirada de los observadores (MORIN 2001:11:59)

Otro afluente que contribuye al desarrollo del pensamiento complejo proviene de lo que Morin denomina la "revelación ecológica" que ya desde 1873 con Haeckel, se propone el estudio de las relaciones entre los seres vivos y la naturaleza. Más adelante, bajo la Ecosistemología de Wilden (1972), la naturaleza deja de ser algo desordenado, amorfo, pasivo para transformarse en totalidad compleja. "El hombre ya no es una entidad cerrada respecto a esta totalidad compleja sino un sistema abierto que goza de una relación de autonomía/dependencia organizativa en el seno de un ecosistema" (:31)

La metacomunicación que expresa el juego animal (Bateson 1955), esa sociología animal que emerge de la periferia de la etología, también dan cuenta de una organización societaria compleja donde se integran la complejidad biológica con la complejidad de las organizaciones sociales de la especie animal. Numerosas investigaciones concluyen en afirmar que:

"(…) En las sociedades animales y especialmente en las de los mamíferos, existe un orden complejo que supone un cierto desorden o <ruido> como ingrediente indispensable a su propia complejidad (…) no es solo la idea de sociedad la que cambia, es también la idea de mono y la idea de hombre" (:36).

De esta primatología se deriva un principio de <reorganización permanente> que va a impactar de manera importante el pensamiento moriniano en torno a la complejidad cuando afirma:

"(…) Aquí es donde aparece la lógica, el secreto, el misterio de la complejidad y el sentido profundo del término auto-organización: una sociedad se autoproduce sin cesar porque constantemente se está autodestruyendo" (: 50)

Morin llega a la conclusión de que resulta necesario contar con una teoría, un pensamiento transdisciplinario que se abra a los fenómenos complejos, que desarrolle una metodología interdisciplinaria y que:

"(…) se esfuerce por abrazar el objeto científico, el único objeto científico, continuo y discontinuo al mismo tiempo; <la physis>.

Así pues, se trata, no solo de dar a luz una ciencia del hombre, sino de crear una nueva concepción de la ciencia que ponga en entredicho y cambie de arriba abajo, no sólo las fronteras establecidas, sino también las piedras angulares de los paradigmas y, en un cierto sentido, la propia institución científica. (…) desde ahora mismo se impone una reorganización en cadena destinada a conformar la <scienza nuova>. La <scienza nuova>, o ciencia general de la <physis>, deberá establecer la articulación entre la física y la vida, es decir, entre la entropía y la neguentropía, entre la complejidad microfísica (ambigüedad corpuscular-ondulatoria, principio de incertidumbre) y la complejidad macrofísica (autoorganización)." (:245)

La aparición y posterior desarrollo del pensamiento complejo y del paradigma de la complejidad, entendiendo por paradigma científico el concepto esbozado por Morin como :"(...) un principio de distinciones-relaciones-oposiciones fundamentales entre algunas <nociones matrices> que generan y controlan el pensamiento, es decir la constitución de teoría y la producción de los discursos de los miembros de una comunidad científica determinada" (...) ( MORÍN 1982 cfr MARTINEZ MIGUÉLEZ 2001a) ...es evidencia de una ruptura epistémica profunda, una <transformación fundamental de nuestro modo de pensar, percibir y valorar la realidad> signada por un mundo global que interconecta pensamientos y fenómenos, sucesos y procesos y donde los contextos físicos, biológicos, psicológicos, lingüísticos, sociales, económicos, ambientales son recíprocamente interdependientes.

La complejidad un concepto que se autogenera

Definir un concepto que en si mismo contiene un axioma de incompletud e incertidumbre, que reconoce la imposibilidad, incluso teórica de una <omniciencia>, y alerta sobre las ilusiones de creer que la complejidad conduce a la eliminación de la simplicidad o a la completud, no es tarea fácil. (:9,ss) Lo posible es trazar el camino de ese pensamiento en la certeza de que al mismo momento en que se transcribe, otros autores están reformando, ampliando, contradiciendo tales afirmaciones, constituyendo todos ellos pensamientos válidos en torno a una realidad que los contiene.

"Complexus quiere decir, lo que está tejido en conjunto; la trama, el tejido de constituyentes heterogéneos inseparablemente asociados que presenta a la vez la paradoja de lo uno y lo múltiple. Tejido de eventos, acciones, interacciones, retroacciones, determinaciones, azares que constituyen nuestro mundo fenoménico" (MORIN 1997:32)

La complejidad es una metodología de acción cotidiana (Pakman) con vocación transdisciplinar; una aventura, pero también un desafío. Trae consigo una " (…) pesada tarea semántica porque lleva en su seno confusión, incertidumbre, desorden (…) la complejidad es una palabra problema y no una palabra solución (…) aspira al conocimiento multidimensional (…) es un pensamiento capaz de tratar, de dialogar, de negociar con lo real " (: 9,ss)

Por su parte el paradigma de la complejidad a decir de Morin:

"(…) comportaría un principio dialógico y translógico, que integraría la lógica clásica teniendo en cuenta sus límites <de facto> (problemas de contradicciones) y <de jure> (límites del formalismo). Llevaría en sí el principio de la <Unitas Multiplex>, que escapa a la unidad abstracta por lo alto (holismo) y por lo bajo (reduccionismo) ( :34)

La complejidad como concepto es evidencia de numerosas incapacidades: la incapacidad de alcanzar certezas, de formular leyes, de concebir un orden absoluto, de evitar contradicciones, de comprender la realidad como unidimensional. Para Morin, está regida por tres principios: el principio dialógico - orden y desorden mantenidos a la vez en una unidad - el principio de recursividad, que rompe con la idea lineal de causa - efecto, de producto-productor, de estructura-superestructura, porque el todo constituye un ciclo autoconstitutivo, autoorganizador y autoproductor y el principio hologramático que promulga que el todo esta en las partes que están en el todo. (: 107) "El todo es más y al mismo tiempo menos que la suma de las partes" (:122)

La complejidad no es y nunca podrá ser una receta.

1.3 Algunos Principios Fundamentales

Identificar los principios que subyacen en la trama interactiva de la complejidad es detener por un instante el fluido de un conocimiento que se autoorganiza y autogenera para aprehenderlo y comprenderlo, para conocer, reconociendo los límites de lo que se conoce, distinguiéndolo como uno más de los infinitos conocimientos posibles.

Estudiosos del tema de la complejidad como J.V.Rubio (2001), han realizado la tarea de recoger y sintetizar algunos de los conceptos y planteamientos más reiterados entre los autores que alimentan el pensamiento complejo. Esta revisión ha sido, en consecuencia, facilitada por la investigación que nos antecede y constituye la guía, el mapa, para adentrarnos en ese nuevo universo paradigmático.

A los fines de facilitar el análisis, se han agrupado los planteamientos de Rubio en los siguientes principios fundamentales:

a. Tendencia y capacidad de la naturaleza, los elementos y los sistemas para generar de manera espontánea: patrones, nuevos comportamientos, sucesos, relaciones, cambios, estados críticos, el ser y el hacer, la unidad misma del sistema, una nueva realidad dentro de ésta; escalas, pautas, comportamientos, figuras y cualquier otra modalidad que escapa a los instrumentos y teorías conocidos hasta la fecha. Estos principios son:

Autoorganización (Alan, Haken, Maturana)

Amplificación (Lorenz, Poincaré, Pigogine)

Autoconsistencia (Chew, Capra)

Autopoiesis (Maturana, Varela)

Autosemejanza (Mandelbrot)

b. Los fenómenos, objetos, sistemas, elementos, partes, procesos, se conectan entre si aun cuando no tengan conexión directa. Lo que importa son las relaciones, la pauta que todo lo conecta. Lo que destaca son las correlaciones, efectos y causas entretejidos que emergen en un punto crítico en el filo del caos. De las nuevas formas de conexión, de las rupturas surgen propiedades nuevas. Los procesos y elementos vuelven sobre sí mismos en bucles, rizos o cascadas de espirales creativas. Existe una íntima conexión entre sucesos y cosas que los hace, a la vez, causa y consecuencia.. Estos principios son:

Pauta y Conectividad (Bateson)

Correlación (Bohm)

Criticabilidad (Back, Solé, Kauffman, Wolfram)

Emergencia (Haken, Varela)

Recursión (Briggs, Horfstadter)

Resonancia (Sheldrake, Morin, Bateson)

c. El sistema no tiene límites definidos, ni entre los elementos ni al interior de ellos. La totalidad del sistema está constituida por el fenómeno observado y el proceso de observación. Los puntos de control están dispersos, difusos en la estructura de un sistema impredecible. La unidad del sistema es la complementariedad del sujeto y objeto. El todo está en la parte que está en el todo. Los fenómenos son despliegues de consciencia y la consciencia despliegue de fenómenos. Las cosas pueden ser y no ser a la vez; ser implícitos y explícitos, a la vez. Estos principios son:

Flujicidad

Impredecibilidad

Inclusión (Bohm, Kosko, Morin)

Metadimensionalidad (Kaku)

Omnijetividad (Izquierdo, Maturana)

Plegabilidad (Bohm)

Paradoja

d. Lo posible es contrario a lo real y puede tener actualidad. Lo virtual no es actual pero posee realidad. La epistemología del orden ha cedido el paso a la epistemología de las anomalías. Los equilibrios posibles son locales y no sistémicos. La naturaleza está deviniendo en artificialeza. Se ha sobrepasado la metáfora de lo real. Lo que vemos es el acoplamiento estructural entre la estructura del medio y la de la unidad. Estos principios son:

Artificialeza (Laszlo, Hayles)

Morfogénesis (Sheldrake)

Conmensurabilidad (Maturana, Varela)

Los límites del presente trabajo impiden ser exhaustivos en la revisión de todos y cada uno de estos aportes pero se ha diseñado un esquema de articulaciones, tomando como base la Cartografía de Rubio, que pretende mostrar de manera resumida el aporte a la complejidad desde las distintas disciplinas, ramas, teorías y ciencias. Sin embargo, los investigadores colombianos de la Red de Pensamiento Complejo han revisado este diálogo de saberes que va construyendo un nuevo paisaje científico que se resume a continuación (Sala 6).

Ciencias de la Conducta y Neurociencia: La experiencia cognitiva está en el ojo del huracán de esa gigantesca transformación paradigmática. La ciencia cognitiva se encuentra contenida en metacampos del conocimiento donde confluyen la cibernética, la psicología, la antropología, la biología, la fisiología, la lingüística, la física, la filosofía de la mente, la etología, la ecología, para reconocer la posibilidad de un conocimiento que puede conocerse a sí mismo, de múltiples inteligencias no estandarizables, de una inmensidad de mundos posibles donde la locura, la transgresión, la sexualidad y los estados alterados de consciencia plantean lecturas muy distantes de los etiquetamientos del pasado

Ciencias de la Vida Ciencias de la Sociedad: Biología, genética, medicina, ambiente, desarrollo humano, economía, historia, geografía, sociedad, convergen con la física, la química y la filosofía para dar cuenta de sinergias, rupturas, posibilidades, acoplamientos, divergencias, contradicciones, impensables en el marco del viejo paradigma cartesiano.

Ciencias de la Comunicación y la Información: Territorio del complejidad, espacio de los múltiples niveles, de las realidades virtuales, de la coexistencia del tiempo real y el tiempo imaginado; constatación del no funcionamiento de las leyes tradicionales dadas por verdaderas; desordenamiento-ordenamiento-desordenamiento constituyen el contexto de una nueva topología del conocimiento; la importancia de la periferia, de las interrelaciones, del azar aparente y el conocimiento creativo que obligan a pensar y repensar la realidad, repensándonos como observadores de esa misma realidad que cambiamos solo por el hecho de haberla observado.

Más importante que cualquier clasificación es el desarrollo de una <ciencia con consciencia> como postulaba Prigogine que como bien señala Martínez Miguélez (2001a) es un "todo polisistémico" que necesita de:

"(...)un paradigma <universal>, un metasistema de referencia cuyo objetivo es guiar la interpretación de las interpretaciones> y la <explicación de las explicaciones>. Por lo tanto sus <postulados o principios básicos de apoyo> serán amplios; no pueden ser específicos, como cuando se trata de un paradigma particular en un área específica del saber. Todo ello implica un enfoque básicamente gnoseológico, es decir, que trate de analizar y evaluar la solidez de las <reglas> que sigue nuestro propio pensamiento." (19:57)

2. De Paradojas, Posturas y Conocimientos

2.1 El Constructivismo: La Lógica del Mundo es la Lógica de mi Mundo

"¿Qué pauta conecta el cangrejo a la langosta, la orquídea a la prímula y todo ello a mí?"
Gregory Pateson

Es posible abordar la realidad con métodos y visiones prevalentes? ¿cómo darle validez a las explicaciones científicas? ¿Es alcanzable el conocimiento? Estas y otras interrogantes pueden explicarse a la luz de la epistemología dentro de una visión de la complejidad y de los paradigmas emergentes. "En el decenio que acompaña al fin del siglo no sólo presenciamos el derrumbe de algunos estados-nacionales, sistemas políticos y económicos, también las bases epistemológicas que sustentaron, durante largo tiempo, nuestros modos de hacer investigación social han tenido importantes e inesperados vuelcos. A estas alturas no puede asegurarse el tipo de consenso que se alcanzará en el futuro, sólo es evidente que estamos en presencia de una pluralidad competitiva de epistemologías con sus correspondientes opciones metodológicas. Estas, en su cierre, se bifurcan en epistemologías tradicionales que tienen por centro lo observado y en las emergentes epistemologías del observador" (ARNOLD 2001:1).

El constructivismo es considerado como un enfoque válido para tratar de aproximarse al análisis de la ciencia y el conocimiento y surge, según López Pérez (2001:1) desde el año 444 a.C. cuando el sofista Protágora desafía los postulados de la eternidad e inmutabilidad de la verdad al proclamar que: "El hombre es la medida de todas las cosas: De las que existen, como existentes; de las que no existen, como no existentes" (PROTAGORAS 1. cfr. López R. 2001:1). Este pensamiento se aleja de las concepciones de la época en las que la Filosofía se fundamenta en esencias eternas transcendentes, cosmogónicas, externas al hombre, y hace de éste un ser interdependiente con la existencia. Posteriormente Sócrates, con su método: la ironía y la mayéutica, hace del constructivismo una praxis, el conocimiento, la ciencia, el saber se halla dentro del hombre, y es él, al descubrir su ignorancia, quien ayudado por el maestro realiza la búsqueda de este, es decir, transforma su realidad hasta aproximarse a la verdad.

Modernamente, el constructivismo es considerado por González del Rey (1997:18) como: "(...) la reinserción del sujeto en el proceso de producción del conocimiento, el cual se comprende como proceso de construcción; el conocimiento se construye, no se devela ante el investigador por ningún tipo de acción metodológica. Unido a su significación epistemológica, el constructivismo se asume como una posición teórica, con una representación conceptual concreta sobre la naturaleza del conocimiento, apoyada en unidades y procesos concretos que se utilizan con fines explicativos sobre este proceso".

De manera similar, el constructivismo es conceptualizado por Larrios Osorio (1998:10) como una "(...) posición epistemológica, como una manera para explicar cómo el ser humano, a lo largo de su historia personal, va desarrollando lo que llamamos intelecto y va conformando su conocimiento".

El problema del conocimiento ha sido abordado desde distintos puntos de vista: psicológico, histórico, biológico, sistémico, físico, tecnológico, fenomenológico, entre otros. Puede afirmarse que Jean Piaget (1896-1980) y Vygotsky (1896-1934) son los precursores del constructivismo, quienes enfocaron sus estudios desde la Psicología genética e histórica respectivamente. Para ambos autores, la participación activa del individuo desde su nacimiento, es una condición indispensable para el desarrollo humano, el cual consideran que es una construcción del sujeto en interacción dinámica y bidireccional con el ambiente físico y social. (MARTINEZ CRIADO 1998). Sacristán y Pérez Gómez (1995) resumen los postulados del pensamiento de Piaget:: - el aprendizaje no es hereditario sino que es construido por el individuo a través de un proceso dinámico de desarrollo y transformación de estructuras que dialécticamente evolucionan en espiral. Este proceso de construcción genética se realiza a través de la asimilación de los conocimientos nuevos al integrarse a las anteriores estructuras; y la acomodación, reformulación y elaboración de nuevas estructuras como consecuencia del proceso de asimilación. El conocimiento es una elaboración subjetiva y no una copia figurativa de lo real. Vogotsky comparte en gran medida los postulados de Piaget, sin embargo se aleja de este en cuanto considera que la maduración no es necesaria, sino que el aprendizaje precede al desarrollo, y consiste en "(...) la experiencia socialmente mediada que facilita el acceso a los instrumentos de la cultura y que tras un proceso de incorporación convertirán todo un conjunto de potencialidades en efectivas capacidades mentales de índole superior" ( MARTINEZ CRIADO 1998:103).

Autores como Bateson, Maturana, Glaserfeld, y Watzlawick, asumen posiciones de acuerdo a la explicación que adoptan en relación a la realidad, sistemas de vida, y estructuras en el proceso de construcción del conocimiento.

Frijof Capra (1994) en su obra La sabiduría Insólita elabora una disertación sobre Bateson: "Una de las ideas centrales en el pensamiento de Bateson es el hecho de que la estructura de la naturaleza y la estructura de la mente son reflejos la una de la otra; que la mente y la naturaleza constituyen necesariamente una unidad (...)" (:90); la base de todo conocimiento se halla en las relaciones, en las pautas que subyacen en los procesos y estructuras, en la resonancia entre las mentes; las formas biológicas así como el pensamiento humano están constituidas por un conjunto de relaciones más que de partes y por lo tanto debe usarse un lenguaje de relaciones para describirlas, porque la lógica es atemporal, describe sistemas lineales de causa y efecto, pero en ningún caso adecuada para la descripción de fenómenos biológicos cuya secuencias causales son circulares y temporales, lo cual hace que al aplicárseles la lógica se generan paradojas y oscilaciones; como expresiones esenciales del pensamiento humano consideraba las historias, como camino real para el estudio de relaciones dispersas en el tiempo, la parábola y metáforas las cuales se hallan en la raíz de la vida y a través de ella la gran estructura de interconexiones se mantiene unida, es el lenguaje de la naturaleza, la pauta que conecta, expresa similitudes estructurales y de organización. La naturaleza de la mente constituyó una de las grandes reflexiones y aporte de Bateson al pensamiento científico, define la mente "como un fenómeno de los sistemas, característico de los seres vivos, la mente es consecuencia necesaria e inevitable de cierta complejidad, que comienza mucho antes de que los organismos desarrollen su cerebro y un sistema nervioso superior" (:95). La mente también se manifiesta en sistemas sociales y ecosistemas, es la esencia de la vida, forma una síntesis con la materia, materia y mente forman una unidad inseparable.

Von Glasersfeld, también niega la existencia de la objetividad, esta es solo la ilusión de que las observaciones pueden hacerse sin un observador. El concepto de verdad planteado por el positivismo y el empirismo, niega la capacidad para conocer lo real, debe buscarse otras formas que vinculen el conocimiento con la realidad. Al respecto, el autor, señala: "Estamos atrapados, pues, en una paradoja. Queremos creer que somos capaces de conocer algo sobre el mundo externo, pero jamás podemos decir si dicho conocimiento es o no verdadero, ya que para establecer esa verdad deberíamos hacer una comparación que simplemente no podemos hacer. No tenemos manera de llegar al mundo externo si no es a través de nuestra experiencia de él, y al tener esa experiencia podemos cometer los mismos errores; por más que lo veríamos correctamente no tendríamos modo de saber que nuestra visión es correcta." (1994:18 crf GONZALEZ REY 1997:19).

Paul Watzlawick sostiene: que el conocimiento es la construcción de un observador; no existe una distinción entre sujeto y objeto; no existen criterios objetivos; la realidad es más bien el resultado de procesos de comunicación muy complejos. "Sabemos, dice Watzlawick, que una especie de realidad no será jamás accesible. Vivimos únicamente con interpretaciones y con imágenes, que aceptamos ingenuamente como objetivamente reales. Resulta insostenible cualquier pretendido saber a propósito de una realidad objetiva (...)". (92:123. crf LOPEZ PEREZ 2001:4).

Para Humberto Maturana el elemento básico para comprender a los organismos vivos en toda su complejidad está en el cambio de las nociones de realidad y del observador debido a la existencia de tantas realidades como explicaciones pueda dominar y proponer. (RUIZ 2001:1). En relación a lo anterior Maturana en su obra La realidad: ¿Objetiva o construida? I Fundamentos biológicos de la realidad. Contempla: "Sostengo que la cuestión más importante que la humanidad tiene frente a sí en este momento es la cuestión de la realidad. Y sostengo que esto es así, sea que nos percatemos o no de ello, porque todo lo que hacemos como seres humanos modernos, a título individual, como entidades sociales, o como miembros de alguna comunidad humana no social, implica una respuesta explícita o implícita a esta pregunta como base para los argumentos racionales que empleamos para justificar nuestras acciones (...). En efecto sostengo que la respuesta explícita o implícita que cada uno de nosotros da a la cuestión de la realidad determina cómo la persona vive su vida, lo mismo que su aceptación o rechazo de otros seres humanos en la red de los sistemas sociales y no sociales que la persona integra (...)". (1997:11).

La realidad solo puede accederse sí se parte del hecho de que el observador u observadora son sistemas vivientes y por lo tanto la observación y el conocimiento deben ser explicados como fenómenos biológicos. Para explicar la realidad el observador, tiene dos maneras de hacerlo: a) la tradicional o explicación de la objetividad sin paréntesis, en la cual el observador supone que la existencia tiene lugar en forma independiente, que las cosas existen independientemente de si ellos la conocen o no y ese conocimiento se debe a la razón o la percepción y usa algunas referencias externas a él. b) la radical u objetividad entre paréntesis, en la cual "la existencia está constituida con lo que hace el observador, y estos producen los objetos que diferencias con sus operaciones de diferenciación como diferenciaciones de diferenciaciones dentro del lenguaje. Más aún, los objetos que el observador, u observadora, produce en sus operaciones de diferenciación surgen dotados con propiedades que realizan las coherencias operacionales del dominio de la praxis de vivir en la cual están constituidos" (19). Por lo tanto no es posible hacer referencia a nada externo al observador para convalidar sus explicaciones, porque no es posible la objetividad y no se puede referirse a nada externo al observador para validar las explicaciones. En consecuencia pueden existir varias explicaciones de acuerdo a distintos observadores y que se vive en muchas realidades explicativas y cualquier desacuerdo debe conducir a una reflexión de coexistencia. Lo que valida una explicación son las coherencias operacionales que las constituyen en su praxis de vivir independientemente del criterio de aceptabilidad. Esto no significa que se niegue el conocimiento científico. Una explicación científica es aquella que describe un mecanismo que produce una situación o fenómeno como resultado de su operación y cumpla con las siguientes condiciones: a) la descripción de lo que el observador debe hacer para experimentar el fenómeno. b) La proposición de un mecanismo que genere la experiencia del fenómeno por ser explicado. c) La deducción del mecanismo. c) Aplicación del mecanismo establecido a otros fenómenos y las operaciones que se deben llevar a cabo para experimentarlo y d) La experiencia real por parte del observador de esos otros fenómeno deducidos. Solo cuando una explicación reúna las condiciones antes señaladas se transforma en una explicación científica del fenómeno observado; la ciencia surgirá como "dominio explicativo en la comunidad de observadores que aceptan y emplean para sus explicaciones ese criterio particular" (25).

2.2 Diluyendo Fronteras: La Lógica Borrosa

"(...) Un día supe que la ciencia no es verdad. No recuerdo qué día, sí el momento. El Dios del siglo XX ya no era Dios. Había un error, y parecía que nadie en la ciencia dejaba de cometerlo. Decían que todo era verdadero o falso... Los científicos podían errar en las matemáticas y en la lógica. Y eran capaces de mantener su error con toda la pompa e intolerancia de una secta religiosa"...
B. Kosko

¿Qué tienen de común el budismo zen, proponer soluciones a paradojas y el diseño de máquinas inteligentes? Aparentemente nada, sin embargo, dentro del análisis del "pensamiento complejo" y del "pensamiento borroso" se pueden conseguir algunas respuestas y similitudes. La borrosidad como cuerpo de pensamiento integrante del paradigma de lo complejo, junto a la fractalidad, el caos, la catástrofe; será objeto de un abordaje muy particular en este trabajo, puesto que como afirma David Byrne: "(...) la lógica de los mundos es la lógica de la construcción de esos mundos" (BYRNE cfr CISNEROS 2001:2).

Para referimos a "lógica borrosa", es obligado realizar una breve referencia histórica. Inicialmente fue desarrollada por Charles Peirce, en el siglo pasado; Juan Lukasieiwicz le proporciona un avance con su cálculo proposicional, para un tercer valor de verdad; Bertrand Russell, en la década de los veinte, se convierte en el abuelo de la lógica borrosa, al introducir la palabra "vaga" para referirse al concepto de lógica polivalente; el japonés Bart Kosko del LIFE (Laboratory for Internacional Fuzzy Engineering Research) y el Norteamericano Lofti A. Zadeh del FLSY (Fuzzy Logyc Sistem Institute) de la Universidad de Berkley, California, han sido los responsables de que la "lógica borrosa" sea conocida hoy como la "teoría de las máquinas inteligentes" y de que todos los sistemas borrosos inunden nuestra vida diaria. (CISNEROS 2001:5).

La sentencia formulada por el físico e intelectual Carles Snowen que dice: "(...) el dos es un número muy peligroso", refiriéndose a los asuntos de la lógica binaria y del pensamiento dicotómico tan arraigado en algunas corrientes del pensamiento social, sigue teniendo aún vigencia, a pesar de que hay propuestas como las de Jerome Bruner que difieren sustancialmente, con su división singular de modos de pensamiento: narrativo y paradigmático. (SNOW 1977. cfr Cisneros. 2001:3)

Se debe a Bart Kosko la propuesta de un teorema con soluciones algebraicas para calcular la entropía de cualquier sistema borroso, y, en esta forma resolver las paradojas. El cálculo de la entropía borrosa, sirve para: "(...) saber en que medida un conjunto presenta límites precisos entre sus elementos, o bien sus límites son difusos". Kosko concluye con la afirmación siguiente: "(...) el universo no es aleatorio...el universo es determinista, pero gris". (KOSKO 1995 cfr CISNEROS 2001:6). A este punto Kosko le llama el problema de la discordancia, señalando que: "(...) el mundo es borroso, pero nuestras descripciones no, el mundo es gris pero la ciencia es blanca y negra, el mundo no es bivalente, sus elementos son graduales y poseen multivalencias" (KOSKO 1995 cfr CISNEROS 2001:7).

Este planteamiento de borrosidad vs. aleatoriedad, resume en gran parte la contribución de Kosko al pensamiento contemporáneo, que en términos del pasado, se encuentra representado en la pareja de Buda y Aristóteles. Dos "pensadores" en los que se "encuentra el nudo cultural del pasado borroso". El primero sentó las bases de la lógica (ley de la contradicción, ley del tercero excluido y el principio de identidad) y el segundo, quien vivió 100 años antes de que el "Estagirita", naciera; hijo de un rajá que abandona las riquezas, no escribe, no quería seguidores ni que le fundaran religiones, tiene frases como "la mente no piensa...no pensamientos sobre no cosas (...)". (KOSKO 1995. cfr CISNEROS 2001:7).

La lógica borrosa es básicamente una lógica multievaluada que permite valores intermedios para poder definir evaluaciones convencionales como: si/no, verdadero/falso, negro/blanco, etc.

Para Zadeh, la lógica borrosa tiene acepciones diferentes. En un sentido amplio puede identificarse con la teoría de los conjuntos borrosos, entendido como clases en las que sus fronteras no están bien definidas y aplicables a otros campos como la aritmética borrosa, grafos borrosos y topologías entre otros; lo cual nos indica que los conjuntos borrosos van más allá de la lógica borrosa. En un sentido restringido, constituye un sistema más de lógica que representa sistemas de razonamiento aproximados. (ZADEH 1982. cfr VALVERDE 1996: 5)

Según Zadeh, el principal objetivo de la lógica borrosa, a diferencia de la lógica clásica, es: "(...) tratar con los modos de razonamiento que son más aproximados que exactos. Así mismo señala que: "(....) cualquier sistema clásico puede ser extendido mediante borrosificación. Por ejemplo: tome usted la lógica modal y puede construir un sistema borroso de lógica modal y lo mismo ocurre con otros tipos de lógica como la epistémica o la deontológica". (ZADEH 1982. cfr VALVERDE 1996: 5)

En las acciones de la vida diaria, el hombre se maneja a través de un lenguaje impreciso, utilizando en muchas ocasiones, conceptos vagos para referirse a situaciones que no pueden ser representado por la matemática tradicional estructurada. Son comunes las expresiones como: "Hace mucho frío", "Hoy llovió poco", "Hace poco calor", etc. La lógica borrosa trata de poder incorporar métodos para que estos conceptos puedan ser formulados como funciones matemáticas y ser procesados por computadoras. En otras palabras se está tratando de humanizar la programación de computadoras. Tipos de órdenes plausibles de ser implementadas en un contexto de lógica borrosa las ilustra Montejo Ráez en el siguiente ejemplo:

"Si la temperatura es alta,
entonces:
Abra el conducto de agua fría
hasta que la temperatura vuelva a ser normal"

"Si hay mucho vapor en el sistema
entonces:
cierre las compuertas del vapor" .

(GONZALEZ BOSQUE 2001:1)

Aunque la lógica borrosa fue inventada en Estados unidos, en 1965, por Lotfi Zadeh; es en Japón, a partir de la década de los 80s, donde la utilidad práctica de este método optimizado de control, ha tenido su máxima incorporación en el control de las maquinarias. En la industria de electrodomésticos es cada vez más común observar el popular logotipo de "Fuzzy Logic" incorporado, para indicar que estos aparatos cuentan con dispositivos electrónicos automáticos para ser programados, cuya facilidad de uso por parte del consumidor los hace más amigables y representan la opción más económica, razón por la cual algunas compañías japonesas están aplicando estos principios a las nuevas tecnologías.

La "lógica borrosa" (fuzzy logic) hoy en día tiene múltiples aplicaciones ha surgido como una herramienta lucrativa para el control de subsistemas y procesos industriales complejos, utilizada en la electrónica de entretenimiento y hogar, sistemas de diagnóstico y otros sistemas expertos. Actualmente, el número de patentes de aplicaciones de lógica borrosa aumenta exponencialmente, corriendo el riesgo de quedarse desfasados, los artículos sin componentes borrosos. En Europa y USA se están haciendo esfuerzos por alcanzar el boom japonés. La NASA, por ejemplo, emplea la lógica borrosa para el complejo proceso de maniobras de acoplamiento, apuntando a lo que se conoce hoy como Sistemas Expertos o Agentes Inteligentes, a redes Neuronales Artificiales y los Algoritmos Genéticos. (DE LA HERRÁN GASCÓN 2001:2)

En general, Montejo Ráez, recomienda las aplicaciones de la lógica borrosa especialmente a procesos muy complejos, cuando no hay un modelo matemático simple y para procesos altamente no lineales. Por otra parte, no recomienda utilizar el control borroso cuando el control convencional rinde teóricamente un resultado satisfactorio, cuando existe un modelo matemático fácilmente soluble y adecuado ó cuando el problema no es soluble (2001:12).

Para concluir, la "lógica borrosa" puede ser uno de los instrumentos necesarios a ser utilizado en la investigación de la nueva ciencia y para modelar la incertidumbre del lenguaje natural, es decir pensar en la borrosificación como una metodología.

2.3 Los Rizomas o la Infinitud del Conocimiento

"(...)todo progreso se realiza por y en el espacio estriado, pero que es en el espacio liso donde se produce todo devenir"
Deleuzze y Guattari

El nuevo siglo se enfrenta a lo divergente, convergente, diacrónico, construcción, desconstrucción, fragmentación, heterogeneidad, territorialización, desterritorialización, codificación, descodificación, a lo uno y a lo múltiple, y en fin, a la complejidad; fenómenos estos que no responden a criterios de racionalidad. La Teoría de los Rizomas contribuye a esclarecer esta multiplicidad de cambios.

El término rizoma viene del griego ρίζωμα "(...) que significa raigambre, metaformosis caulinar debida a la adaptación a la vida subterránea, o, dicho de una manera más simple, tallo subterráneo (...). El rizoma, como el tallo epígeo, posee yemas y echa vástagos foliíferos y floríferos; suelen producir también raíces (...)" (FONT QUER 1993:950). Este término específico de la botánica ha sido transferido a la Epistemología, Gnoseología, Ontología, Metafísica y otras ciencias, por algunos pensadores entre los cuales sobresalen Gilles Deleuze y Felix Guattari, a los fines de aproximarse al conocimiento de la realidad, sus procesos, y sistemas complejos. En tal sentido, un rizoma como tallo subterráneo se mantiene entre realidades, procesos, sistemas, tiempos, pasado y futuro como posibles; no tiene punto de inicio sino una línea u horizonte siempre en desplazamiento y mutación (GÓMEZ y ALARCÓN 2001:1). La realidad, las cosas, los problemas no se presentan por su raíz, sino por un punto cualquiera, por el intermedio, por sus rizomas.

El artículo anónimo "El Significado de Trans-arquitectura", contiene un análisis exhaustivo sobre rizomas. Sus autores parten del siguiente principio: "Como cada uno de nosotros era varios, en total ya éramos muchos. Aquí hemos utilizado todo lo que nos unía, desde lo más próximo a lo más lejano. Hemos distribuido hábiles seudónimos para que nadie sea reconocible. ¿Porqué hemos conservado nuestros nombres?...No llegar al punto de ya no decir, yo, sino a ese punto en el que ya no tiene ninguna importancia decirlo o no decirlo. Ya no somos nosotros mismos. Cada uno reconocerá los suyos. Nos han ayudado, aspirado, multiplicado".

Analizando lo anteriormente calcado, los autores reconocen que ellos mismos son rizoma y por lo tanto representan lo uno y el todo, se distingue radicalmente de las raíces y raicillas (autores, participantes) y se puede considerar que por tal razón el artículo es anónimo. Las fuentes utilizadas por los redactores del artículo se reconoce en la bibliografía autores como: MALMBERG, JÜGER,CHAUVIN, BENVENISTE, JACOB, CASTANEDA, BOULEZ, KLEIN, DELIGNY, WUNDERLICH, ROSE, PACOTT, ROSENSTIEHL, HAUDRICOURT, MILLER, FIELDLER, BATESON, DE LA CASINIÉRE, KAFLA, SCHWOB y BAILLY.

Consideran que en la realidad existen estructuras, sistemas arborescentes, racionales, centralizados, jerarquizados lo que implica centros de significancias y de subjetivación, en los que un elemento recibe información de una unidad superior; estos sistemas arborescentes ha dominado todo el pensamiento occidental en las distintas ciencias. "(...) a estos sistemas centrados, se oponen sistemas acentrados, redes de autómatas finitos en los que la comunicación se produce entre dos vecinos cualquiera, en los que los tallos o canales no preexisten, en los que los individuos son todos intercambiables definiéndose únicamente por un estado en un momento determinado, de tal manera que las operaciones locales se coordinan y que el resultado final global se sincroniza independientemente de una instancia central". (Rosenstiehl, Petiot Cfr. S/a 2001:21).

El rizoma conforma esos sistemas acentrados, abiertos, de producción inconsciente, no estratificados y no jerarquizados, sin memoria organizadora central, llena los espacios vacíos, crece entre y en medio de otras cosas. Son muy propios del pensamiento de las sociedades orientales.

Los rizomas participan de algunos principios generales:

1) Principio de conexión y heterogeneidad, todo rizoma puede conectarse por cualquier punto a otro punto cualquiera, y no remite necesariamente a rasgos de la misma naturaleza, la orquídea hace rizoma con la avispa, las ratas hacen rizoma con su madriguera, a través de líneas de fuga, las cuales "(...) no son elementos totalmente definidos, sino que su esencia es la indefinición, la descodificación, ella permanece y se dinamiza en medio del caos y del orden...es un flujo, una ruptura de la racionalidad, del orden y de lo estriado" (:2), es decir lo prevalente, e instituido. De esta manera surgen nuevos elementos lisos, heterogéneos, no codificados, entre otros, sin embargo este estadiun es transitorio en la medida que los elementos, espacios, procesos, sistemas se dejan estriar o solidificar; volverán líneas de fuga que lo hagan liso y así sucesivamente, pasando a una nueva subjetividad no homogénea. Según Deleuzze y Guattari "(...) existe un movimiento permanente que implica la producción de un espacio liso a otro estriado o a la inversa" (Deleuzze y Gualttari 1994:391. crf GÓMEZ y ALARCÓN 2001:3). Los espacios estriados representan lo estable, lo racional, el progreso y los espacios lisos representan los procesos de renovación y cambio, porque en ellos se puede producir toda una dinámica de transformación.

Un rizoma como tallo subterráneo se distingue radicalmente de las raíces y de las raicillas, forma un cuerpo colectivo, es el todo y la parte a la vez, adquiere diferentes formas y extensiones. En consecuencia por este principio de la conectividad y el agenciamiento: "constituidos por aumento de dimensiones en la multiplicidad que cambia de naturaleza a medida que aumenta sus conexiones". (:8). Por lo tanto se hace muy difícil la extinción de un rizoma, siempre se conecta, siempre está emergiendo uno nuevo, a menos que se usen productos sistémicos que aplicados sobre sus hojas destruya la vida del rizoma. Este principio llevado a la biología se puede observar en algunas gramas rizomorfas que conforman redes, algunas veces incontrolables.

2) Multiplicidad. De acuerdo a este principio un rizoma no tiene ni sujeto ni objeto, sino únicamente determinaciones, tamaños, dimensiones que no pueden aumentar sin que cambie de naturaleza, no tiene estructura, no hay puntos sino líneas, por eso no se deja codificar. "Las multiplicidades se definen por el afuera: por la línea abstracta, línea de fuga o de desterritorialización según la cual cambian de naturaleza al conectarse con otras. El plan de consistencia es el afuera de todas las multiplicidades. La línea de fuga señala a la vez la realidad de un número de dimensiones finitas que la multiplicidad ocupa efectivamente; la imposibilidad de cualquier dimensión suplementaria sin que la multiplicidad se transforme según esa línea; la posibilidad y la necesidad de distribuir todas esas multiplicidades en un mismo plan de consistencia o de exterior, cualesquiera que sean sus dimensiones". (:9).

El rizoma no es reducible ni a lo uno ni a lo múltiple; no es objeto de reproducción, sino que procede por variación, conquista, y captura. Forma mesetas: "una región continua de intensidades, que vibra sobre sí misma, y que se desarrolla evitando cualquier orientación hacia un punto culminante o hacia un fin exterior" (:27), las cuales trazan círculos de convergencia y pueden relacionarse unas a otras.

3) Ruptura asignificante. Los rizomas están integrados por líneas de segmentariedad y de desterritorialización . Según las primeras el rizoma está estratificado, territorializado, organizado, pero en cualquier momento surgen intespectivamente de las líneas segmentarias líneas de fuga que produce una ruptura y lo desterritorializa, en un movimiento dialéctico y permanente, recomenzando siempre en cualquiera de sus líneas. (:12).

4) Cartografía y calcomanía. Los rizomas no siguen un eje genético estructurado reproducible infinitamente a partir de una estructura que codifica, o calcos, sino que constituye mapa con múltiples entradas, "(...) abierto, conectable en todas sus dimensiones, desmontable, alterable, susceptible de recibir constantemente modificaciones" (:14) constituyendo esta una de las características más importante de los rizomas. Los calcos son copias iguales de un mapa, es una reproducción estructurada, codificada, es más bien una fotografía que aísla los elementos que quiere reproducir con medios artificiales, y en consecuencia reproduce los puntos muertos, se fosiliza y muere. No obstante "siempre es posible resituar los puntos muertos sobre el mapa, y abrirlos así a posibles líneas de fuga. Y lo mismo habría que hacer con un mapa de grupo: mostrar en que puntos del rizoma se forman fenómenos de masificación...que líneas subsisten a pesar de todo (...) y continuar haciendo rizoma". (:17).

De lo expresado anteriormente se podría considerar que el conocimiento y la ciencia, los procesos y los sistemas complejos pueden abordarse con teorías complejas y emergentes.

En tal sentido, cabe preguntase: ¿puede abordarse la ciencia, la realidad, la complejidad, los procesos desde su origen?; ¿se puede establecer el principio y el fin del conocimiento, grupos sociales y procesos?; ¿Son estables los sistemas y microsistemas complejos?; ¿Es posible eliminar el conocimiento, la ciencia, los movimientos sociales? O se trata de rizomas que se escapan por cualquier línea de fuga.

2.4 La Autopoiesis como Continuum de Conocimientos

"(...)un sistema vivo existe en un flujo continuo de moléculas a través de sí mismo, de manera que esas moléculas que participan en la red de producciones le pertenecen y son en él componentes dinámicos, y esas moléculas que no participan en el no le pertenecen, independientemente de la manera en que hayan sido producidas (...)"
Humberto Maturana y Francisco Varela

La autopoiesis constituye una teoría elaborada por Humberto Maturana y Francisco Varela (1984), para abordar la organización de los sistemas vivos desde el punto de vista biológico y entre estos sistemas se hallan los seres humanos.

Para Maturana (1997) la autopoiesis es la organización particular que identifica, caracteriza, manifiesta y determina la existencia de los sistemas vivos, así como sus interacciones e interrelaciones. Esta organización esta conformada por redes cerradas de producciones moleculares en las cuales las moléculas producidas generan o producen por sus interacciones la misma red de producción molecular que las produjo, y así sucesivamente, y esto es lo que determina la clase del sistema, la interacción de sus componentes moleculares y no una clase particular de molécula, esto hace que los sistemas vivos se hallen en un flujo continuo de moléculas que intervienen en la red de producción a las cuales pertenecen y son componentes dinámicos de la misma. Es decir que las operaciones del sistema sólo se producen en la red de sus propias operaciones, autoproduciéndose permanentemente la red de producción y así recursivamente para actuar como una unidad en el espacio en que existen.

Los sistemas autopoiéticos presentan las siguientes características:

1) Son autónomos, autoreferenciales, capaces de autogenerarse sin requerir para ello del medio circundante sino de su propia red recursiva, aún cuando operan en entornos específicos. Esta característica distingue los seres vivos de las máquinas, las cuales requieren de programas determinados externamente a ellas, es decir, mantienen sistemas autopoiéticos. (LUHMANN 1998: 56. crf ROBLES, ARNOLD 2001:3).

2) Son sistemas operativamente cerrados, no requiere de la intervención externa para que el sistema produzca sus componentes porque estos son producidos al interior de una retícula clausurada, aún cuando existe una relación de apertura causal con sus entornos desde el punto de vista energético, pero el control mediante el cual los elementos del sistema se organiza depende de las operaciones recursivas del mismo sistema que siempre debe volver sobre sí mismo.

3) Son estructuralmente determinados, "están capacitados para realizar valores característicos en virtud de su cierre operativo, de aplicar invarianzas específicas a sus estados y de incrementar su autonomía" (ROBLES, ARNOLD 2001:2), ellos no pueden adoptar estructuras ajenas a ellas mismas sino que mediante sus propias operaciones producen sus propios elementos y sus cambios estructurales; es decir, son autoproducidos. Esto no significa que los sistemas autopoiéticos sean insensibles al entorno, sino que éste actúa sobre el sistema estimulándolo, pero es el sistema mismo el que permanentemente desarrollará internamente operaciones selectivas que le permiten reorganizar sus recursos y modificar sus estructuras. Al respecto Balmi Maturana (2001:5) señala: "(...) la organización de una unidad compuesta es siempre una invariante ya que si cambia la organización cambia también la identidad de clase de la unidad en cuestión. Los seres vivos mantenemos nuestra organización durante toda la vida...sólo en el momento de morir pierde la organización que lo definía como perteneciente a la clase de los seres vivos".

Los sistemas vivos se mantienen en una dinámica continua de cambios estructurales generada y modulada por los cambios estructurales internamente originados en sus interacciones en el medio en que actúan como totalidad, y en consecuencia nada ajeno al sistema mismo puede establecer o determinar cual es el cambio estructural a generarse. Por lo tanto, en los seres humanos nada externo puede determinar lo que ocurre en su interior, tales como la información, la instrucción porque lo que sucede a cada instante está determinado por una dinámica estructural, en sus interacciones recurrentes como consecuencia de la autopoiesis. El conocimiento para Humberto Maturana (1997), opera como un sistema determinado sólo desde el interior mediante sus propias estructuras. Esto trae como consecuencia que el observador no puede dar explicaciones de la realidad, si no solamente de las que han sido producidas por sus propias operaciones y que ocasionan un cambio estructural determinado en su estructura, existiendo tantas explicaciones como observadores participen en ellas.

3. De Ordenes, Incertidumbres y Caos

3.1 La Metáfora de los Entrelazamientos: De Heisenberg a Chew

"(...)Debemos volcar todos nuestros esfuerzos en unirnos,junto con las generaciones más jóvenes en una perspectiva humana común, y alcanzar el recto pensar entre las dos clases de verdad(...)"
Werner Heisenberg

"(...) la ciencia del futuro podrá consistir en un mosaico de teorías y modelos entrelazados al estilo <<bootstrap>>"...
Geoffrey Chew

La teoría cuántica se ocupa de lo muy pequeño, de los átomos y de todas las partículas subatómicas. Nace el 14 de diciembre de 1900 -un poco más de 100 años- cuando el alemán Max Planck formula la idea de que la materia no podía absorber ni emitir radiación en cantidades cada vez más pequeñas, sin límite alguno; y descubre "el cuanto" como la cantidad mínima de energía por debajo de la cual no se puede bajar. (MUY INTERESANTE S/f)

Desde ese entonces la mecánica cuántica moderna supuso una revolución en la concepción de la medida, al asociar una onda con el movimiento de cada partícula. A partir de 1.925, se constituye en una nueva rama de la física, producto de los resultados del conjunto de trabajos realizados por Heisenberg, Schödinger, Born, Dirac y otros autores, basados en la teoría de Max Planck. Ésta surge en oposición a la física newtoniana o mecánica clásica, la cual no podía aplicarse al mundo subatómico, y como respuesta al estudio de las formas de desplazamiento de las aglomeraciones de partículas llamadas "quantas" (de quantun, cantidad). La mecánica cuántica nace a partir de la propuesta de Louis de Broglie sobre la dualidad onda-corpúsculo y la naturaleza ondulatoria de los electrones en la estructura atómica; la formalización matemática de Erwin Schröndinger de la mecánica ondulatoria y la formulación del <<principio de incertidumbre>> de Heisenberg. (S/A. 2001:2 AM:3)

Los principios, teorías y conceptos de la física cuántica han sido de amplia utilidad y aplicación en la construcción del nuevo paradigma de la complejidad. El <Principio de Incertidumbre> y la <Teoría de Bootstrap> son dos posturas de gran trascendencia, cuyo impacto y desarrollo se analizarán a continuación.

<Principio de Incertidumbre>

El mundo de probabilidades planteado por el físico teórico alemán Werner Heisenberg (1901-1976), ejerció una importante influencia en el campo de la física y la filosofía del siglo XX. Su extensa obra sobre la teoría de la estructura atómica, con el apoyo y colaboración de nombres como los de Pascal Jordan, Max Born y Wolfgang Pauli, tiene aportaciones importantes en la ruptura con el mundo clásico: Desarrolla un modelo matemático abstracto llamado "mecánica matricial" para explicar las longitudes de onda de líneas espectrales, realiza la predicción de dos formas de hidrógeno molecular y elabora modelos teóricos del núcleo (S/A 2001:2am:1). Sin embargo, su más brillante contribución a la física, enunciado en 1927, y que le valió el premio Nobel en 1932; fue la formulación del <<principio de incertidumbre>> (S/A 2001:2:05:2)

La visión probabilística de la mecánica cuántica y del <<El principio de incertidumbre>> de Heisenberg, conocido también como de indeterminación, se evidencia de las precisiones de algunos autores:

Hawking lo resume así: "(...) hay un límite en la precisión con el cual podemos determinar al mismo tiempo la posición y la cantidad de movimiento de una partícula" (Hawking cfr LE VIGAN 2001: 3).

LE VIGAN nos dice: "(...) una cantidad de luz, proyectada sobre una partícula para determinar su posición, modifica la velocidad de ésta y, en consecuencia hace indeterminable precisamente su posición" (LE VIGAN 2001: 1).

Ken Wilber, afirma: "(...) en términos simples cuanto más sabemos acerca de una mitad del mundo subatómico, tanto menos podemos saber de la otra mitad" (WILBER 1991:57).

Otros autores señalan: "(...) podemos conocer la posición actual de una partícula subatómica, pero a costa de perder precisión en el conocimiento de otras variables (por ejemplo su velocidad), ya que nuestra observación de su posición afecta de manera no controlable el equilibrio atómico (incluso una observación de manera precisa podría destruirlo). En forma inversa, podemos establecer con gran aproximación la velocidad de un electrón, pero renunciando a conocer con precisión su posición actual o futura" (S/A 2001: 2).

Esto nos indica que para poder obtener información sobre las diferentes probabilidades de posición del electrón se tiene que tratar no sólo como partícula, sino también como onda que se propaga y cuya forma nos da información.

Para Romo Proaño este principio dice que: "(...) ninguna partícula puede tener valores perfectamente definidos para todos sus atributos y que mientras más exactamente conocemos uno de ellos, menos exactamente conoceremos a los otros". (ROMO 2001:2)

Visto así, los efectos de la Física Cuántica, una de las más misteriosas y desconocidas ramas de la Física, se convierten en cosas de magia. Aseveraciones como las siguientes nos lo confirman: "(...) La Física Cuántica empieza a definir el principio del fin (...) el universo quedará en manos de las probabilidades y del <Principio de Incertidumbre> (...) en un mundo cuántico como el nuestro nada es real, todo son probabilidades e incertidumbre (...) nosotros y todo el universo somos una mera probabilidad, (...)en nuestro cuerpo o en cualquier parte del universo puede desaparecer una partícula y aparecer en otro lugar sin motivo alguno (...) en el mundo Cuántico no hay causa y efecto". (ROMO 2001: 2)

Se puede concluir que este principio representa un cambio radical frente al espíritu de la física clásica. Todos los autores coinciden en señalar que hay un límite en la precisión de cualquier observación del mundo atómico o subatómico, lo que nos lleva a afirmar que en la concepción del universo de la Física Cuántica, se establecen leyes fundamentalmente diferentes, en términos probabilísticos y ya no determinísticos.

Teoría de <bootstrap>

La física moderna dio el tercer paso revolucionario del siglo XX gracias al enfoque de Geoffrey Chew con su teoría de <<bootstrap>> de las partículas, la cual unifica la mecánica cuántica con la teoría de la relatividad. Fritjof Capra, describe ampliamente los planteamientos de Chew en su obra documental "Sabiduría Insólita", donde se discuten temas sobre ciencia, metafísica, religión, filosofía y salud de importantes pensadores contemporáneos.

El <<bootstrap>> es abordado bajo la óptica no sólo de una teoría, sino también como un enfoque, un proceso y una filosofía: "(...) ésta es una teoría que manifiesta tanto los aspectos cuánticos como los relativistas en toda su plenitud y, al mismo tiempo, representa una ruptura radical con la totalidad del enfoque de Occidente sobre la ciencia fundamental" (CAPRA 1994: 56).

La hipótesis de Chew sobre <<bootstrap>> plantea que: "(...) la naturaleza no puede ser reducida a entidades fundamentales, como bloques de materia, sino que debe entenderse plenamente a través de la autoconsistencia de sus elementos" (...) no acepta ninguna entidad fundamental en absoluto: ninguna constante, ley, ni ecuación fundamental (...) el universo se ve como una red dinámica de sucesos interrelacionados, ninguna de las propiedades de cualquier parte de dicha red es fundamental, todas se desprenden de propiedades de otras partes y la consistencia global de sus interrelaciones, determina la estructura de la totalidad de la red". (CAPRA 1994: 56).

Las premisas de la filosofía <<bootstrap>> propuesta por Chew, según Capra, contrasta radicalmente con la tradición científica occidental, acercándose mas bien al pensamiento oriental y particularmente con al budista. La visión del universo como "red dinámica de relaciones y sucesos interrelacionados" refleja una actitud budista; cuyo paralelismo, es señalado por Capra en un artículo titulado <bootstrap y budismo>: "(...) el contraste entre los "fundamentalistas" y los partidarios del <<bootstrap>> en la física subatómica, refleja el contraste entre las corrientes dominantes en el pensamiento occidental y oriental. (...) la unidad e interrelación mutua de todas las cosas y sucesos ha hallado su expresión más clara y de mayor alcance en el budismo Mahayana y el pensamiento de dicha escuela budista está en perfecta armonía con la física <bootstrap>" (CAPRA cfr CAPRA 1994: 58).

El paralelismo entre la física cuántica y el misticismo oriental se expresa, por ejemplo, en los acertijos paradójicos de la tradición Zen, denominados koans, que los maestros plantean a sus discípulos para detener el proceso de pensamiento, experimentar la realidad de un modo no verbal y poder alcanzar un estado de iluminación. Capra explica al respecto lo siguiente: "(...) cuando se descubre la solución, el koan deja de ser paradójico y se convierte en una profunda y significativa afirmación procedente del estado de consciencia que ha contribuido a despertar". (1994:32). Este "método" utilizado por los budistas Zen exige un gran esfuerzo de concentración y atención; similar al experimentado por físicos como Heisenberg y Chew en sus paradojas cuánticas de los años veinte, donde según Capra "(...) el único maestro era la naturaleza". Finalmente reconoce que: "(...) al igual que en el Zen, las soluciones de los problemas físicos estaban ocultas en paradojas". (1994:33).

Las filosofías orientales como el Hinduismo, Budismo, Taoísmo, Zen, practicadas por el propio Capra, Heisenberg, Chew y otros físicos y pensadores occidentales; definitivamente contribuyeron a que estos científicos percibieran el mundo físico de otra manera y tuvieran una nueva visión de la realidad; en forma más ecológica y en total armonía con las tradiciones espirituales. Los rayos cósmicos, las cascadas de energía, las partículas y los átomos de los elementos percibidos durante la danza cósmica del universo o la danza de Shiva, experimentada por Capra, en un atardecer mientras observaba el movimiento de las olas; son un testimonio de cómo sus investigaciones físicas cobraron vida: "(...) vi cascadas de energía que llegaban del espacio exterior, (...) vi los átomos de los elementos y los de mi cuerpo participando en aquella danza cósmica de energía (...) sentí su ritmo y oí su sonido" (1997:17). Lo anterior nos demuestra que el misticismo ha constituido una importante fuente filosófica en la construcción del nuevo paradigma de la complejidad, y que la consciencia debe ser un aspecto esencial del universo a ser incluido en la futura teoría de los fenómenos físicos (1997: 409).

La estructura matemática utilizada por Chew para la física <<bootstrap>> parte de la <<matriz de esparcimiento>> o matriz E; propuesta por Werner Heisenberg y conocida como mecánica matricial, y la formulación matemática de la mecánica ondulatoria de Erwin Schrôdinger. Adicionalmente, en este proceso tuvo una valiosa contribución el físico italiano Gabriele Veneziano, quien en 1974 aplica la topología a la física para definir las categorías ordinales de la interconexión de los procesos subatómicos. (1994:62)

Esta compleja estructura matemática le permitió a Chew y su equipo ir mas allá de la "ecuación fundamental" de Heisenberg, formular y sistematizar una teoría global de las partículas subatómicas; es decir, desechar la vieja idea de que los ladrillos fundamentales de la materia eran los electrones, protones y neutrones. Bajo esta teoría no se acepta ninguna entidad fundamental en absoluto. Según Capra: "(...) Chew ha logrado deducir los resultados característicos de los modelos de los quarks, sin necesidad de postular la existencia de ninguna partícula física; practicando, por así decirlo, la física de los quarks sin quarks" (CAPRA 1999:61).

La teoría <<bootstrap>> guarda cierta similitud con la <teoría del orden implicado> que planteó David Bohm, físico contemporáneo de Chew y bajo la influencia del filósofo y sabio Krishnamurti: "(...) ambos enfoques, basados en una visión del mundo como red dinámica de relaciones; atribuyen un papel central al concepto de orden; utilizan matrices para representar el cambio y la transformación y, la topología para clasificar las categorías de orden, lo cual podría permitir su posible fusión en un futuro". (CAPRA 1994:73).

El proceso de investigación en la física <<bootstrap>>, se diferencia en muchos aspectos del de la física ortodoxa: no hay ningún punto claro de partida, no hay preguntas bien definidas, e inclusive, a veces, no se sabe que preguntas formular, se va más allá de la estructura de preguntas y respuestas.

Esta ausencia de fundamento firme, uno de los aspectos fundamentales del nuevo paradigma, propuesto por la teoría <<bootstrap>>, y el hecho de que pueda existir un conocimiento aproximado, es lo que la convierte en una teoría científica. Este aspecto pareciera ser la mayor transformación y el cambio más profundo de la ciencia. Nos preguntamos ¿Acaso la nueva ciencia habrá dejado de necesitar cimientos firmes?. Parte de la respuesta podemos conseguirla en enfoques como el <<bootstrap>>; una de las primeras teorías científicas que ha formulado explícitamente "la filosofía del entrelazamiento", donde la metáfora de la construcción de <bloques básicos> será sustituida por la de la red y donde ninguna parte es más fundamental que cualquier otra.

Paradójicamente, la concepción de que ningún concepto se considera como absoluto; ha impedido que la ciencia occidental tradicional, con sus acostumbradas preguntas -formuladas con toda claridad y verificadas experimentalmente sin ambigüedad- no le haya asignado el carácter de ciencia al enfoque <<bootstrap>>. Pero lo que si es indiscutible es que la contribución de Chew, con la formulación de los principios de esta teoría, ha sido un aporte clave, no sólo en el desarrollo de la física cuántica, sino también en la construcción del nuevo paradigma. Haciendo inevitable la idea de que la metáfora del conocimiento ya no es la del "edificio" o la "realidad objetiva" del paradigma cartesiano; la nueva metáfora del conocimiento es como una red sin cimientos firmes, es una aproximación a la realidad y no una descripción exacta como se creyó durante mucho tiempo.

3.2 El Misterio del Orden y el Caos

"Sucede que una misteriosa clase de caos acecha detrás de una fachada de orden, y que, sin embargo, en lo más profundo del caos acecha una clase de orden todavía más misterioso"
Douglas Hofstaedter

En un esfuerzo común por comprender la complejidad que entraña la naturaleza, físicos, biólogos, astrónomos y economistas crearon un modelo teórico que les permitiera aprehender este conocimiento. Esta nueva ciencia -que algunos consideran disciplina- llamada teoría del caos ofrece un método para descubrir orden y concierto donde antes sólo se veía el azar, la irregularidad, lo predecible, en una palabra lo caótico. Su principal ley: hasta el desorden tiene sus reglas (NAVALPOTRO 2001: 19:19).

El sustento del caos como una nueva ciencia se debe al matemático, físico y filósofo francés Henri Poincaré, quien a fines del siglo XIX, a partir del planteamiento matemático de las ecuaciones diferenciales no lineales, dio explicación a los sistemas dinámicos característicos del mundo no lineal. Poincaré destruyó la imagen clásica de la naturaleza al dudar de la estabilidad del sistema solar y asomar la posibilidad de curiosas órbitas erráticas y caóticas haciéndose la pregunta de ¿qué pasaría si al sistema ideal de dos cuerpos se añadía el movimiento de un tercer cuerpo?. Con esta pregunta y su descubrimiento, Poincaré ocasiona un inmediato cuestionamiento al "(...) majestuoso paradigma newtoniano, que había servido a la ciencia durante casi dos siglos", "(...) Poincairé reveló que el caos, o el potencial para el caos, es la esencia de un sistema no lineal, y que aun un sistema completamente determinado como los planetas en órbita podían tener resultados indeterminados. En cierto sentido había visto que la realimentación podía magnificar los efectos más pequeños. Había advertido que un sistema simple podía estallar en una perturbadora complejidad". (BRIGGS Y PEAT 1994:28)

Estos ataques al paradigma newtoniano se vieron reforzados posteriormente con el descubrimiento de Max Planck sobre la discontinuidad de la energía expresada en "cuantos" y la propuesta sobre la relatividad de Albert Einstein.

De acuerdo a la mecánica newtoniana, el mundo es un mecanismo regido por leyes naturales, eternas e inmutables. Estas leyes que pueden ser expresadas a través de ecuaciones matemáticas deteminan que bajo circunstancias idénticas, resultan siempre cosas idénticas y si las circunstancias varían levemente, el resultado también cambiará en forma proporcionalmente pequeña. Pero ocurre que a veces, una diferencia pequeña en las causas produce una enorme diferencia en los efectos, este tipo de comportamiento es lo que se conoce con el nombre de fenómeno caótico. (MANDRESSI 2001: 12:15).

Nuestro mundo está lleno de fenómenos que parecen caóticos, aunque en realidad se rigen por reglas estríctas pero difíciles de desentrañar por la gran cantidad de variables implicadas o de combinaciones generadas, un sitema caótioco es entonces "un sistema determinista que bajo ciertas circunstancias presenta una dinámica no lineal totalmente irregular e impredecible". (VON DER BECKE 2001 20:34).

Hay una frase de Sorman, "El universo ya no es un reloj, sino un caos" (1991: 40), que comporta una nueva idea de la complejidad, lejos ya del paradigma clásico. La mecánica cuántica (principio de indeterminación de Heisenberg, constante de Planck, etc.) abre un mundo de incertidumbres y probabilidades, mientras la teoría especial de la relatividad nos ofrece nuevas descripciones del tiempo. Estos precedentes de la teoría del caos, junto a la matemática de Mandelbrot, generan grietas en el paradigma mecanicista y su mundo ordenado. Más bien, la teoría del caos evidencia que hay otras dimensiones subyacentes al mundo ordenado de Kepler o Newton; dimensiones que se configuran en la matemática del caos como espacios de incertidumbre, probabilidad, impredecibilidad, no-linealidad, complejidad, irreversibilidad o bifurcación.

En la matemática del caos, las cosas no ocurren al azar, las condiciones iniciales son determinantes, pero el producto -por ser dinámico y complejo- entraña un resultado prácticamente impredecible. Su aplicación se basa sobre tres supuestos científicos:

a) Los sistemas simples pueden generar comportamientos complejos.

b) Los sistemas complejos causan comportamientos sencillos.

c) La leyes de la complejidad tienen validez universal y se despreocupan de los detalles de los micro-componentes de un sistema. (COLLE 2001: 17:16)

La matemática del caos fue descubierta cuando al intentar reiterar una función muchas veces, se encontraba un resultado casi imprevisible, respondiendo muy sensiblemente a las variaciones del valor inicial. Acuñada por el meteorólogo norteamericano Edward Lorenz, a comienzo de los años sesenta, la imagen conocida como el efecto mariposa, se ha convertido " en una suerte de viñeta" de la teoría del caos. Lorenz utilizaba un programa de ordenador para calcular mediante varias ecuaciones las condiciones climáticas probables, cuando se dio cuenta de que al redondear los datos iniciales sólo un poco, los datos finales eran radicalmente diferentes. Descubrió que eso es debido a los rizos retroalimentadores y reiteraciones del sistema caótico que representa la atmósfera. Una mariposa parece no ser nada comparándola con las enormes fuerzas físicas que actúan en la atmósfera. Sin embargo después de la experiencia de Lorenz no resulta difícil pensar que tal vez, el batir de las alas de una mariposa produzca un tornado en el otro lado de la tierra (después de múltiples retroalimentaciónes y/o bifurcaciones del sistema). Resulta sencillo entender que la "mariposa" no es un elemento aislado del sistema caótico sino que forma parte de éste y por tanto todo lo que ella haga de alguna manera va influir en todo lo demás; pero sería imposible demostrarlo. Esto enseñó a Lorenz que por muy potentes y veloces que sean las computadoras del futuro, jamás se podrá vaticinar el tiempo que se tendrá mañana con un cien por ciento de seguridad: un pájaro, una mariposa o incluso un suspiro, podrían invalidar hasta los cálculos más meticulosos. (S/a 2001: 23:10).

Al igual que existen diversos tipos de orden, también existen diversos tipos de caos. Por ejemplo, el denominado caos con sentido. Los fractales, los virus y multitud de fenómenos en la naturaleza son una muestra de este tipo de caos. Estas estructuras están formadas por elementos azarosos que les confieren una base de existencia y acción caótica. Sin embargo, cuando se percibe las suma de las interacciones en su conjunto, ésta adquiere un sentido. Apología del Caos. Redes Heterogéneas. Proyecto congelado Interactors. (S/a 2001 23:45).

La teoría del caos sostiene que no hay líneas simples en la naturaleza: cualquier línea, vista desde una escala diferente, resulta ser una sucesión de formas, de irregularidades, curvas, etc. El caos también sugiere que algunas cosas no tienen justo una, o dos o tres dimensiones, sino que su dimensión está en un valor intermedio entre ellas y las define así como dimensiones fractales o no lineales. (NAVALPOTRO 2001: 19:19)

Todo, desde el átomo hasta la célula, desde una pequeña ave hasta el cosmos, todo lleva un reloj interior que mide su paso individual del tiempo "la magnitud del proceso que ha experimentado". Según la teoría del caos los sistemas tienden a autoorganizarse, preservando su equilibrio interno al tiempo que retienen una cierta medida de apertura hacia el mundo exterior .Algo semejante sucede con el tiempo: cada elemento de un sistema posee su propia medida singular de la magnitud del proceso interior que se está desarrollando respecto al entorno exterior. Sin embargo los "relojes" internos de todos los sistemas más pequeños se acompasan perfectamente. Esta conexión con el entorno de sistemas que tienen su propia medida temporal, enriquece el tiempo y lo llena de dimensiones. Cuando la vida corre peligro –por ejemplo- el tiempo parece entrar en otra dimensión. Un espacio donde es posible pensar en muchas cosas a la vez y en el que se pude decidir lo que se va a hacer. Pareciera que se entra en una temporalidad que es diferente a la del resto del mundo. Es como si cada acontecimiento dentro del paisaje se desarrollara según un tiempo individual con su propia medida de ser y de movimiento. Esa experiencia del tiempo, quizá no sea una simple ilusión producto del exceso de adrenalina, sino una clara visión momentánea de cómo son realmente las cosas en las dimensiones del tiempo. Acaso sea que al desconectar el tiempo mecánico del reloj se puedan experimentar los matices del tiempo fractal, la experiencia vivida pueda expandirse dentro del tiempo y sea posible actuar en consonancia con el ritmo interior, permitiendo que este ritmo interno esté en armonía con el ritmo del sistema del universo. Al formar parte de un sistema relacionado, aunque cada uno está siguiendo su propio reloj interior, milagrosamente resulta que todos los relojes individuales están sincronizados, están en armonía aunque tienen ritmos temporales diferentes, dinámicos, siempre cambiantes: esta extraña sincronización es una de las características del caos. (S/a 2001: 23:10).

La ciencia del caos traspasa las disciplinas científicas tradicionales enlazando tipos de desorden y de irregularidad que aparentemente no tienen nada que ver entre sí: desde la turbulencia del tiempo meteorológico hasta los complicados ritmos del corazón humano, desde los torbellinos que se forman detrás de una piedra en un arroyo, hasta las misteriosas fluctuaciones del mercado de valores.

"Caos no es sinónimo de anarquía, sino por el contrario es sinónimo del orden sublime, del más perfecto al que se pueda aspirar, tan perfecto que no es comprensible por nuestra limitada mente humana". La teoría del caos afirma que el comportamiento de un sistema viable se puede predecir en el corto plazo con una alta probabilidad de ocurrencia, y que en el mediano y el largo plazo, su predictibilidad es errática. Chile Magagement. La revista de Chile. (S/a 2001: 21:56).

El caos también puede encontrarse en la naturaleza, Si se observa con detenimiento a las hormigas, su comportamiento global es sorprendente: el número de individuos activos, a lo largo del tiempo, fluctúa con una periodicidad de unos 25 minutos. Cada cierto tiempo ningún elemento está activo. Ese ciclo de actividad podría ser sólo un reflejo de sincronización, sin embargo, la actividad individual es totalmente aperiódica, caótica, sin ningún tipo de regularidad intrínseca. Al aumentar el número de individuos aparece un comportamiento colectivo hasta que -para cierta densidad de hormigas- comienzan a aparecer oscilaciones regulares. Si artificialmente se cambia la densidad de las hormigas la colonia redefine sus fronteras, para volver a la densidad óptima que les permite mantener la autoorganización. En esa densidad crítica el sistema se comporta como un todo, a medio camino entre el orden y el desorden. (S/a 2001: 23:10).

Durante muchos años la noción de la existencia de un orden universal que rige el destino de todo lo que ha sido, es y será, predominó en el pensamiento científico y filosófico como una idea vertebral de la racionalidad humana.

El nuevo paradigma que promueve un pensamiento diferente que afirma que la existencia del caos no es una trasgresión, una ruptura circunstancial, sino que forma parte constitutiva de la naturaleza, de la sociedad, del universo, poco a poco ha ido aplicándose a todo. En varios campos de la indagación científica, la idea de caos, de desorden, de indeterminación e incertidumbre ha empezado a orientar la búsqueda de los científicos para dar respuesta a las muchas interrogantes que el universo, la naturaleza y la sociedad plantean.

En la era de la revolución informática aparece una concepción que afirma la existencia del caos, del desorden, como un reto para el pensamiento científico que invita a encontrar las regularidades de lo irregular, las determinaciones de lo indeterminado, el orden subyacente en el desorden aparente. El planteamiento central de esta nueva concepción, nos dice que el desorden, la turbulencia, la desorganización y la posterior autoorganización, lo imprevisible, lo inesperado son aspectos constitutivos de la realidad que la investigación científica tiene que abordar y desentrañar. El caos está presente en el universo, la naturaleza y la sociedad y ejerce una fascinación que ha dado lugar al surgimiento de lo que algunos consideran como una de las principales invenciones que han evolucionado la historia de las civilizaciones.

3.3 Materia y Conciencia. El Orden Implicado de la Totalidad

"Mi principal interés ha sido el de comprender la naturaleza de la realidad en general, y la de la consciencia en particular, como un todo coherente, el cual no es estático ni completo, sino que es un proceso interminable de movimiento y despliegue(...). El pensamiento mismo es un proceso en movimiento(...) ¿No cabría pensar, pues, que esta consciencia sea también parte de la misma realidad como un todo? Pero, entonces, ¿querría esto decir que una parte de la realidad <<conoce>> a la otra?"
David Bohm

David Bohm era un antiguo colaborador de Albert Einstein, inglés, Físico Teórico de reconocida trayectoria internacional en el campo de la física cuántica. Su obra constituye lectura obligada para la comprensión del nuevo paradigma científico pues representa cuarenta años de investigación física y filosófica, una gran síntesis que pregona que en cualquier elemento del universo se encuentra contenida la totalidad del mismo y que esta totalidad incluye tanto materia como consciencia.

Al respecto afirma Sheldrake (1990) que:

"Según esta teoría (del orden implicado) se distinguen tres reinos principales de existencia: el orden explicado, el orden implicado y una fuente o base subyacente a ambos. El orden explicado es el mundo de las <<cosas-sucesos>> aparentemente separados y aislados en el espacio y el tiempo. El orden implicado corresponde a un terreno en que todas las cosas y sucesos están envueltos en completa totalidad y unidad, que, por decirlo de alguna manera, constituye la base del orden explicado del mundo que experimentamos a través de los sentidos". (:463).

Los sistemas materiales y el espacio y el tiempo se "despliegan" a partir de ese orden subyacente y cualquier suceso, objeto o entidad del mundo explicado es una abstracción de una "totalidad desconocida de movimiento fluido" denominado por Bohm "holomovimiento"; una totalidad continua e indivisible, indefinible e inmensurable. Este flujo universal es "vida implícita", es fundamento primario de la "vida explícita" y como tal es "autoexistente y universal". (SHELDRAKE 1990:463).

El concepto más apropiado de orden para un universo de totalidad no fragmentada es el "orden implicado o plegado" Para Bohm (1992):

"En el orden implicado, ni el espacio ni el tiempo son ya los factores dominantes para determinar relaciones de dependencia o independencia de los diferentes elementos. Es posible que exista una relación básica diferente por completo entre los elementos y que, por ella, nuestras nociones ordinarias del espacio y del tiempo, junto con la de partículas materiales existentes por separado, queden absorbidas en las formas derivadas de este orden más profundo. (...) estas nociones ordinarias aparecen en lo que se llama el <<orden explicado o desplegado>>, que es una forma especial y particular contenida dentro de la totalidad general de todos los órdenes implicados" (:117)

La física se venía moviendo entre coordenadas cartesianas que constituyen el <<orden exlicado>> del universo. Bohm propone desarrollar un nuevo tipo de descripción para discutir las leyes de la física a partir del <<orden implicado>> entendiendo por tal el orden implícito, <<plegado hacia adentro>>. La existencia es una totalidad no fragmentada, un movimiento fluyente, no dividido, din fronteras y el conjunto completo de las leyes que gobiernan esa totalidad nos es descoocido y probablemente resultará <<incognoscible>>.

Bohm sugiere que: "(...) lo que percibimos por los sentidos como espacio vacío es, en realidad una plenitud que es la base para la existencia de todas las cosas, incluyéndonos a nosotros mismos. Las cosas que aparecen ante nuestros sentidos son formas derivadas, y su verdadero significado solamente se puede ver cuando consideramos la plenitud, en la cual se engendran y sostienen, y en la cual acabarán desvaneciéndose" (:266)

Existe la necesidad de desacostumbrarnos al orden explicado para así poder darnos cuenta de la primacía del orden implicado. La mayor evidencia de que vivimos un momento de crisis del paradigma de la ciencia y de rupturas epistémicas es el hecho de estos cambios en la visión del orden. El pensamiento se encuentra en el orden implicado, envuelto, al igual que el lenguaje, la consciencia, la cosmovisión. A un nivel profundo, conocimiento y materia son inseparables, se hallan interrelacionados, entretejidos. Mente y materia son dos aspectos de un todo, de un orden que posiblemente se desenvuelve, se despliega en dos órdenes con algún tipo de independencia en cuanto a sus funciones. (BOHM Y PEAT 1988)

3.4 Memoria y Naturaleza en la Evolución del Cosmos. La Presencia del Futuro

"De momento la cuestión permanece abierta. Es posible que, al fin y al cabo, vivamos en un mundo gobernado por leyes eternas. Pero también es posible que la memoria sea inherente a la naturaleza; y si descubrimos que así es el mundo en que vivimos, deberemos modificar completamente nuestra forma de pensar. Tarde o temprano tendremos que abandonar muchos de nuestros antiguos hábitos de pensamiento y adoptar otros nuevos: hábitos que se adapten mejor a la vida en un mundo que vive en presencia del pasado, y que vive asimismo en presencia del futuro, abierto a la creación continua"
Rupert Sheldrake

Al inicio de la década de los ochenta, Rupert Sheldrake (1990), bioquímico inglés, Director del Centro de Investigaciones Bioquímicas de la Universidad de Cambridge, revolucionó el campo de la ciencia biológica e impactó otras disciplinas como la física y la psicología, a partir del desarrollo de su hipótesis sobre la resonancia mórfica y los hábitos de la naturaleza. Basándose en nociones vagas acerca de los campos morfogenéticos planteados por Weiss en 1939, el autor formula una teoría demostrable a partir de la hipótesis mencionada.

Sheldrake se plantea varias preguntas: ¿Qué es lo que hace a un sistema optar por uno de los caminos posibles en un determinado proceso físico-químico? ¿Qué permite que las cosas tengan una forma determinada?. ¿Qué genera que las moléculas se agrupen de una determinada manera y las sociedades se comporten de acuerdo a patrones predecibles? ¿Somos producto de una memoria colectiva?

La naturaleza ya no se concibe como gobernada por leyes inmutables. La naturaleza tiene memoria y esta se propaga por medio de un proceso de conexión no material denominado "resonancia mórfica". Toda la naturaleza es evolutiva y según su hipótesis de la "causación formativa", la memoria es inherente a la naturaleza. Esta memoria es acumulativa y mediante la repetición se hace habitual. Las leyes que creemos inmutables obedecen a la observación de estos hábitos. Afirma Sheldrake (1990) que:

"Las cosas son como son porque fueron como fueron" (:13) (...). La naturaleza de las cosas depende de unos campos mórficos que son regiones no materiales que actúan a través del tiempo y del espacio. Se localizan tanto en los sistemas que organizan como a su alrededor (...) no desaparecen: son patrones organizativos de influencia potenciales y pueden volver a aparecer en otro tiempo y lugar, en el momento y lugar en que las condiciones físicas sean las adecuadas. Cuando vuelven a aparecer contienen en ellos mismos un recuerdo de sus existencias físicas anteriores"(:15,16).

Ese proceso en el cual el pasado se hace presente en los campos mórficos es lo que el autor denomina "resonancia mórfica", es decir, el proceso que conlleva la transmisión de influencias causales formativas que actúan a través del tiempo y el espacio.

En vez de leyes naturales, son estos hábitos los que pasan a condicionar los procesos de evolución y crecimiento. Las estructuras no son inmutables sino que cambian al mismo tiempo que cambia el sistema con el que está asociado. Esta acumulación de hábitos a través del espacio y el tiempo lo denomina Sheldrake "la presencia del pasado". En consecuencia, si creamos hábitos en nuevas estructuras y éstas alcanzan una masa crítica, entonces este hábito se incorporará como campo mórfico a esa estructura.

Casi toda la naturaleza es inherentemente caótica e indeterminada. Los campos morfogenéticos de todos los sistemas pasados se hacen presentes en sistemas similares subsecuentes e influyen en ellos de forma acumulativa a través del tiempo y el espacio. Son campos de forma, patrones, estructuras que ordenan la naturaleza generando una "causación formativa". Estos sistemas naturales son autoorganizados responden a una concepción evolutiva diferente a los campos tradicionales de la física.

El autor se interroga: "¿Evolucionan las leyes de la naturaleza?. ¿O acaso la realidad física evoluciona mientras las leyes de la naturaleza permanecen inalterables?(:31) (...) La suposición según la cual las leyes de la naturaleza son eternas es el último gran legado de la vieja cosmología(...) El concepto de leyes de la naturaleza es metafórico(...)no hay motivo alguno para suponer que estas regularidades son eternas. Las regularidades de un universo evolutivo evolucionan: eso es lo que significa evolución". (:33.ss).

Al pensar que la memoria pudiera ser inherente a la naturaleza de las cosas, los fenómenos no se originarían exactamente de igual modo la primera vez que se produjeran que después de haberse producido millones de veces. Es por ello que utilizando una página web y apoyado por otros investigadores, se ha dado a la tarea de propagar por la red diversos ejercicios con la intención de probar, a partir de algunos experimentos, la incidencia de estos hábitos en las repuestas dado que: "Si un fenómeno se convierte en más habitual, tiende a producirse con mayor probabilidad a medida que se repite una y otra vez"

El cosmos evoluciona y hoy se compara más a un organismo en desarrollo que a una "máquina eterna" (:451). Es por ello que el autor adelanta otra hipótesis:

"Tal vez tenga sentido pensar que el universo entero es un organismo que lo incluye todo. Si fuera sí, por analogía con todos los organismos que contiene, el universo entero tendría un campo mórfico que incluiría, influiría e interconectaría a los campos mórficos de todos los organismos que contiene" (:461)

La ciencia física y la biología se acercan a Dios. Se da a luz una Nueva Ciencia de la Vida con implicaciones en todos los ámbitos del desarrollo humano, físico y social. Desde la perspectiva de la complejidad, los planteamientos de Sheldrake tienen que ver con muchos de los principios del pensamiento complejo. Vale destacar sin embargo los posibles papeles de los campos mórficos - a todos los niveles de complejidad - cuyas propiedades hipotéticas son: la autoorganización; la posibilidad de organización de patrones espacio temporales de actividad vibratoria o rítmica; el servir como atractores de los sistemas bajo su influencia hacia formas características y patrones de actividad; la capacidad de interrelacionarse dentro y fuera de ellos en una jerarquía u "holarquía" ; el hecho de ser estructuras probabilísticas y contener una memoria acumulativa dada por la resonancia mórfica con todos los sistemas similares anteriores y la memoria del pasado propio; su especial condición creativa y autocreativa expresada en palabras como: adaptabilidad, flexibilidad, ingeniosidad y recursos (:482)

Al pensamiento de Sheldrake y en sincronicidad absoluta se articulan sin esfuerzo los planteamientos de David Bohm sobre la totalidad y el orden implicado; el paradigma holográfico de Pribram; los conceptos de autopoiesis; el cosmos creativo de Laszlo y todos los resonantes esbozos de un paradigma de la complejidad que se autoconstruye y autogenera al decir de Maturana.

4. De Pasos, Visiones y Hallazgos

4.1 La Irreversibilidad de Algunos Procesos

"Todos somos conscientes del irreversible fluir del tiempo que parece dominar nuestra existencia, en el que lo pretérito está fijo y lo futuro abierto. Podemos sentir el anhelo de retrasar el reloj, enmendar los errores o revivir un momento maravilloso. Por desgracia (...) El tiempo no puede correr hacia atrás"
Peter Coveney – Roger Highfield

Un nuevo paradigma trastorna la concepción determinista de la mecánica newtoniana que concebía las leyes de la naturaleza inmutables e independientes del tiempo; la ciencia del calor -la termodinámica- puso de manifiesto ya en el siglo XIX la posibilidad de procesos irreversibles, la existencia de una flecha en el tiempo, por la función de la entropía.

En termodinámica existen tres principios básicos, el segundo principio -relacionado con la termodinámica de los procesos irreversibles- afirma que el calor no puede pasar por sí mismo -sin gasto adicional de energía- de un cuerpo con temperatura inferior a otro con temperatura superior. Este principio está íntimamente ligado al concepto de entropía, que es la tendencia universal de la energía a dejar de circular. La entropía aumenta en un sistema de la misma manera en que aumenta el desorden y es considerada una medida de ese desorden. (GUILLI 2001: 11:35).

En la termodinámica -como parte de la física que estudia sistemas complejos- se reconoce la diferencia entre procesos reversibles e irreversibles; desde sus comienzos, cuando nace para el estudio de la transferencia de calor y la conversión de calor en trabajo, se advierten límites a la acción y evolución de estos sistemas (PERALTA 2001: 18:34).

Von Bertalanffy clasifica los sistemas en sistemas abiertos y sistemas cerrados. Los primeros están representados por los organismos y los segundos por los objetos de la física ordinaria (VON BERTALANFFY 1991: S/p).

En un sistema aislado la entropía tiende a aumentar en los llamados procesos irreversibles o a permanecer invariable en llamados procesos reversibles, esto es, los sistemas aislados tienden a la entropía a través de procesos irreversibles. (GUILLI 2001: 11:35)

En el siglo XX, las consecuencias de la termodinámica dejan de ser arrinconadas, precisamente por los problemas que plantea. En los sistemas cerrados, el equilibrio final es una consecuencia necesaria. Pero si se observa la naturaleza, una célula, una ciudad, se encontrará que los objetos son sistemas abiertos, en procesos continuos de intercambio con el medio, es decir, son sistemas complejos. El segundo principio de la termodinámica, el principio entrópico, nos dice que no podemos predecir el futuro de un sistema complejo. Desarrollando las ideas sobre procesos irreversibles, investigadores de la dinámica del no equilibrio demuestran algo escandaloso a ojos del ideal clásico de la ciencia: el azar y la irreversibilidad pueden dar lugar al orden y a la organización. Ilya Prigogine, Premio Nobel de Química en 1977, es el representante más conocido de esta revolución de la historia de la ciencia, la del redescubrimiento del tiempo. (S/a 2001: 12:59)

Para tratar los problemas que surgen cuando las desviaciones del equilibrio no son pequeñas, Ilya Prigogine, formuló la termodinámica lejos del equilibrio. Es ésta una termodinámica que permite estudiar transiciones reales en las cuales la dirección del tiempo impone diferencias. (S/a 2001: 22:30)

La tesis fundamental de Prigogine es que hay una tendencia al orden en los sistemas abiertos y está relacionada con su "teoría de las estructuras disipativas". Esta teoría desmiente la tesis de la ciencia tradicional, para la cual la emergencia de lo nuevo era una pura ilusión, y que consideraba la vida en el Universo como un fenómeno fruto del azar -raro e inútil- como una anomalía accidental en una lucha quijotesca contra el absoluto dictamen de la segunda ley de la termodinámica y de la entropía, que terminaría inexorablemente en la muerte térmica como perspectiva final. Prigogine invierte completamente este modo de ver las cosas. (S/a 2001: 23:25)

Lejos del equilibrio la materia adquiere nuevas propiedades; por ejemplo, las grandes corrientes hidrodinámicas o los relojes químicos funcionan con señales que se transmiten a todo el sistema, su materia se hace sensible y se organiza. Esto se debe a que en estas situaciones de no-equilibrio las ecuaciones no son lineales, es decir, hay muchas propiedades posibles, son las distintas estructuras disipativas. (S/a 2001: 23:29)

Para comprender la idea central de la teoría, debe recordarse que en un nivel profundo de la naturaleza nada está fijo; todo está en un movimiento continuo; aun una roca es una danza continua de partículas subatómicas. Por otra parte, algunas formas de la naturaleza son sistemas abiertos, es decir, están envueltos en un cambio continuo de energía con el medio que los rodea. Una semilla, un huevo, como cualquier otro ser vivo, son todos sistemas abiertos. Prigogine llama a esos sistemas abiertos "estructuras disipativas", es decir, que su forma o estructura se mantiene por una continua "disipación" (o consumo) de energía. Como el agua se mueve en un remolino y al mismo tiempo lo crea, la energía se mueve a través de las estructuras disipativas y simultáneamente las crea. Todo ser viviente y algunos sistemas no vivientes, como ciertas reacciones químicas, son estructuras disipativas. En estos casos, se habla de la aparición de orden mediante fluctuaciones. (S/a 2001: 23:25)

El ejemplo típico de los efectos que estudia la teoría de Prigogine son las celdas de Bénard: cuando un líquido es calentado, se perturba su equilibrio termodinámico. Si la corriente de calor que atraviesa el líquido es pequeña no se observan efectos especiales -ámbito de la termodinámica clásica-; mas cuando la diferencia de temperatura a través del líquido excede un valor crítico, se produce un fenómeno completamente nuevo: las moléculas ya no siguen pequeños caminos irregulares, transportando el calor desde el fondo hacia arriba del líquido, sino que forman celdas regulares. (S/a 2001: 22:30)

Cuanto más compleja sea una estructura disipativa, más energía necesita para mantener todas sus conexiones. Por ello, también es más vulnerable a las fluctuaciones internas. Se dice, entonces, que está "más lejos del equilibrio". Debido a que estas conexiones solamente pueden ser sostenidas por el flujo de energía, el sistema está siempre fluyendo. Cuanto más coherente o intrincadamente conectada esté una estructura, más inestable es. Así, al aumentar la coherencia se aumenta la inestabilidad. Pero, esta inestabilidad es la clave de la transformación. La disipación de la energía, como demostró Prigogine con refinados procedimientos matemáticos, crea el potencial para un repentino reordenamiento. (S/a 2001: 23:25)

Se ha considerado que la teoría de Prigogine puede llegar a tener un impacto en la ciencia en general, ya que explica los "procesos irreversibles" en la naturaleza, es decir, el movimiento hacia niveles de vida y organización siempre más altos. Prigogine, cuyo interés primario había residido en la historia y en las humanidades, había advertido que la ciencia, en general, ignoraba esencialmente el concepto de tiempo y su teoría surge para cubrir la brecha crítica que había existido entre la física y la biología, constituyéndose en el lazo entre los sistemas vivos y el universo -aparentemente sin vida- en que se desarrollan, se podría decir que su teoría enlaza el nivel biológico con las leyes físico-químicas: no se afirma una simple reducción sino que se admite que lo biológico constituye algo nuevo pero relacionado con lo anterior.

Un fenómeno irreversible es también el origen de la organización biológica. La primera formación de un organismo vital puede parecer altamente improbable si la dejamos librada a las solas leyes combinatorias en un nivel molecular simple, en tanto se, requeriría tiempos larguísimos superiores a la historia del universo, antes de la confirmación de un viviente. Prigogine muestra que en realidad estos procesos donde se genera orden a partir del caos son bastante frecuentes en la naturaleza. De este modo, Prigogine inserta el tiempo en el interior de la ciencia, y en la naturaleza. El universo evoluciona, gracias a tres exigencias: la irreversibilidad, la aparición de la probabilidad y la coherencia. El cambio de planteamiento es notable: el universo evoluciona irreversiblemente; la reversibilidad y la simplicidad clásicas son casos particulares. (S/a 2001: 23:29)

En "El Fin de las Certidumbres", Prigogine señala que "(...) la irreversibilidad ya no sólo aparece en fenómenos simples. Esta en la base de una multitud de fenómenos nuevos, como la formación de torbellinos, las oscilaciones químicas o la radiación laser. La irreversibilidad ya no se puede identificar con una simple apariencia que desaparecería si se tuviera acceso a un conocimiento perfecto. Es condición esencial de comportamientos coherentes en el seno de poblaciones de miles y miles de millones de moléculas. Sin la coherencia de los procesos irreversibles de no equilibrio sería inconcebible la aparición de la vida en la Tierra". (S/a 2001: 23:29)

Esta teoría no se refiere exclusivamente a ciertos aspectos intrincados de la ciencia, como lo hace, por ejemplo, la teoría cuántica, sino que se relaciona con aspectos relevantes de la vida cotidiana. Ofrece un modelo científico de transformación a todo nivel, ya que explica el rol crítico de la "tensión" en la transformación y su ímpetu en la naturaleza. Los principios que rigen las estructuras disipativas ayudan a entender los profundos cambios en psicología, aprendizaje, salud, sociología y aun en política y economía. La teoría, por ejemplo, ha sido utilizada por el Departamento de Transporte de Estados Unidos para prever el flujo del sistema de tráfico, y científicos de las más variadas disciplinas la emplean en sus especialidades.

Tanto en el siglo pasado como en el presente, se ha ido descubriendo y enfatizando el carácter esencial del concepto del tiempo. La ciencia va redescubriendo el tiempo en todos sus dominios y niveles: en la evolución de las formaciones geológicas, de las especies, de las sociedades, de la moral, de los gustos, de las lenguas, etc. Así, el tiempo parece convertirse en un nuevo tipo de unidad del conocimiento científico, en el hilo conductor de una exploración que nos permite hoy día articular las descripciones del Universo sin reducirlas, explicarlas sin negarlas. (S/a 2001: 23:25)

Un gran salto cualitativo en el desarrollo de la relación entre entropía e información representó la publicación en 1948 de la obra Teoría Matemática de la Comunicación, escrita por Claude Shannon en colaboración con W. Weaver. En dicho texto Shannon considera a la información como el elemento que elimina la indeterminación de la elección entre acontecimientos, introduciendo la probabilidad de aparición de los distintos mensajes. La cantidad de información de un mensaje aumenta conforme disminuya la probabilidad de que sea transmitido.

El mérito de Shannon consiste también en haber llegado por medio de la matemática, a descubrir la identidad entre la fórmula de la entropía y la de la cantidad de información. Shannon descubre la fórmula de la entropía de la información. (GUILLI 2001: 11:35)

Los conceptos de información y ruido se encuentran íntimamente relacionados y comparten su origen en la teoría de Shannon sobre la comunicación.

En el campo de la termodinámica de los procesos irreversibles de Prigogine, el ruido equivale a las fluctuaciones que provocan el paso de un estado estacionario de no equilibrio a otro, generándose un orden a partir de las fluctuaciones. (FERRER 2001: 17:37)

En el artículo "Carácter estructurante de las estructuras cognitivas", Nicolás Medina Curi, señala que la autorregulación constituye un concepto importante para comprender el proceso constructivo de un sistema. A partir de la presunción de Bertalanffy producto del segundo principio de la termodinámica "la tendencia hacia la máxima entropía o la distribución más probable es la tendencia al máximo desorden", infiere que esa visión sistemática compatibiliza con el enfoque constructivista, en el sentido de que algo que se construye se estructura como un sistema, con sus propios mecanismos de autorregulación, que posibilita su autoconstrucción y de allí hace referencia a la idea de sistema que se "autoconstruye" asegurando que "la autoconstrucción del sistema al mismo tiempo implica procesos de autorregulación". (MEDINA 2001: 18:57)

Wiener estudia con mucho detalle el problema de la entropía y la información, analizando su contenido en varias de sus obras, entre las que se cuentan Cibernética y Cibernética y Sociedad. Señala que la entropía y la cantidad de información están vinculadas porque caracterizan la realidad efectiva desde el punto de vista de la correlación que existe entre el desorden y el ordenamiento. Si la entropía es la medida del desorden, la cantidad de información es la medida del ordenamiento. Este punto de vista está muy difundido en la literatura y en general no encuentra objeciones; se considera muy natural y aceptable. El físico francés contemporáneo L. Brillouin, con su libro Ciencia y teoría de la información, realizó un importante aporte a esta investigación. Afirma que lo que es preciso vincular no es la entropía y la información, sino la entropía negativa y la información. Si la entropía caracteriza el desorden del sistema, la magnitud inversa, o sea la entropía negativa, caracteriza su ordenamiento. De ahí se deduce que la información, como la entropía negativa, es la medida del ordenamiento de un sistema determinado. (GUILLI 2001: 11:35)

Un número muy grande de los fenómenos que conocemos son irreversibles. Entre ellos se pueden mencionar, por ejemplo, el envejecimiento de las personas, la disipación de energía mecánica por fricción en cualquier motor y la disipación de la energía al fluir una corriente eléctrica por un conductor.

El aporte fundamental de la teoría de Prigogine consiste en poner de manifiesto que la naturaleza posee la capacidad de generar nuevas estructuras, diferentes de la simple agregación de componentes; y constituye una valiosa ayuda para advertir la deficiencias de las cosmovisión mecanicista.

La tendencia al orden en los sistemas abiertos supera el carácter simplista de la explicación causal lineal y unidireccional y la ley de la entropía, establecida por el segundo principio de la termodinámica y abre las puertas a un nuevo paradigma fundamentado en el hecho cotidiano de la emergencia de lo nuevo y de lo imprevisto, como fuentes de nueva coherencia.

4.2 Un Suceso Discontinuo: La Catástrofe

"Flotamos en un barco sin timón e ignoramos dónde está el puerto; es preciso, pues, continuar navegando"
Isaiah Berlin

El término Catástrofe viene del griego catá que significa caída. En las tragedias griegas frecuentemente fue utilizado para narrar el desenlace fatal de un argumento cuando el héroe o personaje recibe un escarmiento especialmente doloroso por parte de los dioses. (ENCICLOPEDIA MICROSOFT ENCARTA 98)

En el año 1965, René Thom enuncia su teoría de la catástrofe en su obra "Estabilidad Estructural y Génesis Morfológica" que tiene fundamento en desarrollos matemáticos de tipo topológico de cierta complejidad, los cuales permiten emular el comportamiento de sistemas dinámicos -también relativamente complejos- mediante funciones que producen formas geométricas múltiples.

Desde los tiempos de Newton, muchos fenómenos fueron tratados de modelar a través de ecuaciones diferenciales, que si bien es cierto constituyen una excelente herramienta matemática cuando se tienen procesos continuos, fallan cuando aparecen discontinuidades.

Thom enunció su famoso teorema que dice que en cualquier sistema gobernado por un potencial (tendencia de un sistema a adoptar de manera espontánea un estado), y en el cual el comportamiento esté determinado por cuatro factores diferentes, sólo es posible encontrar siete tipo de discontinuidades cualitativamente diferentes, en cada una de estas discontinuidades frecuentemente ocurre un salto brusco en el valor de alguna variable, a estos saltos es a lo que René Thom llamó catástrofe. (S/a 2001: 20:20)

Basados en la teoría de René Thom, algunos investigadores han propuesto otras definiciones de Catástrofe:

"Catástrofe es cualquier transición discontinua en un sistema con más de un estado estable, la catástrofe corresponde al salto de un estado a otro". (VIDE 1993: S/p)

"Un suceso que causa alteraciones intensas en las personas, los bienes, los servicios y el medio ambiente, excediendo la capacidad de respuesta de la comunidad afectada". (SANHUEZA & VIDAL 1996: S/p)

Para Thom las catástrofes no constituyen, como muchos tenderían a pensar, acontecimientos excepcionales, sino que forman parte del acontecer humano. La realidad bajo su visión, sería una sucesión de puntos irregulares que se expanden a través del tiempo, y en algún momento, esta sucesión normal se bifurca y obliga a saltar en otra dirección. (S/a 2001: 13:12)

Ejemplos de catástrofes los encontramos a diario en el romper de una ola, en el paso del agua de su estado líquido al gaseoso, en una fractura súbita de un material bajo presión, en la turbulencia de los fluidos y hasta en el mismo acontecer de la muerte.

La teoría de las catástrofes no ha escapado a los detractores de la mayoría de teorías insertas en el paradigma de la complejidad; pero aunque la esencia del teorema pueda resultar compleja, posee la enorme ventaja de describir comportamientos catastróficos mediante ecuaciones polinómicas y uso de gráficos fáciles de interpretar.

Según refiere Morales Gorleri, para René Thom el cambio puede ocurrir de dos maneras: lineal cuando a un punto le sucede otro regularmente y además son compatibles entre sí; pero es catastrófico cuando la realidad determina la necesidad de saltar.

Hombre –continúa- no podría vivir a sobresaltos; estaría en medio del caos, es por ello que niega el cambio.

"A la negativa por el cambio sobreviene la actitud que llama metaestable. Un sistema es así cuando se empeña en negar el cambio. Zbigniew Brzezinski llama de este modo al comunismo y al fascismo; el destino de estos sistemas es la catástrofe". (S/a 2001: 13:12)

Según Sorman, Thom distingue dos actitudes básicas en los científicos: la demiúrgica y la hermenéutica. Los demiúrgicos -que se remontan a Galileo- encuentran las leyes o descubren la fórmula escondida que explican todo el universo. Los hermeneutas -entre los que se incluye el mismo Thom- se conforman con investigar la causa de los fenómenos describiéndolos y comprendiéndolos, y "si no comprendemos una teoría es porque esta es insuficiente". De aquí los ataques de Thom a Prigogine, para quien el mundo no es más que caos. Renunciar al determinismo y privilegiar el azar y el caos es, para Thom, abandonarse a modas intelectuales, o continuar con la tradición de personajes como Nietszche y Heidegger, que habían reemplazado "la lógica por el absurdo y la necesidad por la probabilidad" (SORMAN 1989: 55)

En realidad, dice Thom, detrás del azar cuántico existen ciertamente causas deterministas, aunque aún no las conozcamos. Precisamente su conocida 'teoría de las catástrofes' es, como él mismo dice, "un intento para exorcizar la idea de inestabilidad y volver a encontrarnos con las leyes de la causalidad". Se trata de restañar, de parar el sangramiento de la herida narcisista producida por el indeterminismo restituyendo omnipotencia a la razón, y es así que su teoría de las catástrofes asume la forma de un catálogo "lo más completo posible donde se describen situaciones en las que se pasa de lo que es inestable a un estado de estabilidad". (SORMAN 1989: 57)

Para Thom existen dos actitudes frente a las catástrofes: negarlas o aceptarlas de antemano. Para Khun –citado por Thom- hasta los científicos se aferran a las teorías establecidas, a los paradigmas negando hechos que los contradicen, hasta que lo nuevo se acumula haciendo necesario el salto.

Uno de los pilares conceptuales de Kuhn, es la convicción de que una revolución científica es un proceso no acumulativo en el que un paradigma reemplaza a otro total o parcialmente. Vio que la ciencia no evoluciona en línea recta, sino que muchas veces muestra aparente discontinuidad, queda en callejones sin salida o se reconstruye totalmente formando un nuevo paradigma. (PEREZ AGUIRRE 2001: 19:11)

A partir del análisis de los cambios bruscos en el valor de una variable, Thom construyó su teoría, la cual ha sido aplicada por muchos matemáticos, entre ellos cabe destacar al topólogo Christopher Zeeman, quien tras conocer la teoría de Thom puso un gran empeño en buscar ejemplos para ilustrarla. Es tal la variedad de problemas a los que fue aplicada – desde la turbulencia de los fluidos hasta la agresividad de los perros y los motines en las prisiones- que se vio sometida a una crítica sostenida y hábil de un número crecientes de matemáticos, entre los cuales sobresalieron Héctor Sussmann, Esteban Smale y Marcos Kac, los cuales dirigieron sus acusaciones más que sobre la propia teoría de Thom contra los trabajos de sus "aplicadores" cuyos trabajos calificaron de una lamentable falta de rigor y de exagerar resultados y posibilidades. No obstante, pese a esta primera derrota de los buscadores de catástrofes, algunos matemáticos continuaron trabajando lejos de las campañas publicitarias y han logrado vislumbrar nuevas orientaciones para el estudio de los fenómenos alineales, bifurcaciones y muchos más.

La teoría de las catástrofes ha sido aplicada en la psicología, la biología, la sociología, la etología, la ecología, la lingüística, la economía y la politología. En particular, el trabajo de Thom ha contribuido a conformar la nueva disciplina llamada biología matemática que puede considerarse el inicio de un largo camino para el estudio de fenómenos biológicos mediante modelos y leyes expresadas en lenguaje matemático. (S/a 2001: 10:28)

Un sencillo ejemplo que puede servir para ilustrar las catástrofes de tipo Psicológico lo constituye el cubo de Necker. El objeto en cuestión está formado por un cubo y un punto. Al observarlo, donde quiera que se haya colocado el punto, se tendrá la impresión de que se encuentra situado sobre una cara; tras unos segundos de observación, intempestivamente cambia la perspectiva, pasando a ubicarse en una segunda posición, allí se ha producido un movimiento discontínuo y por tanto una catástrofe. Lo más relevante de la teoría de Thom es que, independientemente de la naturaleza del fenómeno que se estudie, si el número de parámetros significativos es el mismo, el comportamiento cualitativo también será igual. Investigaciones posteriores a la formulación de la teoría de catástrofes han demostrado que si en lugar de cuatro son cinco los parámetros de control, aparecen cuatro catástrofes que se suman a las otras siete. Con más de cinco factores, el número de discontinuidades se hace infinito, dejando así de tener validez el modelo propuesto por Thom. Puede ser que cuatro o cinco variables puedan considerarse pocas como parámetros de control, porque en general el número de variables que intervienen en un fenómeno es muy superior. (S/a 2001: 20:20)

Se han discutido también las aplicaciones filosóficas de la teoría de las catástrofes en la relación cuerpo-alma y en la intelección de la naturaleza a partir del mecanicismo o del finalismo, llegándose a afirmar que -por primera vez en la historia- es posible pensar matemáticamente en el ámbito de las disciplinas no experimentales. En este terreno se puede llegar con facilidad a extrapolaciones que salen fuera del ámbito científico y poseen un dudoso rigor, esto no impide que la teoría pueda resultar valiosa como ayuda para comprender algunos aspectos de la naturaleza subrayados por la cosmovisión moderna: concretamente, el comportamiento de las totalidades en cuanto tales, su organización, y la unidad misma de la naturaleza. (S/a 2001: 19:29)

Hoy la teoría de catástrofes ha caído en desuso y muchas veces es mencionada como el paradigma de un proyecto con grandes pretensiones que acabo en casi nada. Sin entrar a debatir posiciones de investigadores respetables como Kolata que llegó a compararla con el cuento de "El emperador está desnudo" de Andersen, (S/a 2001: 20:20), muchos coinciden en afirmar que la teoría de las catástrofes ofrece aportes interesantes para comprender la esencia de los fenómenos complejos.

La ciencia posmoderna en la teoría de su propia evolución presenta discontinuidades, es catastrófica, no rectificable y paradójica. Produce lo desconocido. Los sistemas no lineales descritos por la teoría de Thom casi siempre son estables; pero al entrar en escena un elemento perturbador se produce un cambio abrupto. Los sistemas dinámicos no lineales, sean caóticos o estables, son tan complejos que resultan imprevisibles en sus detalles. Thom encontró la forma para representar estos sistemas como una totalidad, usando la medición cualitativa de los pliegues topológicos y su mérito -sin duda alguna- fue el concebir la herramienta matemática para poder comparar cambios no lineales que ocurren en sistemas totalmente diferentes. (S/a 2001: 19:29)

4.3 El Devenir Impredecible de la Realidad como Sistemas Complejos

"Saber que se ignora no es nuevo ni fundamentalmente inquietante; en cambio, saber que una vez desentrañado un orden sigue existiendo una porción de ignorancia irreductible por siempre jamás y sin que medien en ello propiedades inefables o fuerzas ocultas, tiene un cierto retrogusto trágico"
Rafael Mandressi

La ciencia es percibida tradicionalmente como una actividad cuyo cometido es descubrir el orden, a menudo oculto por la naturaleza. No obstante, en la actualidad muchos científicos se interesan por el "desorden" bajo todas sus formas y la propia idea de elaborar una ciencia del desorden, ha ganado terreno. Parece haber en ello una paradoja ¿un desorden que es objeto de una "ciencia" sigue siendo realmente un desorden? Si se acepta que la ciencia apunta a revelar el orden de las cosas, el desorden no puede ser otra cosa que una impresión provisoria resultante de nuestra incomprensión, una ilusión que los progresos de la labor científica borrarán poco a poco (MANDRESSI 2001: 12:15).

De hecho – refiere Mandressi- durante mucho tiempo ése fue el programa de la ciencia, cuya historia aparecía como una progresión inexorable hacia el saber absoluto. No obstante –continúa- el "desorden" ya no es visto como una anomalía, "una arruga en el mantel del universo" (MANDRESSI 2001: 1), sino como una característica más que se encuentra en los movimientos del sistema solar, en los cambios climáticos, en los ritmos cardíacos y en la vida económica.

La introducción del desorden implica un abandono del platonismo –donde reinan las formas más simples y armónicas. En el desorden anida un cambio de estética, una mutación de tipo filosófico y cultural, una transformación de la sensibilidad. (MANDRESSI 2001: 12:15)

Durante las últimas dos décadas del siglo pasado, comenzó a gestarse un cambio paradigmático que afecta a todas y cada una de las disciplinas científicas de manera simultanea. El nuevo paradigma se ha venido a conocer con el nombre de Estudio de los Sistemas Complejos. "Se trata de una respuesta al cambio cultural frente a conceptos como los de desorden y caos que estaban desplazados del ámbito de la ciencia clásica, por ser considerados informes y vacíos de significación. (..) Los sistemas complejos se ubican entre la categoría de orden entendida como sinónimo de determinismo y previsibilidad total de la naturaleza y el caos, concebido como azar y desorden total, donde nada puede ser previsto. La complejidad, en cambio, supone irreversibilidad, temporalidad, no-linealidad, aleatoriedad, fluctuaciones, bifurcaciones, autoorganización, probabilidad y extrae de esta nueva información, una enorme riqueza de posibilidades para hacer crecer la ciencia." (RIERA 2001:1)

La característica de los sistemas de ser o no predecibles, es lo que determina en ellos el ser clasificados como sistemas lineales o no lineales. Los primeros, obedecen a la física gravitacional y cuántica; los no lineales, como el clima, los ecosistemas, las entidades económicas, los embriones en desarrollo y –principalmente- el cerebro, son impredecibles. Todos son ejemplos de una complejidad dinámica que desafía el análisis matemático y la simulación (LEWIN 1992: S/p).

La vida, tanto a nivel del funcionamiento de un organismo individual, como de su existencia en sociedad, es el ejemplo más pertinente de un sistema complejo.

El nuevo paradigma de la complejidad, contrariamente a la creencia de la ciencia clásica donde los sistemas cerrados y estables constituyen la norma, sostiene que la no linealidad se encuentra por todas partes en la naturaleza y que –hoy por hoy- los sistemas clásicos constituyen una excepción.

En cada cambio de paradigma se halla inmerso un desplazamiento de la consciencia dentro de la disciplina específica en la que ha ocurrido; este desplazamiento ha generado cambios tan drásticos, que pueden ser considerados realmente revolucionarios. La revolución científica se trasmite a la sociedad de la época, influyendo marcadamente en su desarrollo posterior.

En la ciencia clásica el determinismo, la regularidad, la estabilidad, la legalidad y la previsibilidad de la naturaleza marcaron las características de los sistemas. Su objetivo era descubrir donde estaba lo perdurable, lo carente de cambio. La previsión del futuro a partir de las leyes universales de la dinámica clásica, exhibía a todas luces un mundo compuesto de sistemas conservadores, reversibles y deterministas, con la pretensión de observar durante un instante y tener la osadía de predecir un comportamiento para la eternidad. (MANDRESSI 2001: 12:15)

Gracias al estudio de los sistemas complejos, hoy se sabe que las trayectorias que parecen tan reales son idealizaciones: el mundo reversible es sólo un caso particular de la realidad.

En la novela Parque Jurásico (1990, 1993), escrita por el médico y antropólogo, Michael Crichton, uno de los personajes, el matemático Malcolm, hace una excelente presentación de la teoría caos y de los sistemas complejos:

"(...) Dentro de la compleja variedad de un sistema, realmente encontramos regularidades ocultas. Ese es el motivo de que, ahora, la del caos se haya convertido en una teoría muy amplia que se usa para estudiarlo todo, desde la bolsa hasta multitudes que producen tumultos, pasando por las ondas cerebrales durante la epilepsia. Cualquier sistema complejo en el que haya confusión y que sea imposible de predecir. Podemos hallar un orden subyacente (...). La teoría del caos dice dos cosas: primero, que los sistemas complejos, como el clima, tienen un orden subyacente. Segundo, la inversa de eso, que sistemas simples pueden producir un comportamiento complejo". (CRICHTON 1993: 96-100 y 370)

La noción matemática del caos es importante en los sistemas complejos porque permite afirmar cuáles sistemas dinámicos simples y determinísticos pueden comportarse en forma impredecible o caótica. Hace más de una década científicos se dieron cuenta que ciertos sectores del caos en la naturaleza pueden ser descritos por leyes. Un sistema de este tipo, que sigue por un lado las leyes físicas de causa y efecto, pero que tiene consecuencias impredecibles es llamado –en el lenguaje de la ciencia moderna- sistema caótico. Si el modelo es suficientemente fiable, un puro razonamiento matemático debe permitir predecir el estado del sistema a partir del estado en un cierto instante de tiempo. La importancia de la teoría del caos radica en que muchos sistemas, aun simples, manifiestan una inestabilidad intrínseca cuyo efecto puede describirse como ampliación de pequeños errores iniciales. En lenguaje matemático, se habla de dependencia sensible a condiciones iniciales. En cierta manera el sistema –aunque se admita que es determinista- se comporta de manera que parece aleatoria. (PASQUALI 1999: 15:58)

Muchos de los sistemas dinámicos presentan tres clases de comportamiento: fijo, periódico y caótico (atractor de punto fijo, atractor de ciclo límite y atractor extraño). Stephen Wolfram dio con un cuarto tipo, intermedio entre el comportamiento caótico y el fijo o periódico. Al abandonar el territorio ordenado y entrar en la región del caos, se atraviesa una región muy estrecha, a la que Wolfram denominó «límite del caos». (MANDRESSI 2001: 19:59)

Christopher Langton en "la vida al filo del caos" –su tesis doctoral- postuló que existe sólo un estrecho rango de circunstancias específicas en las que los sistemas complejos pueden evolucionar y que la vida no debe ser definida por sus componentes materiales sino por su organización y actividad. (LANGTON 2001: 22:09)

Langton –quien cita por primera vez el término "Vida Artificial" para especificar una nueva ciencia emergente- sostiene que el material –estructuras de células basadas en el carbono- del cual esta hecha la "vida" podría haber sido accidental, coincidental y que hubiese podido ser cualquier otro tipo de material y que éste no puede determinar el hecho de estar un ente vivo o no. (S/a 2001: 10:24)

La nueva ciencia propuesta por Langton, coloca en discusión conceptos que se consideraba habían sido explicados por la ciencia tradicional, esto es, conceptos físicos y biológicos acerca de la vida y todas sus etapas: crecimiento, evolución, mutación, reproducción y muerte. La Vida Artificial surgió de la confluencia de varias disciplinas como inteligencia artificial, sistemas no lineales y teorías biológicas. Así como estas disciplinas fueron sustento para esta nueva ciencia, también la Vida Artificial provocó impactos en estas disciplinas.

La Vida Artificial inicialmente fue considerada como un movimiento pasajero de crítica a las teorías tradicionales; pero después obtuvo reconocimiento académico y actualmente sirve de base a antiguas introspecciones sobre la realidad de un mundo cibernético y la construcción de nuevas formas de vida basadas en el silicio y no en el carbono. Tal vez su principal característica sea el constituir un impacto en la ética y una discusión epistemológica de la realidad influenciada por la tecnología, dando a la realidad virtual una nueva concepción, no solamente como herramienta de simulación, sino como el puente para la incorporación de los sistemas de inteligencia artificial en las investigaciones en el área de la evolución computacional basada en la biología. (PERETO 2001: 10:22)

Per Bak, Lee Smolin, y bioquímicos como Stuart Kauffman –entre otros-, consideran que la evolución de las especies sobre nuestro planeta funciona como un sistema global con capacidad de autorregularse, es decir, supone que el mecanismo de evolución de las distintas especies se encuentra íntimamente acoplado, de tal manera que –por ejemplo- la desaparición de unas especies influye en la evolución del conjunto de las demás, provocando que la biosfera como un todo se vea afectada, lo cual genera ciertas reacciones espontáneas dentro de ella, que tienden a contrarrestar esos efectos. Todas estas ideas son evolucionistas, en ellas podemos contemplar el típico mecanismo ciego que se apoya en un sin fin de ‘milagros’, pero si contemplamos al Cosmos completo, con todo los universos posibles, implicado en esta regulación global, entonces es necesaria una auto-consciencia cósmica encargada de dirigir todo el proceso. (S/a 2001 19:52)

Ilya Prigogine ha llamado a este fenómeno «orden por fluctuaciones», noción que se asemeja a la de «criticalidad autoorganizada», propuesta por el físico Per Bak. La hipótesis de Bak es que los sistemas dinámicos evolucionan de modo natural hacia un estado crítico, y una vez que han llegado a él exhiben una propiedad muy característica: una perturbación pequeña puede desencadenar respuestas de diversa magnitud, desde una respuesta pequeña, que no modifica sustancialmente el estado del sistema, hasta una respuesta extrema, que provoque el colapso total del mismo. Bak propone una analogía visual que ayuda a comprender mejor esta idea. Si se lanza un pequeño chorro de arena sobre una bandeja circular el montón crece firmemente hasta que alcanza el límite y de repente, más arena –un solo grano, por ejemplo- puede desencadenar avalanchas de todo tipo, ya sea una avalancha pequeña, intrascendente, una avalancha de mediana intensidad, o una tan grande que lleve al montón de arena a derrumbarse por completo. El montón, cuando no recibe más arena adicional, representa el sistema en el estado crítico, donde una ínfima perturbación fortuita, puede arrastrarlo hacia un nuevo e imprevisible estado. (MANDRESSI 2001: 19:59)

Se han presentado numerosos modelos formales que exhiben comportamiento autoorganizativos, entre los cuales los de Kauffman sugieren que la autoorganización sería una propiedad esencial para que un sistema pueda evolucionar por selección natural. Si tal dependencia se confirmara, la noción de evolución por selección natural debería reformularse. (S/a 2001 0:06)

Patiño Restrepo, en su ensayo "Complejidad, Caos, Geometría Fractal" señala que una gran interrogante para la ciencia, a través del tiempo, ha sido de dónde proviene el orden del mundo que habitamos, un mundo que –señala- no es de componentes físicos que interaccionan al azar ni una mezcla desordenada de entidades, sino un medio donde la energía y la materia están dispuestas según una compleja y progresiva organización jerárquica, un mundo en movimiento y en evolución donde la materia aparece organizada a diferentes y variados niveles. Refiere que la evolución cósmica se ha caracterizado por un creciente orden y organización: el primer orden a partir del big-bang, o caos original, quedó establecido con la dispersión de enormes cantidades de energía primigenia y la "creación" de las fuerzas primordiales que la gobiernan; luego vino el segundo nivel de orden, la transformación de energía en materia, y luego la aparición de las estrellas y las galaxias. Cuando estuvo formado el planeta Tierra, apareció el orden de la química inorgánica primordial, que luego dio paso al orden de la química orgánica, y éste al orden de la biología y con éste a la aparición de la materia viva. La vida continuó su ciclo evolutivo para dar lugar a la vida inteligente, y ésta a la conformación de organizaciones sociales, o sea al orden social, cuyo progreso en gran parte está determinado por los avances tecnológicos. En los últimos años, señala Patiño, se ha progresado en el estudio científico del orden como concepto abstracto, lo cual ha permitido una visión racional de cómo ha surgido el orden a partir del caos, así como sobre los principios que controlan el crecimiento y la desintegración del orden. "En palabras de Paul Davies, "la culminación del orden del mundo se encuentra en la tecnología y la sociedad humanas", lo cual quiere decir que la tecnología representa el nivel máximo de actividad organizada, y que la sociedad humana es el ejemplo supremo de orden" (PATIÑO 2001: 22:45)

La aparición de lo novedoso, de la capacidad de elegir, en el enfoque científico tradicional, fueron vistas bajo sesgo de la subjetividad. Hoy se tiene la certeza de que en los caminos de la naturaleza, hay accidentes que escapan al control de lo previsible. En ocasiones cuando se encuentra en estado crítico- una muy pequeña variación dentro del sistema puede dar origen a otro régimen de funcionamiento.

Cuando un sistema se ve afectado por perturbaciones aleatorias, modifica su estructura, se reorganiza. Literalmente, el sistema se organiza a sí mismo, en respuesta a la intervención de un factor azaroso. La característica fundamental de este proceso es que al término del mismo, se ha producido un incremento de la complejidad del sistema.

En los sistemas inestables las leyes de la naturaleza escapan al comportamiento determinista y se tornan fundamentalmente probabilistas. En la cosmovisión de Prigogine, el futuro no puede estar determinado porque está sometido al azar, a las fluctuaciones, a las bifurcaciones y amplificaciones. Prigogine (1983 El tiempo y el devenir, Gedisa, Barcelona) asevera que se trata de un nuevo principio de incertidumbre que sostiene que más allá de cierto umbral de complejidad, los sistemas siguen rumbos imprevisibles, pierden sus condiciones iniciales y no se pueden invertir ni recobrar. Sin duda alguna, esta nueva forma de mirar a la naturaleza cobra un nuevo sentido, es un reconocimiento de sus potencialidades creativas, arropadas bajo el manto de la posibilidad y sin la finitud de la certidumbre.

4.4 Fractales: Un Mundo Escondido en el Detalle

"Hay un trozo de azul que tiene más intensidad que todo el cielo"
Alfonso Cortés

Fractal es un término introducido por Benoit Mandelbrot en la década de los 60, procede del vocablo latino fractus que significa "romper", y más específicamente "dividir" para crear fragmentos irregulares. (MUÑOZ 2001: 20:24)

Los fractales forman una vasta familia de objetos matemáticos cuyo comportamiento puede enmarcarse en la teoría geométrica de la medida y permite estudiar objetos naturales muy diversos.

Un Fractal es, básicamente una figura geométrica; pero definir un Fractal no es sencillo, porque se puede correr el riesgo de formalizar una definición imposible de ser aplicada a toda la familia de fractales existentes. No obstante, todos los fractales tienen algo en común: todos nacen producto de la iteración, repetición de un proceso geométrico elemental que da lugar a una estructura final de una extraordinaria complicación aparente, por ello se dice que son Autosemejantes, es decir que las figuras se repiten una y otra vez de una forma infinita.

Los objetos fractales se estudian en una nueva rama de las Matemáticas que recibe el nombre de Geometría Fractal, ésta, en contraposición a la Geometría Diferenciable –Euclideana-, no pierde la perspectiva del objeto en cada escala de observación, realiza el análisis local del objeto sin necesidad de suavizar el mismo, esto es, aproximar la forma geométrica compleja mediante otras más simples como rectas, planos, etc., perdiendo la perspectiva global del objeto geométrico al realizar un análisis localizado. (DE AZARA 2001: 13:12)

En este extraño objeto geométrico, matemáticamente sencillo de obtener, subyacen propiedades realmente sorprendentes. El observar un Fractal con detalle puede revelar resultados fascinantes: parece que el contorno de la figura está compuesto de infinitas auto-réplicas, a todas las escalas, a las que sea posible intentar explorar. Por más que se intente acercar el foco de observación, por más reducido que sea el entorno escogido para visualizar la imagen, nunca se alcanza un límite en el cual quede una simple curva, por el contrario, a mayor detalle, la complejidad caótica de la curva parece infinita. (S/a 2001: 22:15)

Este tipo de figura cuyo comportamiento es tan caótico como de singular belleza, fue descrito por los matemáticos del siglo XIX como "Monstruos Matemáticos", por ser objetos con propiedades geométricas que escapan al comportamiento lineal, predecible, previsible, aburrido... Un sistema caótico es, sin lugar a dudas, mucho más difícil de tratar; pero mucho más divertido. Sin la presencia del caos no habría sorpresa y no existiría la posibilidad de irrumpir en nuevos estados ordenados de figuras complejas para describir dentro del macroorden de la naturaleza, el microcaos del proceso íntimo de formación de figuras fascinantes, llenas de sorprendentes patrones de simetría.

Estos monstruos -acuñados hoy bajo el termino de fractales- tienen un perímetro infinito y sin embargo un área finita, ¿Cómo puede ser esto?

Fue precisamente Mandelbrot quien planteándose el problema de medir el largo total de la costa de Gran Bretaña, descubrió que el problema es menos trivial de lo que parece. A simple vista, para medir una costa cualquiera, vemos que existen ciertas irregularidades que deben ser abordadas por separado, como golfos, penínsulas, y otras más pequeñas. Cada una de éstas es a su vez, otra secuencia de zonas medianamente planas con pequeñas irregularidades inmersas, que deben nuevamente ser estudiadas aparte. El largo total de la costa –obviamente- dependerá de que cuánto detalle se incluyan en las irregularidades. Esto indica que la longitud de los objetos fractales no tiene un valor determinado, su longitud depende de la unidad que se escoja para realizar la medición. (MUÑOZ 2001: 20:24)

Esta fue la primera vez que se analizaron líneas contenidas en un área finita, pero de largo infinito, lo que constituye una de las principales características de los fractales.

El problema de la medición de la longitud de la costa, se conectaba intuitivamente al de la dimensión de estas nuevas figuras. El concepto natural de dimensión es que un punto tiene dimensión 0, una recta dimensión 1, una superficie dimensión dos y un volumen dimensión 3. Sin embargo, era necesario encontrar una forma más sofisticada de definir dimensión, conservando el concepto euclidiano, pero adaptándose a estos nuevos entes matemáticos. Tomando como base el trabajo realizado por Hausdorff en 1919 y modificado por Besicovitch en 1935, se definió un nuevo concepto de dimensión para el área de los fractales que es llamado de Hausdorff-Besicovitch. Con este método, se obtienen adecuadamente las dimensiones de las figuras conocidas. Sin embargo, sorprendentemente, la dimensión de los fractales son números fraccionarios. Es así como en la curva de Koch, por ejemplo , la dimensión obtenida es 1.2628, para el polvo de cantor (otro fractal lineal) se obtiene 0.6309, etc. (MUÑOZ 2001: 20:24)

Benoit Mandelbrot también encontró una estructura regular al comparar -en diferentes escalas- las evoluciones de los precios del algodón en todo el último siglo, como también en la evolución de las rentas. Encontró aspectos parecidos en secuencias de errores en la transmisión computacional de datos, en las crecidas del Nilo, en la forma de las nubes y de las costas. Arnold Mandell, médico psiquiatra, descubrió un comportamiento caótico en las enzimas del cerebro, sus trabajos apuntan a reconocer que el funcionamiento de la mente también tiene una estructura Fractal tanto en su base fisiológica como en su estructura semántica. (S/a 2001: 23:25)

Gaston Julia fue un matemático francés de principios de siglo quien, junto a Pierre Fatou, estudió por primera vez las formas de los conjuntos que llevan su nombre, intuyendo su gran complejidad. Su trabajo permaneció desconocido durante mucho tiempo, incluso para la mayoría de los matemáticos, hasta que a alguien se le ocurrió representar un conjunto de Julia en un computador.

Un conjunto de Julia no es más que el resultado de iterar una ecuación cuadrática en el plano complejo. "Se entra en el campo de los fractales gracias a la computación en donde fractal es la novedosa figura geométrica llena de colores siendo clásicas las imágenes creadas por Mandelbrot, obtenidas matemáticamente y que esconden propiedades sorprendentes. Al explorar en el computador el contorno de la figura, haciendo "zoom" sobre ella, parece que el borde de la figura está compuesto de infinitas auto-réplicas a todas las escalas en las que nos pongamos a explorar. Por mucho que afinemos y por muy reducido que sea el entorno de exploración nunca llegamos a un límite en el cual quede una simple curva, si no que la complejidad caótica de la figura parece infinita". (S/a 2001: 20:01)

Todos los copos de nieve tienen la misma geometría hexagonal básica pero no hay dos copos de nieve idénticos. Los copos se forman debido a que en las capas frías de la atmósfera se empiezan a condensar gotitas microscópicas de agua alrededor de una ínfima mota de polvo, estas gotitas se van pegando alrededor del "nucleador" de tal manera que el copo comienza creciendo desde adentro hacia afuera. Debido a la gran complejidad de los copos de nieve y a la existencia de algunos fractales similares a copos de nieve, como la llamada curva de Von Koch, durante algún tiempo se consideró que los copos de nieve eran también fractales, aunque ahora existen algunas dudas al respecto ya que presentan mucha mayor simetría y regularidad de la que sería esperada en un fractal. (HERNANDEZ 2001: 21:34)

En la actualidad, los diseños fractales permiten crear los más variado paisajes planetarios, ejemplo de su utilización en el cine, se encuentra en las películas "El imperio contra-ataca" y "El retorno del Jedi". Los fractales también son usados para diseñar árboles, nubes, moléculas de proteínas y células cancerígenas, para facilitar su estudio en un intento por describir el comportamiento y la evolución en estado natural. De igual forma, se utilizan en la dinámica económica, el movimiento browniano (movimiento caótico de las moléculas en fluidos), el agrietamiento de los materiales de construcción, la contaminación de las aguas subterráneas, etc. (S/a 2001: 18:30)

Una aplicación muy particular que han tenido los fractales se ha dado en España con los denominados virus fractales, un nuevo tipo de software, considerado una "bacteria informática", parecidas a los populares virus; pero menos nociva que estos.

"Se inspiran en las ideas de Tom Ray, un biólogo que estudió durante muchos años las mariposas y hormigas de Costa Rica buscando el secreto de la evolución de la vida, y encontró su Grial en el departamento de Inteligencia Artificial del MIT. Allí, Ray descubrió que los programas pueden actuar como organismos vivos, autoreplicándose, interactuando, sufriendo mutaciones al azar y pasándose un código de padres a hijos. Se compro un portátil, aprendió programación genética y una noche, nacieron sus primeras criaturas digitales. Al programa/espacio donde se ejecutaban virtualmente los pequeños programas/criaturas, lo bautizó con la palabra española Tierra. Ahora, está intentando convertir Tierra en un continente virtual". (S/A 2001: 19:45)

Una vez que estos virus fractales se introducen en un computador, atacan sólo las imágenes en formato JPG y las alteran hasta formar paisajes auténticamente psicodélicos. Han sido liberados en la Internet Española, como parte de un experimento de vida artificial; muchos de sus propulsores, en nombre de la biodiversidad virtual suplican que no sean eliminados los virus fractales.

Aunque han sido estudiados principalmente en el mundo de la matemática, los fractales también pueden ser usados en áreas menos abstractas, como el modelamiento de árboles, nubes, montañas, medición de longitud de las líneas costeras, y en general, cualquier hecho que no sea posible de representar mediante variables geométricas clásicas o euclidianas (como sí lo son los conos de helado, los dados, las pirámides egipcias, etc). (S/a 2001: 13:17)

También pueden encontrarse comportamientos análogos al de los fractales en diversos campos. En Economía, el análisis detallado del comportamiento de los cambios de precios de los productos; en lingüística, la frecuencia del uso de las palabras; en la música; en la Teoría de Circuitos Eléctricos y en la Teoría de Información, por mencionar algunas áreas.

En la naturaleza pueden encontrarse estos fenómenos tal vez más de los que en un primer momento cabría imaginar. Además de las líneas costeras, los paisajes naturales y las cadenas montañosas también tienen características fractales. En biología también pueden encontrarse numerosos ejemplos de fractales, por ejemplo la membrana que cubre el hueso de la nariz es tal que la relación entre área y volumen encerrado no sigue un patrón geométrico, sino Fractal. (S/a 2001: 13:34)

"Las montañas no son conos, las nubes no son esferas, los rayos no viajan en línea recta, los ritmos dinámicos no son totalmente regulares. Estos esquemas geométricos, como abstracción de la realidad natural, pertenecen al mundo mental, pero no se reflejan tal cual en la Naturaleza física, y no permiten una comprensión y descripción real de los fenómenos dinámicos naturales. Expresan una belleza conceptual, pero para la comprensión de la complejidad del caos en la Naturaleza, se han demostrado inútiles. Y justamente por ello se ha venido hablando de caos en la Naturaleza, mientras que ahora, con la nueva Geometría Fractal, podemos hablar de Orden dentro del Caos". (S/a 2001: 23:21)

A principio de esta década, dos ecólogos de la Universidad de Nuevo México, James Brown y Brian Enquist, junto Geoffrey West, físico de partículas del Laboratorio Nacional Los Alamos, llegaron a la conclusión que la tasa metabólica en todos los organismos tiene que ver con la distribución de alimento y la eliminación de basura y propusieron un modelo de distribución Fractal que se ajustó perfectamente a los datos experimentales. Según West, la estructura Fractal crea una especie de cuarta dimensión espacial. Matemáticamente, cada uno de nosotros vive en dos mundos espaciales diferentes: uno tridimensional y otro interior que - por extraño que parezca - tiene unas 3,7 dimensiones. El trío de investigadores a pesar sus controvertidas aseveraciones, sueña con un ambicioso campo de aplicaciones: la longevidad, la duración de la preñez, el número de crías, el tamaño de una población. Aseguran que si logran entender el origen de las leyes de escala, posiblemente pueda arrojarse luz sobre el tema del envejecimiento y de la muerte. (LOTERSZTAIN 2001: 18:59)

A través de la historia de la ciencia ha ocurrido que algunas ideas que habían sido descartadas por su apariencia absurda han demostrado ser válidas cuando se cambia de paradigma. La línea del pensamiento pitagórico basada en una naturaleza matemática del Universo que culminó en la frase de Platón "Dios geometriza", mostró a los objetos geométricos como constituyentes del orden supremo del macrocosmos. La estructura de la mente y su interrelación con el mundo podría tener una base matemática mucho mayor de lo que posiblemente ni el mismo Pitágoras hubiese imaginado.

El principio de Autosemejanza de los fractales -característica del paradigma de la complejidad- ha dado nacimiento a una nueva comprensión estética y a nuevas concepciones de carácter filosófico y metafísico que se acercan mucho a viejas concepciones esotéricas tradicionales. Se ha dado inicio a un nuevo camino, con rumbo hacia una nueva concepción estética, donde Ciencia y Arte estarán profundamente armonizados en un Todo indisoluble con la Filosofía.

La formación de uniones entre las células de los capilares pulmonares; la relación entre el volumen del cerebro y el área de la superficie que lo encierra en los mamíferos, las hojas de helecho, los corales, las nubes, los cráteres de la Luna o de Marte, la descarga y nivel de crecida de los ríos, las fracturas de las rocas, los cristales de nieve, los árboles, el sistema sanguíneo, el sistema nervioso, las agrupaciones de galaxias, los remolinos turbulentos, el recorrido de los rayos en el cielo, la propagación de la epidemia en una población y la formación cristalina de los minerales son ejemplos de fractales naturales, más no ideales. Su formación ya no puede decirse que sea el resultado de un hecho fortuito, sino que obedece a las leyes de la geometría Fractal.

Más Allá de las Conclusiones. Hacia Nuevas Preguntas

De las revisiones precedentes pueden sintetizarse algunos aspectos relacionados con el carácter "metateórico de la complejidad" (CISNEROS: 2000: 1)

1) La realidad que observamos depende de nuestro método de interrogación, tal como afirmaba Heisenberg.

2) Todas las cosas son causadas y causantes, ayudadas y ayudantes, mediatas e inmediatas y todas subsisten por un lazo natural e insensible que liga a las más alejadas y a las más diferentes.

3) La materia tiende a la desorganización (entropía) y la vida tiende a la organización (neguentropía).

4) La realidad es compleja:

Presenta la paradoja de lo uno y lo múltiple.

Tiene capacidad de autogenerarse y autoorganizarse.

Es heterogénea e interconectada.

No tiene límites definidos.

El todo está en la parte que está en el todo.

Puede ser y no ser a la vez.

Está constituida por el fenómeno observado y el proceso de observación.

Los equilibrios posibles son locales no sistémicos.

Es impredecible.

5) Ontológicamente, la epistemología de la complejidad implica aceptar:

La naturaleza múltiple y diversa de lo estudiado.

La integración y desintegración de elementos diferentes y contradictorios en diferentes tipos de unidad.

La aceptación del cambio.

Lo imprevisto como forma de expresión.

Comprender formas irregulares de orden.

La "matriz epistémica" del paradigma de la complejidad construido a partir de los autores analizados se expresa en el cuadro siguiente (ver en PDF).

Sin embargo, la aproximación reseñada sugiere algunas reflexiones y nuevas preguntas para continuar el flujo indeterminado y entrelazado del conocimiento.

En primer lugar, en autores como Sheldrake (resonancia mórfica), Thom (Catástrofe) y otros, se percibe un apego a formas de validación: experimentos, generalización, leyes implícitas, correspondientes al paradigma cartesiano-newtoniano, lo que resulta comprensible pues se encuentran entre los precursores de esta ruptura epistémica y en consecuencia, representan el pensamiento intermedio de la transición paradigmatica.

Por otra parte, la excesiva generalización y vulgarización de términos y conceptos que a una velocidad inimaginada se transfieren a disciplinas, áreas, teorías y espacios científicos, conlleva al germen de su posible destrucción, al correrse el riesgo de perder o desvirtuar su fuerza explicativa.

Igualmente, la tentadora "poética de la complejidad" puede conducir a la generación de un lenguaje poco riguroso y sistemático que termine por no explicar la realidad ya de por sí definida como "incognoscible".

La discusión se hace obligada para todos aquellos que de una u otra forma se compenetran con procesos de investigación y aprendizaje.

Muchos temas posibles de investigación se encuentran al interior y en las fronteras del pensamiento complejo: actos de distinción, procesos de observación, delineamientos de perspectivas, descubrimiento de otras lógicas, puentes teóricos intra y transdisciplinarios, cartografías de conceptos y principios, herramientas y metodologías de abordaje de la complejidad aún inexploradas, que hacen de este nuevo milenio, un territorio virgen para nuevos descubrimientos.

Mas que modificar y cambiar la manera de comprender, conocer y aprehender la realidad, el esfuerzo se orientaría a desaprender nuestra manera tradicional de interrogarnos, ya que en cada pregunta va implícita una determinada visión del mundo y en consecuencia, los mismos límites de esas infinitas respuestas que constituyen el conocimiento.

Bibliografía

AGUADO, José Miguel. (2001). Fundamentos epistemológicos del Paradigma de la Complejidad: Información, Comunicación y Auto-organización.

AGUILAR SOTO, Juan Francisco. (2001). De viajes, viajeros y laberintos. Caos, complejidad e innovaciones educativas.

ARIAS GUEVARA, R.A. RODRIGUEZ JAIMES, C. PARDO SARMIENTO, M.C. (1997) Sobre el significado de la interacción en un espacio virtual

BAIG, María. (2001). Heisenberg en perspectiva

________ (2001). Werner Heisenberg. La creación de la Mecánica Cuántica

BOHM, David. (1988). Ciencia Orden y Creatividad. Barcelona. Kairós.

________ (1992). Totalidad y Orden Implicado. Barcelona. Kairós.

BRIGGS, J. Y PEAT, F.D (1994). Espejo y Reflejo: Del Caos al Orden. Guía ilustrada de la teoría del caos y la ciencia de la totalidad. Editorial Gedisa. Barcelona. España.

CAPRA, Fritjof (1997). El Tao de la Física. Editorial Sirio. Málaga. España.

________ (1996). El Punto Crucial. Ciencia, sociedad y cultura naciente. Argentina. Editorial Estaciones.

________ (1994). Sabiduría Insólita. Conversaciones con personajes notables. Segunda edición. Editorial Kairós. Barcelona. España.

CARRERAS, Alberto (2001) Autopercepción y Terapia Sistémica

ARNOLD, Marcelo (1997) Introducción a las Epistemologías Sistémico/Constructivistas.

CISNEROS, César. (2001). Pensamiento Borroso y Narrativas cotidianas. Revista Casa del Tiempo. Puebla. México.

COLLE, Raymond (2001) La computación desentraña el caos y la complejidad

CRICHTON, M. (1990) Parque Jurásico. Traducción por DP Yagolkowski de Jurassic Park. 1990. Bogotá. Emecé Editores y Editorial Printer Latinoamericana Ltda.

DE AZARRA, Felix (2001). Geometría Fractal

DELEUZE, G y GUATTARI, F (2001) Schizoanalysis & Literary Discourse

DJ, J. (2001) Hacer rizoma en Los Angeles

ESTÉ, M.E. (2001) ¡Proceso no producto!

FERNÁNDEZ, Sergio Pablo (1999) Mente, Representaciones y Ciencia. Cinta de Moebio. Chile. Universidad de Chile. Facultad de Ciencias Sociales. Nº5 abril, 1999.

FERRER, Carolina (2001) Información y Ruido en KONFIDENZ

GERGEN, Kenet J. (1998) El Yo Saturado. Dilemas de identidad en el Mundo Contemporáneo. Ediciones Paidos Iberoamérica. Barcelona. España.

GIMENO SACRISTAN, J. y PÉREZ , A. (1995) Comprender y Transformar la Enseñanza. Ediciones Morata, S.L. Madrid. España.

GOMEZ, I. y ALARCÓN, L. (2001) El pensamiento postmoderno como línea de fuga.

GONZÁLEZ BOSQUE, Marcelo (2001). Lógica borrosa (fuzzy logic) y algoritmos genéticos

GONZÁLEZ MOENA, Sergio Compilador. (1997). Pensamiento Complejo. En torno a Edgar Morín, América Latina y los Procesos Educativos. Bogotá. Mesa Redonda. Cooperativa Editorial Magisterio

GONZALEZ REY, Fernando. (1997). Epistemología Cualitativa y Subjetividad. La Habana. Editorial Pueblo y Educación

GUILLI, Mario (2001) Critica de la Ley de la Negación de la negación

HERALDO (2001). Incertidumbre e interpretación

HERNÁNDEZ, Efraím. (2001). Complejidad libertad. Suplemento Ancora

HERNANDEZ, Rafael (2001) Copos de Nieve Fractal

JASINER, Clara. (2000). ¿Ciencia o Ilusión de Certidumbre?

JAVALOY,F. ESPELT, E. y RODRIGUEZ, A. (2001) Internet y Movimientos Sociales. Un enfoque psicosocial

JUTORAN, Sara B. (2001) El proceso de las Ideas Sistémico-Cibernéticas

LE VIGAN, Pierre (2001). Astrofísica los nacimientos del mundo.

LEIBNIZ, G.W, DELEUZE, G y GUATARI, F. ( 2001) Rizomas

LEMA, Fernando. Editor. (2000). Pensar la Ciencia. Los Desafíos éticos y políticos del conocimiento en la posmodernidad. Caracas. Colección Respuestas. Ediciones IESALC/UNESCO.

LEWIN, R. (1992) Complexity. Life at the Edge of Chaos. New York. Macmillan Publishing Company

LIBERATI, Jorge (1996). Sobre la Lógica Borrosa. Página latinoamericana de filosofía –número uno- enero 1997- Montevideo Uruguay

LOTERSZTAIN, Ileana (2001) Bacterias, Rinocerontes y Fractales

MANDRESI, Rafael (2001) Henciclopedia

________ (2001) Complejidad, caos, desorden

________ (2001) Orden, desorden, caos: ¿un nuevo paradigma?

MARTÍNEZ MIGUÉLEZ, Miguel. (2001) El Desafío de la Racionalidad Científica Clásica

_______ (2001a). Necesidad de un Nuevo Paradigma Epistémico

MARTÍNEZ, Ludy y J.V. Rubio. (2000). Cartografía de la Complejidad. Grandes temáticas de la Complejidad. Principios de la Complejidad. Documentos

MATURANA, Balbi. (2001) Humberto Maturana R.: La biología del conocimiento

MATURANA, Humberto. (1995) La realidad: ¿objetiva o construida? I Fundamentos biológicos de la realidad. Barcelona. España.

________(1995). La realidad: ¿objetiva o construida? II Fundamentos biológicos del conocimiento. Barcelona. España.

________ (1997). El sentido de lo humano. Dolmen Ediciones. S.A. Santiago. Chile.

________ (2001). La biología del conocimiento

MEDINA, Nicolas (2001) Constructivismo Psicogenético

MICROSOFT ENCICLOPEDIA ENCARTA (1998). "Diccionario Actual de la Lengua Española"© 1995 Biblograf, S.A., Barcelona.

MONTEJO RÁEZ, Miguel Angel (2001). Breve Curso de lógica borrosa y control borroso

MORIN, Edgar. (1974). El Paradigma Perdido. Ensayo de Bioantropología. Barcelona. Editorial Kairós

________ (1997). Introducción al Pensamiento Complejo. Barcelona. Gedisa editorial.

MUÑOZ, Francisca y MEZA, Rhodrigo. (2001) Descubriendo los Fractales

NAVALPOTRO, Angel (2001) ¿De qué va la teoría del Caos?

ORTUÑO ORIN, Miguel (2001) Sobre la Impredecibilidad en Física

OSORIO, Francisco (1999) Posibilidad de una Teoría del Conocimiento Anoumenal en Kant. Cinta de Moebio. Chile. Universidad de Chile. Facultad de Ciencias Sociales. Nº5 abril, 1999.

PASQUALI, Iván (2001) Saber Cómo Saber Que Se Sabe

PATIÑO R., José (2001) Complejidad, Caos, Geometría Fractal

PERALTA, Cesar (2001) Una Lectura de Ilya Prigonine

PEREA, Héctor. (2001). Las artes sin Musa

PERETO, Alberto (2001) Introdução da monografia Vida Artificial: uma nova proposta para a realidade

PEREZ, Luis (2001) Ciencias Tecnológicas y Concepto de Paradigma

PINEDA, Antonio (2001) Literatura, Comunicación y Caos: Una lectura de Jorge Luis Borges (1º Parte)

PRADENAS MERA, Alfredo. (2001). La repercusión de la ciencia y la técnica en la existencia humana

PRIGOGINE, Ilya. (1999). Las Leyes del Caos. Primera edición en biblioteca de bolsillo. Editorial Crítica. Barcelona. España.

RICCI, Ricardo (1999). Acerca de una Epistemología Integradora. Cinta de Moebio. Chile. Universidad de Chile. Facultad de Ciencias Sociales. Nº5 abril, 1999.

RIERA, Elba (2001) República Argentina

RIVERA, Laura. (2001). Cibercultura.

ROBLES, F. Y ARNOLD, M. (2000). Comunicación y Sistemas de Interacción

ROMO PROAÑO, Fabian (2001). Cuando la Física Cuántica empieza a definir el principio del fin. Revista Internacional de Cultura.

RUBIO, José Vicente. (1994). Creatividad. Una nueva concepción para una nueva época. Bogotá. II Congreso Pedagógico Nacional.

________ (1996). Expediciones a la Complejidad. Bogotá Cinpar-Redcom

________ (2001). ¿Qué es la Complejidad?

________ (2001). Iniciación a la Complejidad

RUELLE, David. (1993). Azar y Caos. Versión española de Javier García Sanz. Alianza Editorial. Madrid. España.

RUIZ, Alfredo (1997) Las Contribuciones de Humberto Maturana a la Ciencia de la Complejidad y a la Psicología

SARRAS, Omar. (2001). "Un problema de deseo"

SHELDRAKE, Rupert. (1990). La Presencia del Pasado. Resonancia Mórfíca y Hábitos de la Naturaleza. Barcelona Editorial Kairós.

SORMAN, G. (1991) Los verdaderos pensadores de nuestro tiempo. Barcelona. Seix Barral.

________ (1989) Los verdaderos pensadores del siglo XX. Buenos Aires. Edición Atlantida SA.

TREMMEL, Ralph (2001) Matemáticas para Catástrofes

VALVERDE, Llorenç (1996). L. A. Zadeh: Del control analítico al control borroso. Universitat de lesIles Balears. Palma de Mallorca. España.

VARGAS AVALO, Pedro (2001) Construccionismo, Constructivismo y Terapia Sistémica

VON BERTALANFFY, Ludwig. (1991). Teoría General de los Sistemas. México. FCE.

VON DER BECKE, Carlos (2001) Glosario de Bioingeniería del conocimiento y temas afines

WATZLAWICK, P. y KRIEG, P. (1998). El ojo del observador. Contribuciones al constructivismo. Editorial Gedisa. Barcelona. España.

WILBER, Ken (1991). Cuestiones Cuánticas. Escritos místicos de los físicos más famosos del mundo. Tercera edición. Editorial Kairos. Barcelona. España.

ZAFRA, Ton. (2001). La Duda Feliz

ZURDO, Alfredo (2001) Mundo Fractal

Home | Indice | Números Completos | Instrucción para Autores
Cinta de Moebio
Revista de Epistemología de Ciencias Sociales
ISSN 0717-554X